DE10115084A1 - Editiergerät und Editierverfahren - Google Patents
Editiergerät und EditierverfahrenInfo
- Publication number
- DE10115084A1 DE10115084A1 DE10115084A DE10115084A DE10115084A1 DE 10115084 A1 DE10115084 A1 DE 10115084A1 DE 10115084 A DE10115084 A DE 10115084A DE 10115084 A DE10115084 A DE 10115084A DE 10115084 A1 DE10115084 A1 DE 10115084A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- editing
- image
- playback
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/32—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
- G11B27/327—Table of contents
- G11B27/329—Table of contents on a disc [VTOC]
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2525—Magneto-optical [MO] discs
- G11B2220/2529—Mini-discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/30—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
- G11B27/3027—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Ein Editiergerät zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem Speichermedium gespeichert werden sollen, besitzt einen Festlegungsteil, einen Bewertungsteil und einen Hinweisteil. Der Festlegungsteil legt eine Editierposition für die kodierten Daten fest. Der Bewertungsteil bewertet den Wiedergabezustand, wenn die kodierten Daten von der durch den Festlegungsteil festgelegten Editierposition aus wiedergegeben werden. Der Hinweisteil weist den Benutzer des Editiergeräts auf das Ergebnis der Bewertung durch den Bewertungsteil hin.
Description
Die Erfindung betrifft ein Editiergerät und ein Editierverfahren, die z. B. die Möglichkeit bieten,
kodierte Daten durch Teilen der Daten zu editieren.
Digitale Videogeräte, mit denen Bewegtbilddaten aufgezeichnet und wiedergegeben und die
aufgezeichneten Bewegtbilddaten editiert werden können, z. B. digitale Videokameras, sind sehr
populär geworden.
Da Bewegtbilddaten große Datenmengen umfassen, ist es üblich geworden, solche Bewegtbild
daten für die Aufzeichnung auf einem Aufzeichnungsmedium einer Kompressionskodierung zu
unterziehen. So ist z. B. das MPEG-Format als Format für eine solche Kompressionskodierung
von Bilddaten allgemein bekannt.
Eine der möglichen Editieroperationen für Bilddaten in einem digitalen Videogerät besteht darin,
daß eine Datei von Bewegtbilddaten z. B. in mehrere Dateien unterteilt.
Als Verfahren für das Teilungseditieren von Bewegtbilddateien wird vorgeschlagen, die auf
einem Aufzeichnungsmedium aufgezeichneten Bilddaten nicht tatsächlich direkt zu verarbeiten
sondern, z. B. mit einer als Script bezeichneten Beschreibungsinformation für die Wiedergabe-
Steuerung, eine Teilungsposition für die Bilddaten zu beschreiben. Das digitale Videogerät er
kennt die in dem Script beschriebene Teilungsposition und führt die Wiedergabe in der Weise
aus, daß auch eine durch die Teilungseditierung gewonnene Datei als Datei behandelt wird.
Als einer der Fälle, bei denen das Teilungseditieren einer Datei in der oben beschriebenen Weise
nach einem Script vorgenommen wird, wird hier als Beispiel der Fall betrachtet, daß Bewegtbild
daten nach dem MPEG-System (Motion Picture Experts Group) komprimiert und kodiert werden.
Wenn in diesem Fall die Wiedergabe von einer Bewegtbilddatendatei aus gestartet wird, die tat
sächlich durch Teilungseditieren gewonnen wurde, vergeht mitunter mehr Zeit als üblich, bis die
Bewegtbilddatei dekodiert und dann wiedergegeben und als Bild ausgegeben wird.
Der Beginn der Wiedergabe und die Ausgabe wird z. B. aus folgenden Gründen verzögert:
Für Daten, die nach dem MPEG-System komprimiert und dekodiert werden, ist bekanntlich als Dekodierdateneinheit eine Bildergruppe (GOP = Group of Picture) definiert. Vollbilddaten als GOP werden durch Prädiktionskodierung dekodiert, die nach einer vorbestimmten Ordnung er folgt, wobei Vorwärts- oder Vorwärts- und Rückwärts-Vollbilddaten benutzt werden.
Für Daten, die nach dem MPEG-System komprimiert und dekodiert werden, ist bekanntlich als Dekodierdateneinheit eine Bildergruppe (GOP = Group of Picture) definiert. Vollbilddaten als GOP werden durch Prädiktionskodierung dekodiert, die nach einer vorbestimmten Ordnung er folgt, wobei Vorwärts- oder Vorwärts- und Rückwärts-Vollbilddaten benutzt werden.
Während die Vollbilddaten in der GOP nacheinander dekodiert werden, benötigt man deshalb je
nach der Position der Vollbilddaten in einer GOP und in Abhängigkeit von der Teilungsfestle
gungsposition beträchtliche Zeit, bis das der Teilungsfestlegungsposition entsprechende Vollbild
in der GOP endlich dekodiert ist und mit der Wiedergabe und Ausgabe begonnen wird.
Bei der Aufzeichnung von Bilddaten auf einem Aufzeichnungsmedium, benutzt man ein an das
Aufzeichnungsmedium angepaßtes Aufzeichnungsformat. Wenn jedoch beispielsweise ein Pa
ket als Aufzeichnungsformat definiert ist, das mehr als eine GOP enthält, benötigt man ebenfalls
in Abhängigkeit von der Teilungsfestlegungsposition in dem Paket, beträchtliche Zeit, bis die
Teilungsfestlegungsposition eingelesen ist.
Der normale Benutzer weiß jedoch nicht, daß dieses Phänomen, d. h. daß mehr Zeit als üblich
benötigt wird, um die Wiedergabe und Ausgabe einer durch Teilungseditierung gewonnenen Da
tei von Bewegtbilddaten zu starten, auf das oben beschriebene Format zurückzuführen ist.
Wenn man nun dieses Phänomen einfach so läßt, wie es ist, empfindet der Benutzer Streß, und
die Zuverlässigkeit des Geräts wird beeinträchtigt.
Es ist ein Ziel der vorliegenden Erfindung, ein Editiergerät und ein Editierverfahren anzugeben,
mit denen die Zuverlässigkeit verbessert werden kann, indem der Benutzerstreß soweit wie
möglich abgebaut wird, der dadurch verursacht wird, daß dort, wo eine Teilungseditierung von
kodierten Daten, z. B. von Bewegtbildern, möglich ist, viel Zeit vergeht, bis eine durch das Tei
lungseditieren gewonnene Datei wiedergegeben und ausgegeben wird.
Nach einem Aspekt der Erfindung wird dieses Ziel erreicht durch ein Editiergerät mit den Merk
malen des Anspruchs 1.
Wenn in dem Editiergerät eine Teilungseditierung von Daten, die in vorbestimmten Einheiten
kodiert sind, durchgeführt werden soll, wird Wiedergabezustand bewertet und das Ergebnis der
Bewertung dem Benutzer zugeführt. So kann der Benutzer wenigstens erfassen und erkennen,
welcher Wiedergabezustand als Ergebnis der von ihm selbst durchgeführten Teilungseditierung
erreicht ist.
Bei einer Editieroperation, bei der eine Teilungsposition der Daten, z. B. von Bilddaten, die bei
spielsweise nach dem MPEG-System komprimiert und kodiert sind, festgelegt wird, wird der
Wiedergabezustand unter Berücksichtigung der Wiedergabe der Daten von der Teilungsposition
aus bewertet, und das Ergebnis dieser Bewertung wird dem Benutzer zugeführt.
Deshalb kann der Benutzer zumindest den Wiedergabezustand im voraus aus dem ihm zuge
führten Bewertungsergebnis erkennen und erfassen, der durch die von ihm selbst vorgenom
mene Editieroperation verursacht wird. Wenn dann die Wiedergabe tatsächlich durchgeführt
wird, sind der Streß und das Unbehagen für den Benutzer geringer. Der Benutzer kann die Tei
lungsposition z. B. so festlegen, daß ein möglichst gutes Bewertungsergebnis gewonnen wird.
Auf diese Weise kann der Benutzer mit dem Editiergerät z. B. mühelos ein besseres Editierer
gebnis erreichen, und die Zuverlässigkeit und die Bequemlichkeit bei der Benutzung können
verbessert werden.
Die Bewertungseinrichtung kann als Bewertungsergebnis eine Wiedergabewartezeit ausgeben,
die erforderlich ist, um die Wiedergabe nach einem Befehl, die kodierten Daten von der Editier
position aus wiederzugeben und auszugeben, zu starten.
So wird das an den Benutzer gelieferte Bewertungsergebnis als Wiedergabewartezeit ausgege
ben, d. h. als die Zeit, die vergeht, bis die Wiedergabe und die Ausgabe der Daten von der Tei
lungsposition aus gestartet wird. Wenn es sich um kodierte Daten handelt, kann die bis zur Wie
dergabe und Ausgabe der Daten erforderliche Zeit in Abhängigkeit von der Teilungsposition vari
ieren. Die Wiedergabewartezeit stellt für den Benutzer eine Wartezeit dar. Deshalb ist die Dar
stellung der Wiedergabewartezeit eine nützliche Information für den Benutzer, die die Bequem
lichkeit bei der Benutzung weiter verbessert.
Die Bewertungseinrichtung kann den Wiedergabekontinuitätsgrad ausgeben, der für Kontinuität
der Wiedergabe repräsentativ ist und auf der auszugebenden Wiedergabewartezeit basiert, wo
bei die Hinweiseinrichtung veranlaßt, daß der von der Bewertungseinrichtung ausgegebene
Wiedergabekontinuitätsgrad auf einem Anzeigeteil angezeigt wird.
Wenn als eine Art der Darstellung des Bewertungsergebnisses die Wiedergabewartezeit in
Form eines Verhältnisses dargestellt wird, kann der Benutzer sie leichter erfassen als dann,
wenn sie als reine Zeit dargestellt wird.
Die Bewertungseinrichtung kann als Wiedergabewartezeit zumindest die Datenauslesezeit arith
metisch ermitteln, die erforderlich ist, um Paketdaten, die eine Mehrzahl von kodierten Datenein
heiten enthalten, vom Anfang der Paketdaten bis zu derjenigen der kodierten Dateneinheiten
auszulesen, die die Editierposition enthält, oder als Wiedergabewartezeit die Dekodierzeit arith
metisch ermittel, die benötigt wird, um die kodierte Dateneinheit, die die Editierposition enthält,
bis zu den die Editierposition enthaltenden kodierten Daten zu dekodieren, wobei die Wiederga
bewartezeit durch Addieren der Dekodierzeit zu der Datenauslesezeit arithmetisch ermittelt
wird. Dies ermöglicht ein genaueres und zuverlässigeres Bewertungsergebnis.
Nach einem anderen Aspekt der Erfindung ist ein Editiergerät mit den Merkmalen von Anspruch
9 vorgesehen.
Bei diesem Editiergerät kann der Benutzer für die gewünschte Position als Teilungsposition eine
Festlegung treffen, mit der die aktuell gesetzte Teilungsposition verändert wird. Auf diese Weise
kann der Benutzer die Teilungsposition ändern, wobei er sich auf das Bewertungsergebnis be
zieht, das ihm über die Anzeige auf der Anzeigeeinrichtung vermittelt wird. Dadurch wird die
Handhabbarkeit beim Teilungseditieren weiter verbessert. Da das Bewertungsergebnis über die
Anzeige vermittelt wird, kann der Benutzer das Bewertungsergebnis visuell erfassen.
Die oben beschriebenen sowie weitere Ziele, Merkmale und Vorteile der Erfindung werden
durch die folgende Beschreibung und die anliegenden Ansprüche weiter verdeutlicht, die auf die
anliegenden Zeichnungen Bezug nehmen, in denen gleiche Teile oder Elemente mit den glei
chen Bezugszeichen versehen sind.
Fig. 1 zeigt eine schematische Ansicht der Spurstruktur einer Platte für eine Videokamera,
bei der die Erfindung angewendet wird,
Fig. 2A und 2B zeigen einen Schnitt bzw. eine Aufsicht eines Spurabschnitts der Platte von
Fig. 1 in größerem Maßstab,
Fig. 3 zeigt eine Tabelle der Spezifikationen der Platte von Fig. 1,
Fig. 4 zeigt ein Blockschaltbild des inneren Aufbaus der Videokamera, bei der die vorliegende
Erfindung angewendet ist,
Fig. 5 zeigt ein Blockschaltbild des inneren Aufbaus eines Mediumtreiberteils der Videoka
mera,
Fig. 6A und 6B zeigen eine Seitenansicht bzw. eine Aufsicht der Videokamera,
Fig. 7A und 7B zeigen eine Frontansicht bzw. eine Rückansicht der Videokamera,
Fig. 8A und 8B zeigen perspektivische Ansichten, die die Bewegungen des beweglichen An
zeigepanels der Videokamera verdeutlichen,
Fig. 9 zeigt ein Beispiel für die Datei/Ordnerverwaltung der Platte durch die Videokamera in
einer schematischen Darstellung,
Fig. 10 zeigt ein Konzept einer Datenstruktur der für die Kamera bestimmten Platte in einer
schematischen Darstellung,
Fig. 11 zeigt ein Konzept einer Datenstruktur der für die Kamera bestimmten Platte in einer
Beziehung zu den physikalischen Bereichen der Platte in einer schematischen Darstel
lung,
Fig. 12A und 12B zeigen schematische Darstellungen der Struktur eines AV-Pakets,
Fig. 13 zeigt ein Beispiel für eine Darstellungsform eines Bedienungsbildschirms (Thumbnail
Display) der Videokamera in einer schematischen Darstellung,
Fig. 14 zeigt ein Beispiel für die Betätigung der Wiedergabemenütasten in einer schemati
schen Darstellung,
Fig. 15 zeigt eine Prozedur zur Einstellung eines Spurteilungsmodus mittels eines Anzeige
formulars auf einem Anzeigepanel in einer schematischen Darstellung,
Fig. 16A bis 16D zeigen eine Prozedur im Spurteilungsmodus mittels eines Anzeigeformulars
auf einem Anzeigepanel in einer schematischen Darstellung,
Fig. 17 zeigt ein Flußdiagramm eines Wiedergabeprozesses für eine durch Teilung editierte
Datei,
Fig. 18 zeigt eine schematische Ansicht, in der die Berechnung eines bei der Wiedergabe de
tektierten Byte-Offsets veranschaulicht wird,
Fig. 19 zeigt eine schematische Ansicht, in der die Daten-Einlesezeit veranschaulicht wird,
Fig. 20 zeigt eine schematische Ansicht eines Dekodierprozesses für eine GOP des MPEG-
Systems,
Fig. 21A bis 21C zeigen schematische Ansichten, in denen ein Beispiel für den Unterschied in
der GOP-Datenanalysezeit entsprechend einer Teilungsfestlegungsposition veran
schaulicht wird,
Fig. 22 zeigt ein Flußdiagramm der Verarbeitung für die überlappende Anzeige des Glättungs
grads, wenn ein Pausenbildschirm angezeigt wird,
Fig. 23 zeigt ein Flußdiagramm der Verarbeitung zur Berechnung der Wiedergabewartezeit.
Das im folgenden beschriebene Editiergerät nach einem bevorzugten Ausführungsbeispiel der
Erfindung ist in eine tragbare Videokamera eingebaut, wobei der Kamerateil und der Aufzeich
nungs- und Wiedergabeteil, der ein Bild (ein Standbild oder ein Bewegtbild), ferner Ton usw.
aufzeichnen und wiedergeben kann, miteinander kombiniert sind. Der in die Videokamera des
Ausführungsbeispiels eingebaute Aufzeichnungs- und Wiedergabeteil benutzt eine Konstruktion,
bei der für die Datenaufzeichnung und Wiedergabe eine sogenannte Minidisc benutzt wird, die
als eine Art von magnetooptischer Platte bekannt ist.
Die Beschreibung geht in der folgenden Reihenfolge vor.
- 1. Plattenformat
- 2. Äußeres Erscheinungsbild der Videokamera
- 3. Innerer Aufbau der Videokamera
- 4. Aufbau des Mediumtreiberteils
- 5. Beispiel für die Struktur der für die Videokamera geeigneten Platte
- 6. Prozeß für die Thumbnail-Bilderzeugung
- 7. Script
- 8. Anzeige des Bedienungsbildschirms
- 9. Prozeß der Dateiaufteilung
- 1. 9-1. Editieren mit Dateiunterteilung
- 2. 9-2. Wiedergabeverarbeitung
- 3. 9-3. Wiedergabewartezeit
- 4. 9-4. Teilungseditieren
Der Aufzeichnungs- und Wiedergabegeräteteil, der in die Videokamera nach dem vorliegenden
Ausführungsbeispiel eingebaut ist, eignet sich für ein als MD-Daten bezeichnetes Format, nach
dem Daten auf einer Minidisc (magneto-optische Platte) aufgezeichnet und von dieser wieder
gegeben werden. Als MD-Datenformat wurden zwei unterschiedliche Formate entwickelt, die
als MD-DATA1 und MD-DATA2 bezeichnet werden. Die Videokamera nach dem vorliegenden
Ausführungsbeispiel führt die Aufzeichnung und die Wiedergabe nach dem MD-DATA2-Format
durch, das eine höhere Aufzeichnungsdichte erlaubt als das MD-DATA1-Format. Deshalb wird
zunächst das MD-DATA2-Format beschrieben.
Fig. 1, 2A und 2B zeigen ein Ausführungsbeispiel für die Spurstruktur einer Platte im MD-DATA2-
Format. Dabei zeigen Fig. 2A und 2B einen Schnitt bzw. eine Aufsicht, die den in Fig. 1 von einer
gestrichelten Linie A umschlossenen Teil in größerem Maßstab darstellen.
Wie diese Figuren zeigen, sind auf einer Seite der Platte zwei Arten von Rillen vorbereitend aus
gebildet, nämlich eine gewobbelte Rille WG, die Wobbelungen (Mäander) aufweist, und eine
nicht gewobbelte Rille NWG, bei der kein Wobbeln vorgesehen ist. Die gewobbelte Rille WG
und die nicht gewobbelte Rille NWG sind auf der Platte in Form von Doppelspiralen ausgebildet,
so daß zwischen ihnen sog. Lands Ld vorhanden sind.
In dem MD-DATA2-Format werden die Lands Ld als Aufzeichnungsspuren (Spuren auf denen
Daten aufgezeichnet werden) benutzt. Da die gewobbelte Rille WG und die nicht gewobbelte
Rille NWG in der oben beschriebenen Weise ausgebildet sind, gibt es zwei Spuren Tr'A und
TR'B, die unabhängig voneinander als Aufzeichnungsspuren in Form von Doppelspiralen (Dop
pelspiralen) ausgebildet sind.
Die Spur Tr'A ist eine Spur, bei der auf der dem Außenumfang der Platte zugewandten Seite die
gewobbelte Rille WG und auf der dem Innenumfang der Platte zugewandten Seite die nicht ge
wobbelte Spur NWG angeordnet sind.
Die Spur Tr'B ist hingegen eine Spur, bei der die gewobbelte Spur WG auf der dem Innenum
fang der Platte zugewandten Seite und die nicht gewobbelte Spur NWG auf der dem Außenum
fang der Platte zugewandten Seite angeordnet sind.
Man kann dies kurz gesagt so betrachten, daß bei der Spur Tr'A Wobbeln nur auf einer Seite,
nämlich auf der dem Außenumfang der Platte zugewandten Seite vorgesehen ist, bei der Spur
Tr'B hingegen Wobbeln nur auf einer Seite, nämlich auf der dem Innenumfang der Platte zuge
wandten Seite vorgesehen ist.
Der Spurabstand ist die Entfernung zwischen den Zentren der einander benachbarten Spuren
Tr'A und Tr'B, wie dies in Fig. 2B dargestellt ist. Der Spurabstand beträgt hier 0,95 µm.
Das Wobbeln, das in einer Rille, wie der gewobbelten Rille WG ausgebildet wird, wird durch ein
Signal erzeugt, das durch das Kodieren von physikalischen Adressen auf der Platte mittels FM-
Modulation und Biphase-Modulation gewonnen wird. Deshalb läßt sich bei der Aufzeichnung
oder Wiedergabe eine physikalische Adresse auf der Spur durch Demodulation der Wiedergabe
information extrahieren, die aus dem in der gewobbelten Rille WG vorgesehenen Wobbeln ge
wonnen wird.
Die Adresseninformation der gewobbelten Rille WG ist den Spuren Tr'A und Tr'B gemeinsam.
Die dem Innenumfang zugewandte Spur Tr'A und die dem Außenumfang zugewandte Spur Tr'B
haben über die gewobbelte Rille WG die Adresseninformation gemeinsam, die durch das Wob
beln der gewobbelten Rille WG dargestellt wird.
Ein Adressiersystem, wie es oben beschrieben wurde, wird als Verschachtelungsadressiersy
stem bezeichnet. Durch Anwendung des Verschachtelungsadressiersystems ist es z. B. möglich,
den Spurabstand zu reduzieren, wobei das Übersprechen zwischen benachbarten Wobbelungen
unterdrückt wird. Das System, bei dem eine Adresse durch die Ausbildung von Wobbelungen in
einer Rille aufgezeichnet wird, wird auch als ADIP-System bezeichnet (ADIP = Adress in Pre
groove).
Die Identifizierung, welche der Spuren TrA und Tr'B gerade abgetastet wird, die die gleiche
Adresseninformation der oben beschriebenen Weise gemeinsam haben, kann folgendermaßen
durchgeführt werden.
Es ist z. B. möglich, ein Dreistrahlsystem in der Weise zu benutzen, daß in einem Zustand, in
welchem ein Hauptstrahl eine Spur (ein Land Ld) abtastet, die verbleibenden zwei Seitenstrahlen
die Spuren abtasten, die auf den entgegengesetzten Seiten der von dem Hauptstrahl abgetaste
ten Spur liegen.
Fig. 2B zeigt als Beispiel einen Zustand, in dem ein Hauptstrahlpunkt SPm die Spur Tr'A abta
stet. In diesem Fall tastet von den beiden Seitenstrahlpunkten SPs1 und SPs2 der Seitenstrahl
punkt SPs1 die der inneren Umfangsseite zugewandte nicht gewobbelte Rille NWG ab, während
der Seitenstrahlpunkt SPs2 die der äußeren Umfangsseite zugewandte gewobbelte Rille WG ab
tastet.
Wenn der Hauptstrahlpunkt SPm hingegen die Spur Tr'B abtastet, tastet der Seitenstrahlpunkt
SPs1 die gewobbelte Rille WG ab, während der Seitenstrahlpunkt SPs2 die nicht gewobbelte
Rille NWG abtastet. Dieser Zustand ist in der Zeichnungsfigur nicht dargestellt.
Auf diese Weise werden zwischen dem Fall, in welchem der Hauptstrahlpunkt SPm die Spur
Tr'A abtastet, und dem Fall, in welchem der Hauptstrahlpunkt SPm die Spur Tr'B abtastet, die
von den Seitenstrahlpunkten SPs1 und SPs2 abzutastenden Rillen unvermeidlich zwischen der
gewobbelten Rille WG und der nicht gewobbelten Rille NWG vertauscht.
Da die Wellenformen der von Fotodetektoren aus der Reflexion der Seitenstrahlpunkte SPs1
und SPs2 abgeleiteten Detektorsignale sich in Abhängigkeit davon unterscheiden, ob die gewob
belte Rille WG oder die nicht gewobbelte Rille NWG abgetastet wird, kann identifiziert werden,
welche der Spuren Tr'A und Tr'B von dem Hauptstraße abgetastet wird, indem z. B. festgestellt
wird, welcher der Seitenstrahlpunkte SPs1 und SPs2 gerade die gewobbelte Rille WG (oder die
nicht gewobbelte Rille NWG) abtastet.
Fig. 3 zeigt die wichtigsten Spezifikationen des MD-DATA2-Formats, das die oben beschriebene
Spurstruktur besitzt, in einer Gegenüberstellung mit dem MD-DATA1-Format.
Bei dem MD-DATA1-Format beträgt der Spurabstand 1,6 µm und die Spurlänge 0,59 µm/Bit. Die
Wellenlänge λ des Lasers ist λ = 780 nm, und die numerische Apertur NA des optischen Kopfes
ist NA = 0,45.
Als Aufzeichnungssystem wird das Rillenaufzeichnungssystem verwendet. Das heißt, daß als
Spur für die Aufzeichnung und Wiedergabe eine Rille benutzt wird.
Als Adressiersystem wird ein System benutzt, das von einer gewobbelten Rille Gebrauch macht,
die dadurch erzeugt wird, daß eine Rille (Spur) in Form einer einzelnen Spirale ausgebildet wird
und auf den entgegengesetzten Seiten der Rille Wobbelungen als Adresseninformation ausge
bildet werden.
Als Modulationssystem für die Datenaufzeichnung wird ein EFM-(8-14)-System benutzt. Als Feh
lerkorrektursystem wird der ACIRC-Kode (Advanced Cross Interleave Reed-Solomon Kode) be
nutzt, und für die Datenverschachtelung wird die Verschachtelung vom Faltungstyp angewen
det. Die Datenredundanz beträgt dementsprechend 46,3%.
Bei dem MD-DATA1-Format wird ein Plattenantriebssystem mit konstanter Lineargeschwindig
keit (CLV) benutzt, wobei die Lineargeschwindigkeit der CLV 1,2 m/s beträgt.
Die Standarddatenrate bei der Aufzeichnung und Wiedergabe beträgt 133 kB/s, die Aufzeich
nungskapazität ist 140 MB.
Bei dem MD-DATA2-Format, für das die Videokamera des Ausführungsbeispiels ausgebildet ist,
der Spurabstand hingegen 0,95 µm und die Pitlänge 0,39 µm/Bit. Beide Werte sind also kleiner
als die entsprechenden Werte für das MD-DATA1-Format. Um diese Pitlänge zu erreichen, wird
z. B. die Laserwellenlänge λ auf λ = 650 nm gesetzt und die numerische Apertur NA des opti
schen Kopfes auf NA = 0,52, so daß der Strahlpunktdurchmesser in der In-Fokus-Position ver
ringert und das Band des optischen Systems vergrößert wird.
Als Aufzeichnungssystem wird, wie oben anhand von Fig. 1, 2A und 2B beschrieben, das Land-
Aufzeichnungssystem benutzt, und als Adressiersystem das Verschachtelungsadressiersystem.
Als Modulationssystem für die Datenaufzeichnung wird ein RLL-(1,7)-System (RLL: lauflängenbe
grenzt) benutzt, das sich für Aufzeichnungen mit hoher Dichte eignet. Als Fehlerkorrektursystem
wird das RS-PC-System benutzt. Für die Datenverschachtelung wird Datenverschachtelung mit
Blockvervollständigung verwendet. Durch die Anwendung der beschriebenen Systeme kann die
Datenredundanz auf 19,7% heruntergedrückt werden.
Auch in dem MD-DATA2-Format wird für das Plattenantriebssystem CLV benutzt, wobei die Li
neargeschwindigkeit 2,0 m/s und die Standarddatenrate bei der Aufzeichnung und Wiedergabe
589 kB/s beträgt. Dadurch läßt sich eine Aufzeichnungskapazität von 650 MB erreichen, d. h. ei
ne im Vergleich zu dem MD-DATA1-Format viermal größere Aufzeichnungskapazität.
Bei der Aufzeichnung von Bewegtbildern nach dem MD-DATA2-Format läßt sich eine Spielzeit
von 15 bis 17 Minuten erreichen, wenn Kompressionskodierung nach MPEG2 eingesetzt wird,
wobei diese Zeit von der Bitrate der kodierten Daten abhängig ist. Wenn nur Tonsignaldaten
aufgezeichnet werden und eine Komprimierung nach ATRAC (Adaptive Transform Acoustics
Coding) für die Tondaten angewendet wird, sind Aufzeichnungen bis zu etwa 10 Stunden mög
lich.
Im folgenden wird anhand von Fig. 6A, 6B, 7A und 7B das äußere Erscheinungsbild der Video
kamera des Ausführungsbeispiels beschrieben.
Auf der Frontseite des Körpers 200 der Videokamera ist ein Kameraobjektiv 201 mit einer Bild
aufnahmeoptik, einer Irisblende usw. zur Bildaufnahme angeordnet, das nach außen offenliegt.
Auf der Vorderseite des Kamerakörpers 200 befindet sich unten ein Mikrofon 202, mit dem bei
der Aufnahme eines Bildes der Außenton aufgenommen wird. Die Videokamera kann das von
dem Kameraobjektiv 201 aufgenommene Bild und den von dem Mikrofon 202 aufgenommenen
Stereoton aufzeichnen. An gleicher Position wie das Mikrofon 202 ist auch ein Lautsprecher 205
für die Ausgabe des Wiedergabetons angeordnet. Der Lautsprecher strahlt auch die erforderli
chen Informationstöne durch einen Piepston oder dgl. aus.
Auf der Rückseite des Kamerakörpers 200 befindet sich ein Sucher 204. Bei der Aufzeichnung,
im Aufnahmebereitschaftszustand oder dgl. werden das von dem Kameraobjektiv 201 aufge
nommene Bild (das auch als Durchbild bezeichnet wird), ein Schriftzeichenbild oder dgl. in dem
Sucher 204 angezeigt. Der Benutzer kann das Bild aufnehmen, während er durch den Sucher
204 blickt.
Eine Stelle des Kamerakörpers, an der ein Hauptregler 300, eine Auslösetaste 301 und eine
Löschtaste 302 angeordnet sind, die weiter unten beschrieben werden, läßt sich als Batterie
deckel 206 öffnen und schließen. Durch Öffnen des Batteriedeckels 206 kann eine Batterie (wie
deraufladbare Zelle) in den Kamerakörper 200 eingelegt und aus ihm herausgenommen werden.
Auf einer Seite des Kamerakörpers 200 ist ein bewegbarer Panelteil (Bildschirmträger) 203 vor
gesehen. Dieser bewegliche Panelteil 203 ist in einem bewegbaren Lagerteil 208 so gelagert,
daß er relativ zu dem Kamerakörper 200 verschwenkt werden kann. Die Bewegungen des be
wegbaren Panelteils 203 werden weiter unten beschrieben.
Auf der Rückseite des bewegbaren Panelteils 203 befindet sich ein Anzeigepanel 57
(Anzeigebildschirm). Wenn der bewegbare Panelteil 203 sich in der in Fig. 6B dargestellten an
gepaßten Position befindet, ist der Anzeigebildschirm 67 angelegt, wobei er dem Kamerakörper
zugewandt ist.
Der Anzeigebildschirm 67 dient zur Anzeige oder Ausgabe eines Aufnahmebildes oder des von
dem internen Aufzeichnungs- und Wiedergabegerät wiedergegebenen Bildes usw.
Als Reaktion auf eine Aktion des Geräts zeigt der Anzeigebildschirm 67 ferner Meldungen oder
dgl. durch Buchstaben, Zeichen usw. an, um dem Benutzer eine notwendige Meldung zukom
men zu lassen. Im vorliegenden Fall wird die Anzeigevorrichtung von dem Anzeigepanel 67 ge
bildet, ist jedoch nicht hierauf beschränkt. Es kann statt dessen auch z. B. eine Flüssigkristallan
zeigeeinheit oder dgl. benutzt werden.
Das Anzeigepanel 67 besitzt z. B. auf der Rückseite der Anzeigefläche einer Flüssigkristallanzei
geeinheit ein Berührungspanel, das eine Zeigeoperation detektiert und dies als Bedienungsinfor
mation ausgibt. Im vorliegenden Ausführungsbeispiel ist eine sogenannte GUI-Operation mög
lich, wobei auf einem auf dem Anzeigepanel 67 angezeigten Bild eine Zeigeoperation ausgeführt
wird.
Da das Anzeigepanel 67 so konstruiert ist, daß die Position, an der die Druckkraft auf das Berüh
rungspanel einwirkt, als Koordinatenpositionsinformation detektiert wird, kann es mit einem Fin
ger oder dgl. betätigt werden. Es ist jedoch zu berücksichtigen, daß die Anzeigefläche des Anzei
gepanels 67 begrenzt ist, so daß es mitunter schwierig ist, eine solche Zeigeoperation mit einem
Finger auszuführen. Deshalb ist ein Stift 320 in Form eines Stäbchens vorgesehen, wie dies in
Fig. 6B dargestellt ist. Der Benutzer kann anstelle seiner Finger den Stift 320 benutzen, um eine
Zeige-(Berührungs)-Betätigung auf dem Anzeigepanel 67 auszuführen.
Eine Stelle auf der Seite des Kamerakörpers 200, an der das bewegbare Panelteil 203 angeord
net ist, ist als Platten-Lade-/Entnahmeteil 210 ausgebildet. In diesen kann eine Platte als Auf
zeichnungsmedium, für das die Videokamera ausgebildet ist, eingeführt bzw. aus ihm entnom
men werden.
Obwohl dies hier nicht dargestellt ist, sind weiterhin vorgesehen: ein Videoausgang für die Aus
gabe eines Wiedergabebildsignals usw. an ein externes Videogerät, ein Kopfhörer-/Leitungsan
schluß zur Ausgabe des Wiedergabetonsignals an ein externes Audiogerät oder einen Kopfhörer
usw. Es ist außerdem ein I/F-Anschluß usw. vorgesehen als Schnittstellenfunktion für den Da
tentransfer zu einem bzw. von einem externen Datengerät entsprechen.
An verschiedenen Stellen des Kamerakörpers 200 sind verschiedene Bedienungselemente für
die Bedienung durch den Benutzer vorgesehen. Die wichtigsten dieser Bedienungselemente
werden im folgenden beschrieben.
Der Hauptwählschalter 300 ist an der Rückseite des Kamerakörpers 200 so angeordnet, wie dies
in Fig. 7B dargestellt ist. Er dient als Bedienungselement zum Ein-/Ausschalten der Videokamera
bei der Aufzeichnung oder bei der Wiedergabe. Im vorliegenden Beispiel ist der Hauptwählschal
ter 300 als Drehschalter ausgebildet.
Wenn der Hauptwählschalter 300 sich in der Ausschaltposition PS2 befindet, ist die Stromver
sorgung ausgeschaltet. Wenn der Hauptwählschalter 300 in diesem Zustand z. B. auf die Wie
dergabe/Editierstellung PS1 gedreht wird, wird die Stromversorgung der Videokamera einge
schaltet und ein Betriebsmodus eingestellt, in welchem die Wiedergabe einer aufgezeichneten
Bilddatei und verschiedene Editierfunktionen möglich sind. Wenn der Hauptwählschalter 300 in
die dem Kameramodus entsprechende Position PS2 gedreht wird, gelangt die Kamera in eine
Betriebsart (Kameramodus), in der bei eingeschalteter Stromversorgung eine Bilddatei eines
Bewegtbilds oder eines Standbilds aufgezeichnet werden kann. Wenn der Hauptwählschalter
300 auf die Position PS2 für den Kameramodus gesetzt ist, ist ein Interview-Modus eingestellt.
Auf eine detaillierte Beschreibung des Interview-Modus wird hier verzichtet. Es handelt sich um
eine Betriebsart, bei der grundsätzlich eine Tonaufzeichnung stattfindet, wenn die Auslösetaste
301 oder eine weiter unten beschriebene Fototaste 304 zu einem beliebigen Zeitpunkt gedrückt
wird. In diesem Zeitpunkt wird dann ein Bild als Standbild aufgezeichnet. Bei der Wiedergabe im
Interview-Modus wird die in dem Interview-Modus aufgezeichnete Bilddatei abgespielt. Wäh
rend der Ton wiedergegeben wird werden Standbilder durch Schalten nacheinander in den glei
chen Zeitlagen angezeigt wie bei der Aufzeichnung.
Die Auslösetaste 301 ist im Zentrum des drehbaren Teils des Hauptwählschalters 300 angeord
net.
Die Auslösetaste 301 arbeitet als Bedienungselement zum Starten/Beenden der Aufzeichnung,
wenn sich die Videokamera im Kameramodus oder im Interview-Modus befindet.
Auf der Rückseite des Kamerakörpers 200 ist eine Wählscheibe 303 angeordnet. Die Wähl
scheibe 303 ist ein Bedienungselement in Form einer Scheibe, die in Vorwärts- und Rückwärts
richtung gedreht werden kann und so montiert ist, daß bei in vorbestimmten Drehwinkelab
schnitten ein Einrastgefühl vermittelt wird. Die Drehrichtung zur oberen Seite einer Pfeilmarke
303a ist hier die Vorwärtsrichtung, und die Drehrichtung nach unten die Rückwärtsrichtung. Die
Wählscheibe 303 kann im vorliegenden Fall auch nach links niedergedrückt werden, wie in Fig.
7B durch eine Pfeilmarke 303b angedeutet ist.
Die Wählscheibe 302 ist mit einem Zweiphasen-Drehkodierer kombiniert, wobei eine Rastung
einem Drehschritt entspricht, so daß eine Information über die Zahl der Drehschritte ausgege
ben wird, die die Drehrichtung und den Drehwinkel kennzeichnet.
Die Löschtaste 302 dient als Entscheidungstaste für das Löschen von Daten, die in einem vor
bestimmten Modus wiedergegeben werden.
In einem oberen geneigten Teil einer Seitenfläche des Kamerakörpers 200 sind die Fototaste
304, eine Zoomtaste 305, eine Fokussierungstaste 306 und eine Gegenlichtkorrekturtaste 307
angeordnet, wie dies in Fig. 6A dargestellt ist.
Die Fototaste 304 dient als Auslöser zum Aufzeichnen einer Bilddatei für ein Standbild, wenn sie
z. B. im Kameramodus niedergedrückt wird.
Die Zoomtaste 305 dient zur Zoombetätigung (Teleseite bis Weitwinkelseite) eines optischen
Linsensystems (des Kameraobjektivs 201).
Die Fokussierungstaste 306 dient zum Umschalten des Fokussierungszustands (z. B. normal/un
endlich oder dgl.) des optischen Linsensystems.
Die Gegenlichtkorrekturtaste 307 dient zum Ein/Ausschalten einer Gegenlichtkorrekturfunktion.
Auf einem Teil der Seitenfläche des Kamerakörpers 200 auf der Seite, auf der das bewegliche
Panelteil 203 angeordnet ist, befinden sich, wie in Fig. 6B dargestellt, eine Wiedergabe-/Pausen
taste 208, eine Stopptaste 309, eine Wiedergabetaste 310 für langsame Wiedergabe, ferner
Suchtasten 311 und 312 und eine Tonaufzeichnungstaste 313. Es handelt sich um Tasten, die
prinzipiell für die Aufzeichnung/Wiedergabe einer Datei (Spur) dienen.
Wie Fig. 6A zeigt, sind auf einem Teil der Oberseite des Kamerakörpers 200 eine Bildschirman
zeigetaste 314 für die Bildanzeige sowie Lautstärketasten 315 und 316 zur Einstellung der Laut
stärke des von dem Lautsprecher ausgegebenen Tons angeordnet.
Es sei erwähnt, daß das in Fig. 6A, 6B, 7A und 7B dargestellte äußere Erscheinungsbild der
Videokamera lediglich ein Beispiel ist und in Abhängigkeit von den für die Videokamera des Aus
führungsbeispiels tatsächlich benötigten Gebrauchsbedingungen usw. in geeigneter Weise mo
difiziert werden kann. Natürlich kann die obige Videokamera auch mit verschiedenartigen Be
triebssystemen für die Bedienungselemente, Verbindungsanschlüsse zu einem externen Gerät
usw. ausgestattet sein.
Anhand von Fig. 8A und 8B wird näher erläutert, wie der oben beschriebene bewegbare Panel
teil 203 bewegt werden kann. Es sei darauf hingewiesen, daß das Erscheinungsbild der Video
kamera in Fig. 8A und 8B zur Erleichterung der Beschreibung vereinfacht dargestellt ist.
Als Bewegung des bewegbaren Panelteils 203 kann zunächst seine Position dadurch geändert
werden, indem es aus der in Fig. 6B dargestellten Position in Richtung der Pfeilmarke YJ1 her
ausgezogen wird, wie dies in Fig. 8A dargestellt ist.
In diesem Fall ist der Anzeigebildschirm (Anzeigepanel 67) der Seite des Fotografierenden
(Sucher 204) zugewandt und weist infolgedessen in eine Richtung, die dem Kameraobjektiv 201,
das ein Bild aufnimmt, entgegengesetzt ist. In dieser Position des Anzeigepanels kann der Foto
grafierende, der die Videokamera hält, z. B. ein Bild aufnehmen (Bildaufzeichnung), während er
das auf dem Anzeigepanel 67 angezeigte Aufnahmebild überwacht.
Der bewegbare Panelteil 203 kann außerdem aus der in Fig. 8A dargestellten Position innerhalb
eines Bereichs von etwa 180° in Richtung einer Pfeilmarke YJ2 verschwenkt werden. Kurz ge
sagt, der bewegliche Panelteil 203 kann in eine Position gebracht werden, in der das Anzeigepa
nel 67 dem Aufnahmegegenstand (Kameraobjektiv) zugewandt ist, wie dies in Fig. 7B dargestellt
ist.
In diesem Zustand kann ein Benutzer, der sich auf der Seite des Aufnahmegegenstands befin
det, das aufgenommene Bild betrachten.
Wenn eine Platte in den Plattenlade-/Entnahmeteil 205 eingeführt oder aus diesem entfernt wer
den soll, kann dies in einer Position geschehen, in der das bewegliche Panelteil 203 von dem
Kamerakörper 200 abgehoben ist, wie dies in Fig. 8A oder 8B dargestellt ist.
Es ist auch möglich, den beweglichen Panelteil aus der in Fig. 8B dargestellten Position in Rich
tung der Pfeilmarke YJ3 zu bewegen. Dadurch kann das bewegliche Panelteil 203, obwohl dies
nicht dargestellt ist, in eine Anlagestellung gebracht werden, in der das Anzeigepanel 67 von au
ßen betrachtet werden kann.
Wenn das Anzeigepanel in Richtung der Pfeilmarke YJ2 in der oben beschrieben Weise gedreht
wird und wenn das Anzeigepanel 67 auf die Seite des Fotografierenden gerichtet ist und wenn
das Anzeigepanel 67 auf die Seite des Aufnahmegegenstands gerichtet ist, sind die Seiten des
angezeigten Bilds oben und unten sowie rechts und links vertauscht. In dem vorliegenden Aus
führungsbeispiel wird dieser Nachteil jedoch durch eine entsprechende Steuerung für umge
kehrte Anzeige eliminiert, so daß das Bild des Anzeigepanels 67 in einer geeigneten Richtung
von dem Benutzer (Fotografierender und Aufnahmegegenstand) in Abhängigkeit von der Dreh
position des bewegbaren Panelteils 203 normal beobachtet werden kann.
Fig. 4 zeigt den inneren Aufbau der Videokamera des Ausführungsbeispiels.
In Fig. 4 ist ein Objektivblock 1 dargestellt, der ein optisches System 11 enthält, das in der Praxis
z. B. ein Bildaufnahmeobjektiv, eine Irisblende usw. aufweist. Das Kameraobjektiv 201, das in
den oben beschriebenen Fig. 6A und 6B dargestellt ist, ist in dem optischen System 11 enthal
ten. In dem Objektivblock list außerdem ein Motorteil 12 angeordnet mit einem Fokussierungs
motor, mit dem das optische System 11 automatisch fokussiert wird, und einem Zoommotor für
die Bewegung einer Zoomlinse in Abhängigkeit von der Betätigung der oben beschriebenen
Zoomtaste 304 usw.
Ein Kamerablock 2 enthält einen Schaltungsteil zur Umwandlung des von dem Objektivblock 1
aufgenommenen Lichtbilds in ein digitales Bildsignal.
Das optische System 11 erzeugt auf einer CCD (ladungsgekoppelte Vorrichtung) 21 des Kame
rablocks 2 das optische Bild eines Aufnahmegegenstands. Die CCD 21 bewirkt eine fotoelektri
sche Umwandlung des optischen Bildes und erzeugt ein entsprechendes Bildsignal, das einer
Abtast- und Halte/AGC-Schaltung 22 zugeführt wird (AGC = automatische Verstärkungssteue
rung). Die Abtast- und Halte/AGC-Schaltung 22 justiert die Verstärkung für das aufgenommene
Bildsignal, das von der CCD 21 ausgegeben wird, und führt eine Abtast- und Halteverarbeitung
zur Signalformung durch. Das Ausgangssignal der Abtast- und Halte/AGC-Schaltung 2 wird ei
nem Video-A/D-Wandler 23 zugeführt, der es in Bildsignaldaten in Form digitaler Daten umwan
delt.
Die Zeitsteuerung der Signalverarbeitung der CCD 21, der Abtast- und Halte/AGC-Schaltung 22
und des Video-A/D-Wandlers erfolgt mit Zeitsignalen, die von einem Zeitsignalgenerator 24 er
zeugt werden. Der Zeitsignalgenerator 24 empfängt ein Taktsignal, das für die Signalverarbei
tung in einer weiter unten beschriebenen Datenverarbeitungs-/Systemsteuerschaltung 31 (in ei
nem Videosignal-Verarbeitungsschaltungsteil 3) und erzeugt auf der Basis dieses Taktsignals die
erforderlichen Zeitsignale. Auf diese Weise können die Signalverarbeitungszeiten des Kamera
blocks 2 mit den Verarbeitungszeiten des Videosignal-Verarbeitungsschaltungsteils 3 synchroni
siert werden.
Eine Kamerasteuerung 25 führt die erforderliche Steuerung durch, so daß die oben beschriebe
nen verschiedenen Funktionsschaltungsteile in dem Kamerablock 2 in geeigneter Weise arbei
ten können. Die Kamerasteuerung 25 steuert die automatische Fokussierung, die automatische
Belichtungseinstellung, die Blendeneinstellung, das Zoomen usw. des Objektivblocks 1.
Für die automatische Fokussierungssteuerung steuert die Kamerasteuerung 25 z. B. den Dreh
winkel des Fokussiermotors auf der Basis einer Fokussierungssteuerinformation, die von einem
automatischen Fokussierungssteuersystem gewonnen wird. Dadurch wird das Aufnahmeobjek
tiv so angetrieben, daß ein korrekter Fokussierungszustand erreicht wird.
Der Videosignal-Verarbeitungsschaltungsteil 3 komprimiert bei der Aufzeichnung das aus dem
Kamerablock 2 zugeführte digitale Bildsignal und das von dem Mikrofon 202 aufgenommene di
gitale Audiosignal, und liefert die komprimierten Daten als Benutzeraufzeichnungsdaten an einen
Mediumtreiberteil 4 in der folgenden Stufe. Der Videosignal-Verarbeitungsschaltungsteil 3 liefert
außerdem ein Bild, das auf der Basis des ihm aus dem Kamerablock 2 zugeführten digitalen Bild
signals erzeugt wird, sowie ein Zeichenbild an einen Suchertreiberteil 207, so daß es in dem
Sucher 204 angezeigt wird.
Bei der Wiedergabe demoduliert der Videosignal-Verarbeitungsschaltungsteil 3 die Benutzerwie
dergabedaten (von einer Platte 51 ausgelesene Daten), die ihm aus dem Mediumtreiberteil 4 zu
geführt werden, d. h. komprimierte Bildsignaldaten und Tonsignaldaten, und gibt das Demodula
tionsergebnis als Wiedergabebildsignal und als Wiedergabetonsignal aus.
In dem vorliegenden Ausführungsbeispiel benutzt das Komprimier/Dekomprimiersystem für die
Bildsignaldaten (Bilddaten) für ein Bewegtbild das MPEG-System und für Standbilder das JPEG-
System (JPEG = Joint Photographic Coding Experts Group). Das Kompri
mier/Dekomprimiersystem für die Audiosignaldaten benutzt das ATRAC2-System (ATRAC = Ad
aptive Transform Acoustic Coding). Eine Datenverarbeitungs-/Systemsteuerschaltung 31 des Vi
deosignal-Verarbeitungsschaltungsteils 3 steuert die Komprimierung/Dekomprimierung der Bild
signaldaten und der Tonsignaldaten in dem Videosignal-Verarbeitungsschaltungsteil 3 sowie die
Verwaltung der Eingabe/Ausgabe von Daten, die den Videosignal-Verarbeitungsschaltungsteil 3
durchlaufen.
Die Steuerung des gesamten Videosignal-Verarbeitungsschaltungsteils 3, einschließlich der Da
tenverarbeitungs-/Systemsteuerschaltung 31 wird von einer Videosteuerung 38 ausgeführt. Die
Videosteuerung 38 enthält z. B. einen Mikrocomputer oder dgl. und ermöglicht eine wechselsei
tige Kommunikation mit der Kamerasteuerung 25 des Kamerablocks 2 und einer Treibersteue
rung 46 des weiter unten beschriebenen Mediumtreiberteils 4 z. B. über eine nicht dargestellte
Busleitung oder dgl.
Die Videosteuerung 38 enthält einen Programmspeicher 39.
Der Programmspeicher 39 besteht aus einem wiederbeschreibbaren Speicherelement, z. B. ei
nem EEPROM oder einem Flashspeicher. Der Programmspeicher 39 speichert neben verschie
denen Einstelldaten Informationen, wie verschiedene Programme, die von der die Hauptsteue
rung bildenden Videosteuerung 38 ausgeführt werden.
Die Grundfunktion des Videosignal-Verarbeitungsschaltungsteils 3 besteht bei der Aufzeichnung
darin, daß die von dem Video-A/D-Wandler 23 des Kamerablocks 2 zugeführten Bildsignaldaten
in die Datenverarbeitungs-/Systemsteuerschaltung 31 eingegeben werden. Die Datenverarbei
tungs-/Systemsteuerschaltung 31 liefert die eingegebenen Bildsignaldaten z. B. an eine Bewe
gungsdetektorschaltung 35. Die Bewegungsdetektorschaltung 35 benutzt z. B. einen Speicher
36 als Arbeitsbereich für eine Bildverarbeitung, wie die Bewegungskompensation, für die einge
gebenen Bildsignaldaten und liefert die resultierenden Daten an eine MPEG2-Videosignal-Verar
beitungsschaltung 33.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 benutzt z. B. einen Speicher 34 als Arbeitsbe
reich für die Komprimierung der zugeführten Bildsignaldaten nach dem MPEG2-Format und gibt
einen Bitstrom (MPEG2-Bitstrom) von komprimierten Daten als Bewegtbild aus. Die MPEG2-Vi
deosignal-Verarbeitungsschaltung 33 ist ferner so aufgebaut, daß sie z. B. komprimierte Bildda
ten als Standbild nach dem JPEG-Format erzeugt, wenn sie aus Bildsignalen eines Bewegtbilds
Bilddaten für ein Standbild extrahiert, und eine Komprimierung der Bilddaten als Standbild durch
führt. Es ist auch möglich, nicht JPEG zu verwenden, sondern ein I-Bild (Intrabild), aus normalen
Bilddaten in Form komprimierter Bilddaten nach dem MPEG2-Format besteht, als Bilddaten
eines Standbilds zu behandeln.
Die Bildsignaldaten (komprimierte Bilddaten), die von der MPEG2-Videosignal-Verarbeitungs
schaltung 33 kompressionskodiert werden, werden mit einer vorbestimmten Transferrate in ei
nen Pufferspeicher 32 eingeschrieben und dort temporär gespeichert.
Bekanntlich unterstützt das MPEG2-Format als sogenannte kodierte Bitrate (Datenrate) sowohl
eine konstante Rate (CBR: konstante Bitrate) als auch eine variable Rate (VBR: variable Bitrate).
Der Videosignal-Verarbeitungsschaltungsteil 3 ist für beide vorbereitet.
Wenn z. B. eine Bildkomprimierung mit VBR auszuführen ist, führt die Bewegungsdetektorschal
tung 35 eine Bewegungsdetektierung innerhalb des Bereichs von etwa 10 bis 100 Vollbildern in
einer Einheit eines Makroblocks durch und, falls Bewegung detektiert wird, überträgt sie dieses
Detektierungsergebnis als Bewegungsvektorinformation an die MPEG2-Videosignal-Verarbei
tungsschaltung 33.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 verwendet die erforderliche Informationen,
einschließlich der Bewegungsvektorinformation, um für jeden Makroblock einen Quantisierungs
koeffizienten so festzulegen, daß die Bilddaten nach der Kompressionskodierung eine bestimm
te erforderliche Datenrate haben können.
Einem Tonkompressionskodierer/-dekodierer 37 wird z. B. der von dem Mikrofon 202 aufge
nommene Ton als Tonsignaldaten in Form von digitalen Daten über einen A/D-Wandler 64 zuge
führt (der sich in einem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 befindet).
Der Tonkompressionskodierer/-dekodierer 37 komprimiert die ihm zugeführten Tonsignaldaten
nach dem oben beschriebenen ATRAC2-Format. Die komprimierten Tonsignaldaten werden von
der Datenverarbeitungs-/Systemsteuerschaltung 31 ebenfalls mit einer vorbestimmten Transfer
rate in den Pufferspeicher 32 eingeschrieben und dort temporär gespeichert.
Die komprimierten Bilddaten und die komprimierten Tondaten können, wie oben beschrieben, in
dem Pufferspeicher 32 gespeichert werden. Die grundsätzliche Funktion des Pufferspeichers 32
besteht darin, eine Ratendifferenz zwischen der Datentransferrate zwischen dem Kamerablock 2
oder dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 und dem Pufferspeicher 32 und der Daten
transferrate zwischen dem Pufferspeicher 32 und dem Mediumtreiberteil 4 zu absorbieren.
Die in dem Pufferspeicher 32 gespeicherten komprimierten Bild- und Tondaten werden beim
Auslesen sukzessiv in vorbestimmten Zeitlagen ausgelesen und einem MD-DATA2-Kodie
rer/Dekodierer 41 des Mediumtreiberteils 4 übertragen. Bei der Wiedergabe können jedoch die
Aktionen nach dem Auslesen von in dem Pufferspeicher 32 gespeicherten Daten bis zum Ausle
sen von auf der Platte 51 aufgezeichneten Daten von dem Mediumtreiberteil 4 durch ein Deck 5
intermittierend stattfinden.
Das Einschreiben und Auslesen der Daten in den und aus dem Pufferspeicher 32 wird von der
Datenverarbeitungs-/Systemsteuerschaltung 31 gesteuert.
Im folgenden wird die Funktion des Videosignal-Verarbeitungsschaltungsteils 3 bei der Wieder
gabe beschrieben.
Bei der Wiedergabe werden die komprimierten Bild- und Tonsignaldaten
(Benutzerwiedergabedaten), die von der Platte 51 ausgelesen in von dem MD-DATA2-Kodie
rer/Dekodierer 41 (in dem Mediumtreiberteil 4) dekodiert werden, zu der Datenverarbeitungs-
/Systemsteuerschaltung 31 übertragen.
Die Datenverarbeitungs-/Systemsteuerschaltung 31 speichert diese komprimierten Bild- und
Tonsignaldaten temporär in dem Pufferspeicher 32. Dann werden die komprimierten Bild- und
Tonsignaldaten mit der erforderlichen Zeitlage und Transferrate aus dem Pufferspeicher 32 aus
gelesen, wodurch die Wiedergabezeitbasen abgeglichen werden, und die komprimierten Bildda
ten werden der MPEG2-Videosignal-Verarbeitungsschaltung 33 zugeführt, während die kompri
mierten Tonsignaldaten dem Tonkompressionskodierer/-dekodierer 37 zugeführt werden.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 dekomprimiert die komprimierten Bilddaten
und überträgt die resultierenden Daten zu der Datenverarbeitungs-/Systemsteuerschaltung 31.
Die Datenverarbeitungs-/Systemsteuerschaltung 31 führt die dekomprimierten Bildsignaldaten
einem Video-D/A-Wandler 61 (in dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6) zu.
Der Tonkompressionskodierer/-dekodierer 37 dekomprimiert die komprimierten Audiosignalda
ten und liefert die resultierenden Daten an einen D/A-Wandler 65 (in dem Anzeige/Bild/Ton-Ein
gabe/Ausgabeteil 6).
In dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 werden die dem Video-D/A-Wandler 61 zuge
führten Bildsignaldaten von diesem in ein analoges Bildsignal umgewandelt. Das analoge Bildsi
gnal wird verzweigt und einer Anzeigesteuerung 62 und einer Compositsignal-Verarbeitungs
schaltung 63 zugeführt.
Die Anzeigesteuerung 62 steuert auf der Basis des ihr zugeführten Bildsignals einen Anzeigeteil
6A. Dieser Anzeigeteil 6A zeigt daraufhin ein Wiedergabebild an. Natürlich kann der Anzeigeteil
6A nicht nur das durch die Wiedergabe von der Platte 61 gewonnene Bild anzeigen sondern
auch auf Echtzeitbasis ein aufgenommenes Bild anzeigen und ausgeben, das durch Aufnahme
eines Bilds in dem aus dem Objektivblock 1 und dem Kamerablock 2 bestehenden Kamerateil
gewonnen wird.
Der Anzeigeteil 6A zeigt zusätzlich zu dem Wiedergabebild bzw. dem aufgenommenen Bild mit
Buchstaben, Zeichen usw. eine Nachricht an, um den Benutzer als Reaktion auf die Betätigung
des Geräts, wie oben beschrieben, über eine erforderliche Meldung zu informieren. Bei einer
solchen Nachrichtenanzeige können synthetisierte Bildsignaldaten der benötigten Buchstaben,
Zeichen usw. mit den von der Datenverarbeitungs-/Systemsteuerschaltung 31 an den Video-D/A-
Wandler 61 auszugebenden Bildsignaldaten so verarbeitet werden, daß die erforderlichen Buch
staben, Zeichen usw. an einer vorbestimmten Position angezeigt werden. Dies geschieht unter
dem Steuereinfluß der Videosteuerung 38.
Außerdem ist mit dem Anzeigeteil 6A ein Berührungspanel 6B kombiniert und bildet zusammen
mit diesem das Anzeigepanel 67.
Das Berührungspanel 6B detektiert die Positionsinformation, wenn auf dem Anzeigeteil 6A ein
Druck ausgeübt wird und gibt diese Information als Bedienungsinformation an die Videosteue
rung 38 aus.
Die Compositsignal-Verarbeitungsschaltung 63 wandelt das analoge Bildsignal, das ihr von dem
Video-D/A-Wandler 61 zugeführt wird, in ein Compositsignal um und liefert dieses an einen Vi
deoausgang T1. Wenn die Videokamera über den Videoausgang T1 z. B. mit einem externen
Monitor oder dgl. verbunden ist, kann das von der Videokamera wiedergegebene Bild auf dem
externen Monitor angezeigt werden.
In dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 werden die Tonsignaldaten, die der Kompressi
onskodierer/-dekodierer 37 dem D/A-Wandler 65 zuführt, in diesem in ein analoges Tonsignal
umgewandelt. Dieses analoge Tonsignal wird einem Kopfhörer-/Leitungsanschluß T2 zugeführt.
Das von dem D/A-Wandler 65 ausgegebene analoge Audiosignal wird außerdem über einen Ver
stärker 66 dem Lautsprecher 205 zugeführt, so daß der Wiedergabeton oder von dem Lautspre
cher 205 abgestrahlt wird.
Der Pegel des analogen Tonsignals kann in dem Verstärker 66 variiert und dadurch die Lautstär
ke des von dem Lautsprecher 205 abgestrahlten Tons eingestellt werden. Die Steuerung erfolgt
z. B. in der Anzeigesteuerung 62 des Anzeige/Bild/Ton-Eingabe/Ausgabeteils 6, obwohl in Fig. 4
keine entsprechende Leitung dargestellt ist.
Der Mediumtreiberteil 4 kodiert bei der Aufzeichnung die Aufzeichnungsdaten nach dem mit der
Plattenaufzeichnung konformen MD-DATA2-Format und überträgt die kodierten Daten zu dem
Deck 5. Bei der Wiedergabe dekodiert der Mediumtreiberteil 4 die Daten, die das Deck 5 von
der Platte 51 ausliest, um Wiedergabedaten zu gewinnen, und überträgt die Wiedergabedaten
zu dem Videosignal-Verarbeitungsschaltungsteil 3.
Der MD-DATA2-Kodierer/Dekodierer 41 des Mediumtreiberteils 4 nimmt bei der Aufzeichnung
die Aufzeichnungsdaten (komprimierte Bilddaten und komprimierte Tonsignaldaten) aus der Da
tenverarbeitungs-/Systemsteuerschaltung 31 auf, kodiert die Aufzeichnungsdaten nach dem
MD-DATA2-Format und speichert die kodierten Daten temporär in einem Pufferspeicher 42. An
schließend liest der MD-DATA2-Kodierer/Dekodierer 41 die Daten in der geforderten Zeitlage
aus und überträgt die ausgelesenen Daten an das Deck 5.
Bei der Wiedergabe dekodiert der MD-DATA2-Kodierer/Dekodierer 41 das digitale Wiedergabe
signal, das von der Platte 51 ausgelesen und ihm über eine HF-Signalverarbeitungsschaltung 44
und eine binäre Digitalisierungsschaltung 43 zugeführt wird, nach dem MD-DATA2-Format und
überträgt das dekodierte digitale Wiedergabesignal als Wiedergabedaten zu der Datenverarbei
tungs-/Systemsteuerschaltung 31 des Videosignal-Verarbeitungsschaltungsteils 3.
Es sei darauf hingewiesen, daß auch in diesem Fall, wenn nötig, die Wiedergabedaten temporär
in dem Pufferspeicher 42 gespeichert werden und die in einer vorgegebenen Zeitlage aus dem
Pufferspeicher 42 ausgelesenen Daten zu der Datenverarbeitungs-/Systemsteuerschaltung 31
übertragen werden. Das Einschreiben/Auslesen in den bzw. aus dem Pufferspeicher 42 wird von
der Treibersteuerung 46 gesteuert.
Selbst dann, wenn z. B. bei der Wiedergabe der Platte 51, die Servosteuerung verlorengeht und
deshalb kein Signal von der Platte ausgelesenen werden kann, wird die Kontinuität der Zeitfolge
der Wiedergabedaten aufrechterhalten, falls die Wiedergabe von der Platte innerhalb einer Zeit
spanne wiederhergestellt wird, in der die Daten ausgelesen werden, die in dem Pufferspeicher
42 gespeichert bleiben.
Die HF-Signalverarbeitungsschaltung 44 führt die erforderliche Verarbeitung für ein von der Plat
te 51 ausgelesenes Signal durch, und erzeugt ein HF-Signal als Wiedergabedaten und Servo
steuersignale, wie ein Fokusfehlersignal und ein Spurfehlersignal für die Servosteuerung des
Decks 5. Das HF-Signal wird von der binären Digitalisierungsschaltung 44, wie oben beschrie
ben, binär digitalisiert und in Form von digitalen Signaldaten dem MD-DATA2-Kodie
rer/Dekodierer 41 zugeführt.
Die verschiedenen Servosteuersignale, die erzeugt werden, werden einer Servoschaltung 45 zu
geführt. Die Servoschaltung 45 führt die erforderliche Servosteuerung des Decks 5 nach Maß
gabe dieser Servosteuersignale durch.
Die Videokamera besitzt auch einen Kodierer/Dekodierer 77, der für das MD-DATA1-Format ge
eignet ist, so daß Aufzeichnungsdaten, die aus dem Videosignal-Verarbeitungsschaltungsteil 3
zugeführt werden, auch nach dem MD-DATA1-Format kodiert und auf der Platte 51 aufgezeich
net werden können, oder Daten, die von einer Platte 51 ausgelesen werden, auf der die Daten
nach dem MD-DATA1-Format aufgezeichnet sind, dekodiert und die dekodierten Daten dem Vi
deosignal-Verarbeitungsschaltungsteil 3 zugeführt werden können. Das heißt die Videokamera
des Ausführungsbeispiels ist so aufgebaut, daß Kompatibilität sowohl zu dem MD-DATA2-For
mat als auch zu dem MD-DATA1-Format gegeben ist.
Die Treibersteuerung 46 ist ein Funktionsschaltungsteil für die kollektive Steuerung des Medi
umtreiberteils 4.
Das Deck 5 ist ein Bauteil, das aus einem Mechanismus für den Antrieb der Platte 51 besteht.
Das Deck 5 besitzt einen Mechanismus (den Platten-Lade-/Entladeteil 210, der in Fig. 6A und 6B
dargestellt ist), mit dem der Benutzer eine zu ladende Platte 51 in das Deck 5 laden und aus ihm
entfernt und ersetzt werden kann. Es wird ferner davon ausgegangen, daß die Platte 51 im vor
liegenden Fall eine magneto-optische Platte ist, die für das MD-DATA2-Format oder das MD-
DATA1-Format ausgebildet ist.
Die geladene Platte 51 wird in dem Deck 5 von einem Spindelmotor 52 mit konstanter Linearge
schwindigkeit angetrieben, Ein optischer Kopf 53 strahlt bei der Aufzeichnung/Wiedergabe La
serlicht auf die Platte 51.
Der optische Kopf 53 liefert bei der Aufzeichnung einen Laserstrahl mit hohem Pegel, um die
Aufzeichnungsspur auf eine dem Curie-Punkt entsprechende Temperatur zu erwärmen. Bei der
Wiedergabe liefert er hingegen einen Laserstrahl mit vergleichsweise niedrigem Pegel, um Da
ten aus dem durch den magnetischen Kerr-Effekt reflektierten Licht zu detektieren. Zu diesem
Zweck enthält der optische Kopf 53 eine Laserdiode zum Aussenden eines Laserstrahls, ferner
ein optisches System mit einem polarisierenden Strahlenteiler, ein Objektiv usw. sowie einen
Detektor zum Detektieren des reflektierten Lichts. Diese Teile werden nicht näher beschrieben.
Das Objektiv in dem optischen Kopf 53 ist so gelagert, daß es z. B. von einem Zweiachsen-Me
chanismus in radialer Richtung der Platte und in Richtung auf die Platte zu und von ihr weg be
wegt werden kann.
An einer dem magnetischen Kopf 53 gegenüberliegenden Position auf der anderen Seite der
Platte 51 ist ein Magnetkopf 54 angeordnet. Der Magnetkopf 54 legt ein Magnetfeld an die Plat
te 51 an, das mit den Aufzeichnungsdaten moduliert ist.
Das Deck 5 besitzt außerdem einen nicht dargestellten Vorschubmechanismus, der von einem
Vorschubmotor 55 angetrieben wird. Wenn der Vorschubmechanismus angetrieben wird, wer
den der optische Kopf 53 und der Magnetkopf 54 insgesamt in radialer Richtung der Platte be
wegt.
Es ist ein Bedienungsteil 7 vorgesehen, das den verschiedenen in Fig. 6A und 6B dargestellten
Bedienungselementen entspricht. Durch Betätigen der Bedienungselemente werden verschie
dene Bedienungsinformationen des Benutzers z. B. an die Videosteuerung 38 ausgegeben.
Die Videosteuerung 38 liefert Steuerinformationen für die erforderlichen Aktionen, die der Be
dienungsinformation entsprechen, die von dem oben beschriebenen Berührungspanel 6B und
dem ebenfalls oben beschriebenen Bedienungsteil 7 ausgegeben werden und die von den zu
gehörigen Teilen der Kamerasteuerung 25 und der Treibersteuerung 46 auszuführen sind.
Es ist ferner ein externes Interface 8 vorgesehen, das eine wechselseitige Datenübertragung
zwischen der Videokamera und einem externen Gerät ermöglicht. Dieses Interface ist, wie in
Fig. 4 dargestellt, zwischen einem I/F-Anschluß T3 und dem Videosignal-Verarbeitungsteil ange
ordnet.
In dem vorliegenden Ausführungsbeispiel wird als externes Interface 8 das Ethernet-System be
nutzt, das allgemein für LANs (Local area networks) verwendet wird. Das Ethernet umfaßt be
kanntlich eine Übertragungsleitung und hat eine einfache Struktur, ist preiswert und eignet sich
für den Aufbau eines LANs oder dgl.. Als Kommunikationsprotokoll wird das IP (Internet-Proto
koll) benutzt, wobei das externe Interface 8 für das Ethernet ausgebildet ist. Der I/F-Anschluß T3
hat eine Anschlußform, die einem für das Ethernet vorgesehenen Kabelverbinder entspricht.
Wenn die Videokamera des Ausführungsbeispiels über den I/F-Anschluß T3 mit einer Übertra
gungsleitung des Ethernet verbunden wird, kann sie mit einem Personalcomputer oder einem
anderen digitalen Bildgerät kommunizieren, die mit der Übertragungsleitung verbunden sind, um
Bild/Tondaten usw. zu senden und zu empfangen. Außerdem ist es je nach Konstruktion mög
lich, die Videokamera von dem über das Ethernet angeschlossenen Gerät aus fernzusteuern.
Wenn z. B. Thumbnail-Bilddaten für die Thumbnail-Anzeige über die Übertragungsleitung des
Ethernet zu dem Personalcomputer übertragen und an diesen ausgegeben werden, kann in dem
vorliegenden Ausführungsbeispiel ein als Web-Datei im HTML-Format erzeugtes Thumbnail-An
zeigebild ausgegeben werden, obwohl dies hier nicht näher beschrieben wird. Zu diesem Zweck
ist z. B. in dem Programmspeicher 39 ein Satz (Programm) gespeichert, mit dem Daten als Web-
Datei nach dem HTML-Format erzeugt werden können.
Es ist darauf hinzuweisen, daß die Videokamera des Ausführungsbeispiels je nach Bedarf zu
sätzlich zu dem oben beschriebenen Ethernet-Interface mit einem weiteren Interface, z. B. einem
IEEE1395-Interface ausgestattet sein kann, das als Interface für die Datenübertragung nach au
ßen und von außen benutzt werden kann. Das heißt, in dem in der Zeichnungsfigur externen In
terface 8 können mehrere Interfaceteile mit unterschiedlichen Spezifikationen angeordnet sein,
deren Zahl der Zahl der tatsächlich vorgesehenen Interface-Funktionen entspricht.
Ein Stromversorgungsblock 9 benutzt eine Gleichstromversorgung aus einer eingebauten Batte
rie oder eine Gleichstromversorgung aus dem öffentlichen Netz, um die einzelnen Funktions
schaltungsteile mit einer Spannung der erforderlichen Höhe zu versorgen. Das Ein- und Aus
schalten der Stromversorgung durch den Stromversorgungsblock 9 wird von der Videosteuerung
38 nach Maßgabe der Betätigung des oben beschriebenen Hauptwählschalters 300 gesteuert.
Die Videosteuerung 38 bewirkt außerdem, daß ein Anzeigeelement 206 während des Aufzeich
nens Licht aussendet.
Im folgenden wird anhand des Blockschaltbilds von Fig. 5, in der diejenigen Funktionsschal
tungsteile, die dem MD-DATA2-Format entsprechen, herausgezogen sind, die Konstruktion des
in Fig. 4 dargestellten Mediumtreiberteils 4 detailliert beschrieben.
Die Informationen, die durch das Auslesen von Daten von der Platte 51 mit Hilfe des optischen
Kopfes 53 detektiert werden (d. h. der durch Detektierung des reflektierten Laserlichts mit Hilfe
des Fotodetektors gewonnene fotoelektrische Strom) wird einem HF-Verstärker 101 in der HF-
Signalverarbeitungsschaltung 44 zugeführt.
Der HF-Verstärker 101 erzeugt aus der Detektorinformation als Wiedergabesignal ein Wieder
gabe-HF-Signal und führt dieses der binären Digitalisierungsschaltung 43 zu. Diese unterzieht
das Wiedergabe-HF-Signal einer binären Digitalisierung und erzeugt so ein Wiedergabe-HF-Si
gnal (binär digitalisiertes HF-Signal) in Form eines digitalen Signals.
Das binäre digitalisierte HF-Signal wird dem MD-DATA2-Kodierer/Dekodierer 41 zugeführt, in
welchem eine Einstellung des Verstärkungsgrads, eine Klemmung (Pegelhaltung) usw. für das
binär digitalisierte HF-Signal mit Hilfe einer AGC/Klemmschaltung 103 vorgenommen wird. Das
resultierende Signal wird einer Entzerrer/PLL-Schaltung 104 zugeführt.
Die Entzerrer/PLL-Schaltung 104 entzerrt das binär digitalisierte HF-Signal und liefert das ent
zerrte binär digitalisierte HF-Signal an einen Viterbi-Dekodierer 105. Das binär digitalisierte HF-Si
gnal wird nach der Entzerrung außerdem einer PLL-Schaltung zugeführt, um ein Taktsignal CLK
zu extrahieren, das mit dem binär digitalisierten HF-Signal (RLL-(1,7)-Kodekette) synchronisiert
ist.
Die Frequenz des Taktsignals CLK entspricht der aktuellen Drehgeschwindigkeit der Platte. Des
halb nimmt ein CLV-Prozessor 111 das Taktsignal CLK aus der Entzerrer/PLL-Schaltung 104 auf
und vergleicht das Taktsignal CLK mit einem Referenzwert, der einer vorbestimmten CLV-Ge
schwindigkeit entspricht (siehe Fig. 3), um eine Fehlerinformation zu gewinnen. Sie benutzt die
Fehlerinformation als Signalkomponente für die Erzeugung eines Spindelfehlersignals SPE. Das
Taktsignal CLK wird außerdem als Taktsignal für die Verarbeitung in den entsprechenden Signal
verarbeitungsschaltungssystemen verwendet, zu denen z. B. eine RLL-(1,7)-Demodulatorschal
tung 106 gehört.
Der Viterbi-Dekodierer 105 dekodiert das binär digitalisierte HF-Signal, das ihm von der Entzer
rer/PLL-Schaltung 104 zugeführt wird, nach einem Viterbi-Dekodierverfahren. Dadurch werden
Wiedergabedaten in Form einer RLL-(1,7)-Kodekette gewonnen.
Diese Wiedergabedaten werden der RLL-(1,7)-Demodulatorschaltung 106 zugeführt, in der sie in
einen RLL-(1,7)-demodulierten Datenstrom umgewandelt werden.
Der durch die Demodulation in der RLL-(1,7)-Demodulatorschaltung 106 gewonnene Datenstrom
wird über einen Datenbus 114 in den Pufferspeicher 42 eingeschrieben und auf den Pufferspei
cher 42 expandiert.
Der in dieser Weise auf den Pufferspeicher 42 expandierte Datenstrom wird zunächst in Einhei
ten eines Fehlerkorrekturblocks mit Hilfe einer ECC-Verarbeitungsschaltung 116 einer Fehlerkor
rektur nach dem RS-PC-System unterzogen und dann in einer Entwürfelungs-/EDC-Dekodier
schaltung 117 einer EDC-Dekodierung (Fehlererfassung) unterzogen.
Die durch die bisherige Verarbeitung gewonnen Daten sind Wiedergabedaten DATAp. Diese
Wiedergabedaten DATAp werden mit einer Transferrate, die einem von einer Transfertaktgene
ratorschaltung 121 erzeugten Transfertaktsignal entspricht, aus der Entwürfelungs-/EDC-Deko
dierschaltung 117 zu der Datenverarbeitungs-/Systemsteuerschaltung 31 des Videosignal-Verar
beitungsschaltungsteils 3 übertragen.
Die Transfertaktgeneratorschaltung 121 ist eine Schaltung, die z. B. aus dem Taktsignal eines
Quarzsystems ein Transfertaktsignal (Datentransferrate) mit einer geeigneten Frequenz erzeugt,
wenn ein Datentransfer zwischen dem Mediumtreiberteil 4 und dem Videosignal-Verarbeitungs
schaltungsteil 3 oder ein Datentransfer zwischen Funktionsschaltungsteilen in dem Mediumtrei
berteil 4 auszuführen ist.
Die Transfertaktgeneratorschaltung 121 erzeugt ferner ein Taktsignal mit einer erforderlichen
Frequenz, die in Abhängigkeit von dem Betriebszustand der Videokamera verschiedenen Funkti
onsschaltungsteilen des Mediumtreiberteils 4 und des Videosignal-Verarbeitungsschaltungsteils
3 zuzuführen sind.
Die mit Hilfe des optischen Kopfes 53 aus der Platte 51 ausgelesene Detektorinformation (foto
elektrischer Strom) wird außerdem einem Matrixverstärker 107 zugeführt.
Der Matrixverstärker 107 führt die erforderliche arithmetische Operation für die ihm zugeführte
Detektorinformation aus, um ein Spurfehlersignal TE, ein Fokusfehlersignal FE, eine Rilleninfor
mation GFM (die Absolutadresseninformation, die als gewobbelte Rille WG auf der Platte 51
aufgezeichnet ist) usw. zu erzeugen und liefert die extrahierte Information an die Servoschaltung
45. Das extrahierte Spurfehlersignal TE und das extrahierte Fokusfehlersignal FE werden einem
Servoprozessor 112 zugeführt, während die Rilleninformation GFM einem ADIP-Bandpaßfilter
108 zugeführt wird.
Die von dem ADIP-Bandpaßfilter 108 bandbegrenzte Rilleninformation GFM wird einer A/B-Spur
detektorschaltung 109, einem ADIP-Dekodierer 110 und dem CLV-Prozessor 111 zugeführt.
Die A/B-Spurdetektorschaltung 109 entscheidet z. B. auf der Basis des anhand von Fig. 2B be
schriebenen Systems oder dgl. aus der ihr zugeführten Rilleninformation GFM, welche der Spu
ren TR'A und TR'B gerade abgetastet wird und liefert die Spuridentifizierungsinformation an die
Treibersteuerung 46. Der ADIP-Dekodierer 110 dekodiert die Rilleninformation GFM, um ein
ADIP-Signal zu extrahieren, das die Absolutadresseninformation auf der Platte darstellt, und lie
fert das ADIP-Signal an die Treibersteuerung 46. Die Treibersteuerung 46 führt auf der Basis der
Spuridentifizierungsinformation und des ADIP-Signals die erforderlichen Steuerprozesse aus.
Dem CLV-Prozessor 111 werden das Taktsignal CLK aus der Entzerrer/PLL-Schaltung 104 und
die Rilleninformation GFM aus dem ADIP-Bandpaßfilter 108 zugeführt. Der CLV-Prozessor 111
erzeugt z. B. auf der Basis eines Fehlersignals, das durch Integration eines Phasenfehlers zwi
schen der Rilleninformation GMF und dem Taktsignal CLK gewonnen wird, ein Spindelfehlersi
gnal SPE für die CLV-Servosteuerung und liefert dieses an den Servoprozessor 112. Die von
dem CLV-Prozessor 111 auszuführenden Aktionen werden von der Treibersteuerung 46 gesteu
ert.
Der Servoprozessor 112 erzeugt verschiedene Servosteuersignale (ein Spurführungssteuersi
gnal, ein Vorschubsteuersignal, ein Spindelsteuersignal usw.) auf der Basis des Spurfehlersignals
TE, des Fokusfehlersignals FE und des Spindelfehlersignals SPE, die ihm in der oben beschrie
benen Weise zugeführt werden, und eines Spursprungsbefehls, eines Zugriffsbefehls oder dgl.
aus der Treibersteuerung 46 und liefert die Servosteuersignale an den Servotreiber 113.
Der Servotreiber 113 erzeugt die erforderlichen Servotreibersignale auf der Basis der Servosteu
ersignale, die der Servoprozessor 112 ihm zuführt. Die Servotreibersignale sind hier Zweiachsen-
Treibersignale (zwei Arten von Signalen für die Fokussierungsrichtung und die Spurführungsrich
tung) für den Antrieb des Zweiachsen-Mechanismus, ferner ein Vorschubmotortreibersignal für
den Antrieb des Vorschubmechanismus und ein Spindelmotortreibersignal für den Antrieb des
Spindelmotors 52.
Mit diesen Servotreibersignale führt das Deck 5 die Fokussierungssteuerung und die Spurfüh
rungssteuerung für die Platte 51 sowie die CLV-Steuerung für den Spindelmotor 52 aus.
Wenn auf der Platte 51 aufgezeichnet werden soll, führt die Datenverarbeitungs-
/Systemsteuerschaltung 31 des Videosignal-Verarbeitungsschaltungsteils 3 einer Verwürfelungs-
/EDC-Kodierschaltung 115 Aufzeichnungsdaten DATAr zu. Die Benutzer-Aufzeichnungsdaten
DATAr werden z. B. synchron mit einem von der Transfertaktgeneratorschaltung 121 erzeugten
Transfertaktsignal (Datentransferrate) zugeführt.
Die Verwürfelungs-/EDC-Kodierschaltung 115 schreibt und expandiert die Aufzeichnungsdaten
DATAr in den und auf den Pufferspeicher 42, wobei die Aufzeichnungsdaten DATAr einer Da
tenverwürfelung und einer EDC-Kodierung (Hinzufügen eines Fehlererfassungskodes nach ei
nem vorbestimmten System) unterzogen werden. Nach dieser Verarbeitung fügt die ECC-Verar
beitungsschaltung 116 den Aufzeichnungsdaten DATAr, die auf den Pufferspeicher expandiert
sind, Fehlerkorrekturkodes nach dem RS-PC-System hinzu.
Die so verarbeiteten Aufzeichnungsdaten DATAr werden aus dem Pufferspeicher 42 ausgelesen
und über den Datenbus 114 einer RLL-(1,7)-Modulatorschaltung 118 zugeführt.
Die RLL-(1,7)-Modulatorschaltung 118 unterzieht die Aufzeichnungsdaten DATAr einer RLL-(1,7)-
Modulation und liefert die Aufzeichnungsdaten in Form einer RLL-(1,7)-Kodekette an eine Trei
berschaltung 119.
Das MD-DATA2-Format benutzt übrigens das sogenannte Laserpuls-Magnetfeldmodulationssy
stem als Aufzeichnungssystem für eine Platte. Das Laserpuls-Magnetfeldmodulationssystem ist
ein Aufzeichnungssystem, bei dem ein mit den Aufzeichnungsdaten moduliertes Magnetfeld an
die Aufzeichnungsseite der Platte angelegt und das auf die Platte zu strahlende Laserlicht im
pulsweise synchron mit den Aufzeichnungsdaten emittiert wird.
In einem solchen Laserpuls-Magnetfeldmodulationssystem beruht die Ausbildung der Kanten
der auf der Platte aufgezeichneten Pits nicht auf einer Übergangseigenschaft wie der Umkehr
geschwindigkeit des Magnetfelds, sie hängt vielmehr davon ab, wie die Strahlung eines Laser
impulses zeitlich gesteuert wird.
Deshalb ist es bei dem Laserpuls-Magnetfeldmodulationssystem, verglichen, z. B. mit einem ein
fachen Magnetfeldmodulationssystem (einem System, bei dem Laserlicht konstant auf eine
Platte gestrahlt und ein mit den Aufzeichnungsdaten moduliertes Magnetfeld an die Aufzeich
nungsseite der Platte angelegt wird) problemlos möglich, den Jitter der Aufzeichnungspits sehr
klein zu halten. Das heißt, das Laserpuls-Magnetfeldmodulationssystem ist ein Aufzeichnungs
system, das sich in besonderer Weise für die Aufzeichnung mit hoher Dichte eignet.
Die Treiberschaltung 119 des Mediumtreiberteils 4 arbeitet so, daß der Magnetkopf 54 an die
Platte 51 ein den eingegebenen Aufzeichnungsdaten moduliertes Magnetfeld anlegen kann. Au
ßerdem liefert die RLL-(1,7)-Modulatorschaltung 118 ein mit den Aufzeichnungsdaten synchro
nisiertes Taktsignal an einen Lasertreiber 120. Der Lasertreiber 120 steuert die Laserdiode des
optischen Kopfes 53 nach Maßgabe des dieses Taktsignals, so daß die Platte mit einem Laser
impuls bestrahlt werden kann, der mit den von dem Magnetkopf 54 als Magnetfeld generierten
Aufzeichnungsdaten synchronisiert ist. Der von der Laserdiode emittierte Laserimpuls hat die für
das Aufzeichnen geeignete Laserleistung. Auf diese Weise ermöglicht der Mediumtreiberteil 4
des vorliegenden Ausführungsbeispiels eine Aufzeichnung nach dem Laserpuls-Magnetfeldmo
dulationssystem.
Im folgenden wird ein Beispiel für die Datenstruktur der Platte 51 beschrieben, die für das vor
liegende Ausführungsbeispiel geeignet ist.
Als Voraussetzung für das bessere Verständnis werden zunächst Dateneinheiten des Formats
MD-DATA2 beschrieben, die als Sektor und Cluster bezeichnet werden.
Der Sektor ist die kleinste Einheit für das physikalische Auslesen von Daten von einer Platte. Je
dem Sektor ist eine PSA (physikalische Sektoradresse) zugeordnet.
Das Cluster (logisches Cluster) ist die kleinste Einheit für das physikalische Einschreiben von
Daten auf eine Platte. Eine PSA wird durch einen Satz von 16 aufeinanderfolgenden Sektoren 0h
bis Fh gebildet und auch als Zuordnungseinheit (Allocation Unit) bezeichnet. Jedem Cluster ist
eine PCA (physikalische Clusteradresse) zugeteilt. Ein Sektor, der sich in einem Einlaufbereich
(pre-mastered area) befindet, der im folgenden beschrieben wird, kann durch die PCA eindeutig
identifiziert werden. Bei Clustern, die in einem beschreibbaren Bereich liegen, ist in jeder der
Spuren Tr'A und Tr'B ein Cluster vorhanden, das die gleiche PCA hat.
Im folgenden wird ein Dateiverwaltungssystem für das MD-DATA2-Format beschrieben.
Das MD-DATA2-Format schriebt ein TMS (Spurverwaltungssystem) als Datenverwaltungssy
stem vor. Das TMS ist die grundlegendste Vorschrift für die Zuweisung des Aufzeichnungsbe
reichs einer Platte nach dem MD-DATA2-Format und ermöglicht es, z. B. annähernd 5500 Infor
mationsstücke in einer hierarchisch klassifizierten Form aufzuzeichnen.
Zur Realisierung einer hierarchischen Verwaltungsstruktur sind in dem TMS eine Spur und ein
Ordner (Verzeichnis) definiert. Eine Spur ist die kleinste Einheit einer Datenmenge, die von dem
TMS direkt zu verwalten ist, und ist als Vorschrift ein Synonym für eine Datei. Jede Spur wird
durch einen Spur-Deskriptor repräsentiert.
Ein Ordner hat eine Struktur für die Verwaltung von Spuren in Gruppen. Spuren und Ordner ge
hören zu einem bestimmten Exemplar von Ordner (Verwandten-Ordner) und bilden letztlich eine
Baumstruktur, deren Wurzel der "Wurzel-Ordner" ist. Jeder Ordner wird durch einen Ordner-
Deskriptor repräsentiert.
Außerdem wird jeder/jedem Spur/Ordner eine Identifizierung ID zugeteilt.
Fig. 9 zeigt ein Ausführungsbeispiel für eine hierarchische Struktur unter dem TMS.
Um in dem TMS eine hierarchische Ordnerstruktur zu realisieren und eine Such-Reihenfolge für
Spuren und Ordner zu definieren, sind alle Spuren und Ordner durch zwei Arten von Verknüp
fungen miteinander verknüpft.
Eine dieser Verknüpfungen ist eine Verknüpfung, die den Verwandten-Ordner einer/eines
Spur/Ordners bestimmt, wodurch erkennbar wird, zu welchem Ordner die Spur bzw. der Ordner
gehört.
Die andere ist eine Verknüpfung, mittels derer Spuren/Ordner, die zu dem obersten Ordner, d. h.
dem Verwandten-Ordner, gehören, in einer Reihenfolge verknüpft sind. Diese Verknüpfung er
laubt es, eine Such-Reihenfolge der Spuren/Ordner innerhalb des Ordners zu definieren und er
möglicht eine Hochgeschwindigkeitssuche.
Da alle Spuren/Ordner auf einer Platte in einer Baumstruktur angeordnet sind, deren Wurzel der
Wurzel-Ordner ist, kann jede/jeder von ihnen auf der Platte eindeutig identifiziert werden, und
zwar auf der Basis eines Ordners auf einem Pfad, dessen Startpunkt der Wurzel-Ordner ist, und
einer Permutation der ID der Spur bzw. des Ordners selbst.
In dem Ausführungsbeispiel von Fig. 9 hat z. B. der Wurzel-Ordner die ID 0000h ("h" bedeutet,
daß der Wert in hexadezimaler Notation dargestellt ist). Der Wurzel-Ordner hat drei Abkömm
linge, nämlich einen Ordner 0101h, eine Spur 0088h und einen weiteren Ordner 0201h. Diese
drei Ordner/Spur haben eine Reihenfolge, die folgendermaßen definiert ist: Ordner 0101h →
Spur 0088h → Ordner 0201h, wie dies in der Figur dargestellt ist.
Zu dem Ordner 1010h gehören weiterhin drei Spuren, nämlich eine Spur 0077h, eine weitere
Spur 0088h und eine Spur 0070h. Die Wiedergabereihenfolge der drei Spuren ist folgenderma
ßen definiert: Spur 0077h → Spur 0088h → Spur 0070h.
Zu dem Ordner 0201h, der ein Abkömmling des Wurzel-Odners ist, gehören weiterhin ein Ord
ner 0201h und eine Spur 0120h, ihre Reihenfolge ist: Ordner 0201h → Spur 0120h.
Obwohl hier die Spur 0088h (Deskriptor-Nummer = 39) unter dem Wurzel-Ordner und die zu
dem Ordner 0101h gehörende Spur 0088h (Deskriptor-Nummer = 26) die gleiche ID haben, was
daraus ersichtlich ist, daß ihnen Deskriptor-Nummern zugewiesen sind, die sich voneinander un
terscheiden, werden sie als unabhängig voneinander betrachtet. Dies gilt in ähnlicher Weise für
die Ordner. Dem entsprechen in der Figur der Ordner 0201 (Deskriptor-Nummer = 77), der ein
Abkömmling des Wurzel-Ordners ist, und der Ordner 0201h (Deskriptor-Nummer = 4), der ein
Abkömmling des Ordners 0201h ist.
Fig. 10 zeigt ein Konzept für eine Form von Datenverwaltung der Platte 51, die für das vorliegen
de Ausführungsbeispiel ausgebildet ist. Es ist darauf hinzuweisen, daß das physikalische Format
der in dieser Figur dargestellten Platte 51 der Beschreibung entspricht, die oben anhand von Fig.
1, 2A und 2B gegeben wurde.
In der Platte 51 sind z. B. ein PTOC und ein RTOC als Verwaltungsinformation gesetzt. Das PTOC
enthält die erforderliche Verwaltungsinformation, die in ihm in Form von Pits aufgezeichnet ist.
Die Inhalte des PTOC können nicht neu geschrieben werden.
In dem RTOC sind z. B. Basisinformationen gespeichert, die für die Verwaltung der auf der Platte
aufgezeichneten Daten benötigt werden.
Die Inhalte des RTOC können jederzeit neu geschrieben werden, z. B. entsprechend dem Er
gebnis der bisherigen Datenaufzeichnung auf der Platte und dem Ergebnis einer Editierverarbei
tung, wie dem Löschen einer Spur (Datei) oder eines Ordners.
Benutzerdaten werden als Volumen-Ordner (Volume Folder) verwaltet, der in einem Wurzel-Ord
ner angeordnet ist. Das Volumen (Volume) ist in dem vorliegenden Ausführungsbeispiel als ein
kompletter Satz von Benutzerdaten definiert, und es ist vorgeschrieben, daß für eine Platte nur
ein Volumen vorhanden ist. Die in dem Volumen enthaltenen Daten sind als Ordner und Spuren
unter dem Volumen-Ordner gespeichert, mit Ausnahme derjenigen, die mit dem PTOC und dem
RTOC verwaltet werden.
In dem Volumen-Ordner ist eine Volumen-Indexspur (VIT) mit einer vorbestimmten Größe (von
z. B. 12 Clustern) angeordnet.
Die Volumen-Indexspur ist vorgeschrieben als ein Bereich, in dem Unter-Verwaltungsinformatio
nen aufgezeichnet sind, wobei die Haupt-Verwaltungsinformation, wie sie war, in dem PTOC
und dem RTOC aufgezeichnet ist. Die VIT besitzt eine Tabelle, in der Informationen für Verwal
tungsmerkmale, betreffend Spuren (Dateien), Ordner und Hilfsdaten, Titel und Paketdaten, die
die Spuren bilden, aufgezeichnet sind.
Als Spur, die in dem Volumen-Ordner verwaltet wird, kann optional eine Thumbnail-Spur (Thumb
nail-Bildspur) angeordnet sein.
In dem vorliegenden Ausführungsbeispiel kann die Thumbnail-Spur ein Standbild mit einer vor
bestimmten Auflösung als Thumbnail-Bild in einer Korrespondenzbeziehung zu jeder der auf der
Platte aufgezeichneten Dateien enthalten. Ein Thumbnail-Bild wird als repräsentatives Bild be
handelt, das ein visuelles Erkennen der Datei ermöglicht.
Auf der Thumbnail-Spur sind solche Thumbnail-Bilder zusammen mit Indexinformationen aufge
zeichnet, die eine Korrespondenzbeziehung mit den auf der Platte aufgezeichneten Dateien
(Spuren) und den gespeicherten Positionen der Thumbnail-Bilder repräsentieren. Die Datenlänge
der Thumbnail-Spur kann nach Maßgabe der Anzahl der zu speichernden Thumbnail-Bilder usw.
beliebig erweitert werden.
Bild/Tondaten, die z. B. aufgezeichnet werden, wenn der Benutzer ein Bild aufnimmt, werden in
einer Datei als Einheit verwaltet und als Spuren unter der Volumen-Datei in dem Volumen-Ord
ner angeordnet oder in einem Ordner, der unterhalb des Volumen-Ordners angeordnet ist.
In Fig. 10 ist ein Zustand dargestellt, in welchem eine bestimmte Datei als eine Spur dargestellt
und diese Spur in einem bestimmten Ordner gespeichert ist. Der Ordner ist eine Struktur zum
kollektiven Verwalten von Spuren oder Ordnern in einer Gruppe, wie dies oben beschrieben
wurde.
In einer Struktur unterhalb des Volumen-Ordners werden eine beliebige Zahl von Spuren oder
Ordnern in einem Bereich gespeichert, der definiert ist durch eine maximale Zahl von Fällen, die
in dem Volumen-Ordner gespeichert werden können, und eine maximale Zahl von Stufen der
hierarchischen Struktur der Ordner.
In dem Volumen-Ordner ist ferner eine Hilfsdatenspur angeordnet, in der Hilfsdaten gespeichert
werden.
Die in der Hilfsdatenspur gespeicherte Information ist beliebig und hängt z. B. von der tatsächlich
angewendeten Applikation ab.
In dem vorliegenden Ausführungsbeispiel ist eine Script-Information als Wiedergabesteuerin
formation gespeichert. Es sind außerdem Bilddaten (Bild) zu einer Spur (aufgezeichnete Bildda
tei) gespeichert, die durch "notizhaftes Editieren" erzeugt werden.
Das PTOC und das RTOC, die Verwaltungsinformationen darstellen, und die in der Volumen-In
dexspur gespeicherte Information (auch diese Information wird in dem vorliegenden Ausfüh
rungsbeispiel generell als "Verwaltungsinformation" bezeichnet) werden z. B. beim Laden der
Platte ausgelesen und in einem vorbestimmten Bereich, z. B. des Pufferspeichers 42 des Medi
umtreiberteils 4 (oder des Pufferspeichers 32) gespeichert. Bei der Datenaufzeichnung oder bei
dem Editieren wird die in dem Pufferspeicher gespeicherte Verwaltungsinformation entspre
chend dem Ergebnis der Aufzeichnung oder dem Ergebnis des Editierens neu geschrieben, und
anschließend wird die Verwaltungsinformation der Platte 51 bei einer bestimmten Gelegenheit
und zu einer bestimmten Zeit auf der Basis der Inhalte der in dem Pufferspeicher gespeicherten
Verwaltungsinformation neu geschrieben (aktualisiert) (das PTOC wird jedoch nicht aktualisiert).
Fig. 11 zeigt die oben anhand von Fig. 10 beschriebene Form der Datenverwaltung in einer Kor
respondenzbeziehung zu der physikalischen Struktur der Platte 51.
Der in dieser Figur dargestellte Einlaufbereich ist ein Pitbereich am inneren Umfang der Platte. In
diesem Bereich ist die Information des PTOC gespeichert.
Am Außenumfang des Einlaufbereichs ist ein beschreibbarer Bereich ausgebildet, wobei zwi
schen ihnen ein Übergangsbereich angeordnet ist. Der beschreibbare Bereich ist ein magneto
optischer Aufzeichnungsbereich, der magneto-optisches Aufzeichnen und Wiedergeben ermög
licht. In dem beschreibbaren Bereich sind die beiden Spuren der Spur Tr'A und der Spur Tr'B auf
Doppelspiralen ausgebildet, wie dies oben anhand von Fig. 1, 2A und 2B beschrieben wurde.
Am inneren Umfang des beschreibbaren Bereichs ist ein RTOC-Bereich sowohl für die Spur Tr'A
als auch für die Spur Tr'B vorgesehen. In dem RTOC-Bereich für die Spur Tr'A ist in dreimaliger
Wiederholung die Information des RTOC aufgezeichnet, die eine Größe von vier Clustern hat. Im
Anschluß daran ist die Volumen-Indexspur mit einer Größe von 12 Clustern angeordnet.
Im Anschluß an die Volumen-Indexspur kann optional eine Thumbnail-Spur angeordnet sein. Die
Thumbnail-Spur in dem RTOC-Bereich ist so definiert, daß hier zumindest das erste Clusterex
emplar angeordnet ist. Mit wachsender Dateinummer wächst z. B. auch die Thumbnail-Bildda
tennummer, und wenn die Thumbnail-Bilddatennummer die Kapazität der Thumbnail-Spur in
dem RTOC-Bereich überschreitet, können Thumbnail-Bilddaten zusätzlich in dem beschreibbaren
Datenbereich aufgezeichnet werden, der im folgenden beschrieben wird. Die Thumbnail-Spur in
dem beschreibbaren Datenbereich wird in diesem Fall von der Volumen-Indexspur (oder dem
RTOC) verwaltet.
Im Anschluß an die Thumbnail-Spur des RTOC-Bereichs kann optional ein Bereich vorgesehen
sein, in dem Scripts aufgezeichnet werden, die Hilfsdaten und Bilddaten darstellen.
Falls auch die Scripts und die Bilddaten, die in dem RTOC-Bereich aufgezeichnet werden kön
nen, die für sie vorgesehene Kapazität überschreiten, können sie zusätzlich in dem beschreibba
ren Bereich aufgezeichnet werden, und zwar in einer solchen Form, daß sie von der Volumen-
Indexspur (oder dem RTOC) verwaltet werden.
Der beschreibbare Datenbereich beginnt mit einer Adressenposition, die durch eine Startadresse
W für den beschreibbaren Datenbereich bezeichnet ist. In dem beschreibbaren Datenbereich
können AV-Daten, d.h. Daten von Spuren (Dateien) aufgezeichnet werden. Auch die oben be
schriebenen Thumbnail-Bilddaten und Hilfsdaten können in dem beschreibbaren Datenbereich
aufgezeichnet werden.
Hinter dem beschreibbaren Datenbereich ist ein Auslaufbereich angeordnet, der mit einer durch
die Startadresse L des Auslaufbereichs bezeichneten Adressenposition beginnt, und mit dem
äußeren Umfang endet.
Die vorangehende Beschreibung bezieht sich auf die Spur TrA. Die Bereichseinstellung für die
Spur Tr'B entspricht derjenigen der Spur Tr'A, wie ebenfalls aus Fig. 11 ersichtlich ist. Der
RTOC-Bereich ist zur Zeit jedoch undefiniert. Das heißt, der RTOC-Bereich wird im wesentlichen
nur für die Spur Tr'A benutzt.
Es ist darauf hinzuweisen, daß das in Fig. 10 und 11 dargestellte Beispiel der Plattenstruktur nur
ein Ausführungsbeispiel darstellt und daß die physikalische Positionsbeziehung der einzelnen
Bereiche auf der Platte entsprechend den Bedingungen der tatsächlichen Benutzung usw. mo
difiziert werden kann. Auch die Struktur, in der die Daten gespeichert werden, kann modifiziert
werden.
Die AV-Daten, die in dem anhand von Fig. 11 erläuterten beschreibbaren Datenbereich gespei
chert sind, bestehen aus einer Folge von AV-Paketen. Ein AV-Paket ist die kleinste Editiereinheit
eines Bewegtbildes, eines Standbildes und von Ton und enthält Audiodaten (Audioaufzeichnung)
und Videodaten (Videoaufzeichnung), die simultan abzuspielen sind. Es wird empfohlen, daß ein 71319 00070 552 001000280000000200012000285917120800040 0002010115084 00004 71200
AV-Paket eine Spieldauer von etwa einer Sekunde bis fünf Sekunden repräsentiert, obwohl
diese Zeit von der Bitrate der im Innern zu speichernden Daten abhängt. Es ist außerdem vorge
schrieben, daß das AV-Paket auf der Platte aus integralen Zuordnungseinheiten gebildet wird,
die nicht nur physikalisch sondern auch logisch kontinuierlich sind.
Fig. 12A und 12B zeigen die Struktur eines AV-Pakets. Das ganze AV-Paket besitzt eine Paketei
genschaft als Header, der an seinem Anfang angeordnet ist, wie dies in Fig. 12A dargestellt ist.
In der Paketeigenschaft, deren detaillierte Struktur hier nicht dargestellt ist, sind verschiedene
Aufzeichnungsbedingungen gespeichert, die das aktuelle AV-Paket betreffen. Die Aufzeich
nungsbedingungen werden bei der Aufnahme und Aufzeichnung eines Bildes generiert und
stellen eine Information dar, die später nicht geändert werden muß.
Im Anschluß an die Paketeigenschaft ist eine Audioaufzeichnung vorgesehen, die einen Spei
cherbereich für Audiodaten bildet. In der Audioaufzeichnung sind ein oder mehrere vollständige
Video-Dekodiereinheiten als Audiodaten aufgezeichnet, die nach dem ATRAC2-System kompri
miert sind. In der derzeit aktuellen Spezifikation wird das ATRAC2-System als Beispiel für ein
Kompressionssystem für Audiodaten beschrieben. Das Kompressionssystem ist nicht auf das
spezifische Format beschränkt, es kann sich auch um das ATRAC (Warenzeichen), ATRAC 3
(Warenzeichen), MP3 (MPEG1-Audioschicht 3), MPEG-2AAC (Advanced Audio Coding)
(Warenzeichen), Odesign Music Kode (Warenzeichen), TwinVO (Transform-Domain Weighted In
terleave Vector Quantization) (Warenzeichen), MS Audio (Microsoft Audio (WMA: Windows
Media Audio)) (Warenzeichen) oder Ogg Vorbis (Warenzeichen) handeln.
Im Anschluß an die Audioaufzeichnung ist eine Videoaufzeichnung vorgesehen, in der Bewegt
bilddaten aufgezeichnet sind. Die in der Videoaufzeichnung aufgezeichneten Bilddaten sind nach
MPEG2 datenkompressionskodiert und bestehen vomKonzept her aus einer Folge von GOPs,
wie dies in Fig. 12B dargestellt ist. Als Spezifikation wird z. B. vorgeschlagen, daß diese GOP-
Einheit die Videodekodiereinheit ist. Für diesen Fall ist vorgeschrieben, daß eine GOP maximal
30 Videovollbilder enthält, und es wird empfohlen, daß in der Videoaufzeichnung eine GOP 0 bis
255 Videovollbilder enthält. Das Kompressionsformat für die Videodaten ist hier nicht auf
MPEG2 beschränkt, vielmehr können auch MPEG1, MPEG4 oder MPEG7 verwendet werden.
Mit der Videokamera des vorliegenden Ausführungsbeispiels kann ein Thumbnail-Bild erzeugt
werden, das in einer Thumbnail-Spur gespeichert werden soll, wie sie in Fig. 10 und 11 darge
stellt ist. Im folgenden wird der Prozeß zur Erzeugung eines Thumbnail-Bildes beschrieben. Die
Beschreibung bezieht sich hier auf den Fall, daß ein Thumbnail-Bild für eine Bilddatei erzeugt
wird, die bereits auf einer Platte aufgezeichnet ist.
Die Verwaltungsinformation (das PTOC, RTOC und die Volumen-Indexspur), die z. B. auf der Plat
te 51 aufgezeichnet ist, wird in einer vorbestimmten Zeitlage, so z. B. beim Laden der Platte,
ausgelesen und in dem Pufferspeicher 42 (oder Pufferspeicher 32) gespeichert.
Dann legt die Treibersteuerung 46 z. B. anhand der in dem Pufferspeicher 42 gespeicherten
Verwaltungsinformation eine Adresse auf der Platte fest, an der Bilddaten aufgezeichnet sind,
die als Thumbnail-Bild einer Datei vorgesehen sind, für die ein Thumbnail-Bild erzeugt werden
soll, und greift auf die Adresse zu, um die Platte dort auszulesen und Bilddaten als Quelle für die
Erzeugung eines Thumbnail-Bildes zu gewinnen.
Die Bilddaten werden anschließend aus dem Mediumtreiberteil 4 zu dem Videosignal-Verarbei
tungsschaltungsteil 3 übertragen und der Datenverarbeitungs-/Systemsteuerschaltung 31 zuge
führt.
Falls keine spezielle Festlegung verfügbar ist, werden durch die Verwaltungsinformation z. B.
Bilddaten des vorderen Vollbilds (oder Halbbilds) in der Datei als die Bilddaten festgelegt, die als
Quelle für die Herstellung eines Thumbnail-Bilds definiert ist.
Die Datenverarbeitungs-/Systemsteuerschaltung 31 steuert zunächst die MPEG2-Videosignal-
Verarbeitungsschaltung 33, um die ihr zugeführten Bildschirmdaten nach dem MPEG2-Format
zu dekomprimieren und Daten zu gewinnen, die auf das Niveau von Bilddaten einer Halbbildein
heit dekodiert sind.
In dem Stadium, in welchem Bilddaten auf das Niveau der Halbbildeinheit dekodiert sind, sind
die Bilddaten normalerweise Daten mit der Bildgröße (Pixelzahl), mit der sie im wesentlichen in
voller Größe auf dem Anzeigebildschirm angezeigt werden.
Nachdem die Bilddaten der vollen Größe der Halbbildeinheit gewonnen sind, werden die Bildda
ten der vollen Größe einer Reduzierung unterzogen, um so einen Prozeß auszuführen, mit dem
die für ein Thumbnail-Bildtatsächlich erforderliche Größe gewonnen werden kann.
Um diese Reduzierung der Bildgröße durchzuführen, sollte eine Signalverarbeitung stattfinden,
bei der z. B. Bilddaten der ursprünglichen vollen Größe mit einem geeigneten Timing abgetastet
werden. Mit den durch diese Abtastung gewonnenen Bilddaten werden die Bilddaten rekonstru
iert.
Dann führt die Videosteuerung 38 z. B. einen Steuervorgang aus, mit dem die (anhand von Fig.
10 beschriebene) Indexinformation zu den auf diese Weise gewonnenen Thumbnail-Bilddaten
erzeugt wird, und zeichnet die Thumbnail-Bilddaten zusammen mit der Indexinformation in der
Thumbnail-Spur der Platte auf.
Auf diese Weise werden Thumbnail-Bilddaten, die den einzelnen Dateien entsprechen, gewon
nen und auf der Platte aufgezeichnet.
Wie aus der vorangehenden Beschreibung ersichtlich ist, können in dem vorliegenden Aus
führungsbeispiel nicht nur Bilddaten (einschließlich Tondaten) sondern auch nur Tondaten, Zei
cheninformationsdaten usw. als Datei aufgezeichnet werden. Wenn eine Datei keine Bilddaten
enthält, die als Quelle für die Erzeugung eines Thumbnail-Bildes dienen können, z. B. eine Datei
mit Tondaten oder Zeicheninformationsdaten, werden Bilddaten eines Designmusters, das vi
suell als Tondaten oder Zeicheninformationsdaten erkennbar ist, vorbereitet (sie sollten z. B. in
einem ROM der Videosteuerung 38 oder in einer vorbestimmten Region einer Platte gespeichert
sein) und können dann als Thumbnail-Bild benutzt werden.
Das vorliegende Ausführungsbeispiel ermöglicht auch eine Editierverarbeitung, wie die Festle
gung einer Abspielreihenfolge oder die Einfügung eines geforderten Spezialeffekts bei der Wie
dergabe von Dateien (prinzipiell von aufgezeichneten Bilddateien), die mit der Videokamera auf
gezeichnet wurden.
Für ein solches Editieren ist in dem vorliegenden Ausführungsbeispiel ein Script als Wiederga
besteuerinformation vorbereitet, die es ermöglicht, eine aufgezeichnete Bilddatei in einer gefor
derten Ausgabeform wiederzugeben. In der Videokamera interpretiert z. B. die Videosteuerung
38 das Script, um eine Ausgabeform für die Wiedergabe (z. B. eine Wiedergabereihenfolge) zu
gewinnen, die dem Editierergebnis entspricht. Die Videokamera ist außerdem so ausgebildet,
daß in dem Editierstadium die Inhalte des Scripts aktualisiert werden, um die Editierverarbeitung
auszuführen. Der Ausdruck "Script" bezeichnet hier eine in einer vorbestimmten Programmier
sprache beschriebene handschriftliche Struktur, um Bewegtbilddaten, Standbilddaten, Tondaten,
Dokumentdaten usw. in der gleichen Zeitlage abzuspielen und auszugeben.
Zunächst wird das Script allgemein beschrieben, das in dem vorliegenden Ausführungsbeispiel
als Wiedergabesteuerinformation benutzt wird.
Als Script wird in dem vorliegenden Ausführungsbeispiel SMIL (Synchronized Multimedia Inte
gration Language) benutzt.
SMIL ist eine von W3C (World Wide Web Consortium: eine Standardisierungsorganisation des
Internets) standardisiert Sprache, um z. B. Fernsehen, Präsentationen usw. in dem Internet zu
realisieren. Sie realisiert zeitserielle Präsentationen usw. auf der Basis der Grammatik von XML
(Extensible Markup Language: ein Oberbegriff von HTML (Hyper Text Markup Language)).
Zunächst wird durch zwei Kennzeichen <seq< und <par< eine Liste dargestellt.
<seq< bedeutet "sequentiell", d. h. "seriell", und die zwischen den Kennzeichen angeordnete
Information wird in zeitlicher Reihenfolge abgespielt.
<par< bedeutet "parallel", und die zwischen den Kennzeichen angeordnete Information wird
synchron zueinander abgespielt.
Wenn Dateien auf einer Platte aufgezeichnet sind und z. B. festgelegt wird, daß Dateien von Vi
deodaten, die als video1, video2 und video3 bezeichnet werden, in der Reihenfolge video1 →
video2 → video3 abgespielt werden sollen, wird dies beschrieben als
Wenn die Dateien video1, video2 und video3 hingegen in der Reihenfolge videol → video2 →
video3 abgespielt werden sollen und eine Tondatendatei audio1 als Nachvertonungsspur gleich
zeitig mit der Datei video1 abgespielt werden soll, wird dies beschrieben als
Es ist auch eine Beschreibung vorbereitet, mit der festgelegt wird, daß eine Datei, die synchron
mit einer bestimmten Datei abgespielt werden soll, von der Position aus abgespielt wird, die ei
nige Sekunden hinter der Position liegt, an der die bestimmte Datei abgespielt wird.
Wenn z. B. ein Titel (z. B. ein Bild als Zeicheninformation) fünf Sekunden später abgespielt wer
den soll, als die Bilddatei video1 angezeigt (wiedergegeben) wird, wird dies beschrieben als
Wenn weiter festgelegt werden soll, daß z. B. eine Datei picture1 als Standbilddatei fünf Sekun
den lang abgespielt werden soll, wird dies beschrieben als
<image src = "picture1" dur = "5s"<
Wenn ein als stummes Vollbild bezeichneter Teil einer bestimmten Bewegtbilddatei herausge
griffen und wiedergegeben werden soll, wird "range" benutzt. Wenn als Zeitkode z. B. die Stan
dards von SMPTE (Society of Motion Picture and Television) benutzt werden, kann dies be
schrieben werden als
<video src = "video1"range = "smpte: 10 : 07 : 00-10 : 07 : 33"<
Um eine bestimmte Datei festzulegen und zu wiederholen wird "repeat" benutzt. Wenn z. B. die
Datei video1 zehnmal wiederholt werden soll, wird dies beschrieben als
<video src = "video1"repeat = "10"<
Bei dem vorliegenden Ausführungsbeispiel wird ein solches als SMIL bezeichnetes Script, wie
es oben beschrieben wurde, in der Weise benutzt, daß eine Anzeigesteuerung zur Erzeugung
der erforderlichen Anzeigeform für die Thumbnail-Anzeige durchgeführt wird.
Zu diesem Zweck wird in dem Videokamerasystem des vorliegenden Ausführungsbeispiels z. B.
eine Untermenge von XML so vorbereitet, daß eine mit SMIL und der Beschreibung (Erzeugung)
eines Scripts konforme Interpretation durchgeführt werden kann. Die Untermenge von XML
kann z. B. als ein von der Videosteuerung 38 auszuführendes Programm im voraus z. B. in dem
Programmspeicher 39 gespeichert oder in einer Applikationsschicht einer Platte aufgezeichnet
werden, so daß sie dort ausgelesen werden kann.
In dem vorliegenden Ausführungsbeispiel wird ein Script, wie es oben beschrieben wurde, von
der Videosteuerung 38 in einem Editierstadium (oder in einem Stadium, in welchem ein Bild auf
gezeichnet wird) erzeugt oder aktualisiert und in einem vorbestimmten Bereich, z. B. des Puffer
speichers 32, gespeichert.
Das in dem Pufferspeicher 32 gespeicherte Script wird dann bei einer passenden Gelegenheit
oder mit einem vorbestimmten Timing auf der Platte aufgezeichnet. Die Daten des Scripts wer
den als Scriptdatei auf der anhand von Fig. 10 und 11 beschriebenen Hilfsdatenspur gespeichert.
Wenn das Script so auf der Platte aufgezeichnet ist, wird es später bei erneutem Laden der Plat
te ausgelesen und z. B. in dem Pufferspeicher 32 gespeichert, so daß unter Bezugnahme hierauf
Editieren, Wiedergabe oder dgl. entsprechend der Wiedergabereihenfolge möglich sind, die
durch das vorherige Editieren eingerichtet wurde.
In der Videokamera des vorliegenden Ausführungsbeispiels werden beim Suchen einer auf einer
Platte aufgezeichneten Datei verschiedene Editieroperationen oder Einstellprozesse ausgeführt,
und auf dem Anzeigepanel 67 wird ein Bedienungsbildschirm angezeigt.
Auf dem Bedienungsbildschirm werden verschiedene Arten von Informationen zu einer gelade
nen Platte, zu den auf der Platte aufgezeichneten Dateien usw. dargestellt. Für ein bestimmtes
Objekt werden verschiedene Operationen realisiert und zwar sowohl durch Niederdrücken (im
folgenden als Zeigeoperation bezeichnet) des Bedienungsbildschirms als auch durch Betätigen
verschiedener Bedienungselemente.
Der Bedienungsbildschirm des Ausführungsbeispiels ermöglicht eine Thumbnail-Anzeige, bei der
Thumbnail-Bilder (kleine Bilder) präsentiert werden, die einzelnen auf der geladenen Platte auf
gezeichneten Dateien entsprechen. Das heißt, der Benutzer kann visuell die Inhalte der auf der
Platte aufgezeichneten Dateien (Spuren) feststellen, indem er die auf dem Bedienungsbildschirm
angezeigten Thumbnail-Bilder betrachtet. Außerdem kann mit Hilfe der Thumbnail-Bilder eine
Datei z. B. gesucht und wiedergegeben werden.
Fig. 13 zeigt eine Anzeigeform des Bedienungsbildschirms, der auf dem Anzeigepanel 67 der Vi
deokamera des Ausführungsbeispiels angezeigt wird.
Dieser Bedienungsbildschirm wird als Anfangsbildschirm angezeigt, z. B. wenn eine Platte gela
den ist und ein Wiedergabe-/Editiermodus eingestellt wird.
In Fig. 13 ist in dem oberen Teil der Anzeigeregion ein Informationsanzeigebereich A1 darge
stellt. In dem Informationsanzeigebereich A1 werden verschiedene Informationen angezeigt, die
der Benutzer benötigt. Und zwar befinden sich in dem Informationsanzeigebereich A1: Ein An
zeigebereich A1-1 für die verbleibende Batterieladung, ein Sportmodus-Anzeigebereich A1-2, ein
Wiedergabemodus-Anzeigebereich A1-3, ein Anzeigebereich A1-4 für die restliche Aufnahmezeit
und ein Platten-Icon A1-5.
In dem Anzeigebereich A1-1 für die verbleibende Batterieladung wird die restliche Batteriela
dung durch ein Batterie- und ein Zeitsymbol angezeigt.
Obwohl hier auf eine ausführliche Beschreibung verzichtet wird, kann die Videokamera des vor
liegenden Ausführungsbeispiels als Wiedergabemodus einen Sportmodus setzen, in dem eine
Wiedergabesteuerung Vollbild für Vollbild stattfindet, um Bewegungen in einem von dem Be
nutzer aufgenommenen Bewegtbildmotiv erkennen zu können. Wenn der Sportmodus gesetzt
ist, zeigt der Sportmodus-Anzeigebereich A1-2 z. B. die Buchstaben "SPORT" an, wie dies in der
Figur dargestellt ist, und signalisiert damit, daß der Sportmodus gesetzt ist.
In dem Anzeigebereich A1-3 für den Wiedergabemodus werden mit Buchstaben, einem Symbol
oder dgl. verschiedene spezielle Wiedergabearten, wie z. B. Shuffle-Wiedergabe, Wiedergabe
wiederholung und Wiedergabe zwischen A und B dargestellt.
In dem Anzeigebereich A1-4 für die restliche Aufnahmezeit wird die verbleibende Aufzeich
nungskapazität der Platte in Form einer Zeitangabe angezeigt.
Das Platten-Icon A1-5 wird dann angezeigt, wenn eine Platte geladen ist. Wenn eine Zeigeopera
tion auf das Platten-Icon A1-5 ausgeübt wird, kann die Bildschirmanzeige von dem in der Figur
dargestellten Bedienungsbildschirm umgeschaltet werden auf die Anzeige eines Platteninforma
tionsbildschirms, auf dem verschiedene Informationen zu der geladenen Platte dargestellt wer
den.
Unterhalb des Informationsanzeigebereichs A1 befindet sich ein Thumbnail-Anzeigebereich A2.
Hier können maximal neun Thumbnail-Bilder (für neun Dateien) angezeigt werden. Es ist ein Zu
stand dargestellt, in welchem Thumbnail-Bilder SN von A bis I angezeigt sind. Obwohl dies hier
nicht dargestellt ist, zeigen die einzelnen Thumbnail-Bilder SN z. B. ein aus der aufgezeichneten
Bilddatei extrahiertes Bild als Standbild, wenn die Datei eine aufgezeichnete Bilddatei ist.
Die der Anordnung der Thumbnail-Bilder SN in alphabetischer Reihenfolge von A bis I stimmt
hier grundsätzlich mit der Wiedergabereihenfolge überein. Mit anderen Worten, in dem vorlie
genden Ausführungsbeispiel können Thumbnail-Bilder in einer vorbestimmten Reihenfolge an
gezeigt werden, die einer durch ein Script festgelegten Wiedergabereihenfolge der Dateien ent
sprechen. Falls jedoch eine Operation, wie Sortieren ausgeführt wird, werden die Thumbnail-Bil
der in der sortierten Reihenfolge angezeigt.
Die Zahl der Thumbnail-Bilder, die im vorliegenden Fall gleichzeitig angezeigt werden können, ist
z. B. gleich neun. Wenn die Zahl der auf einer Platte aufgezeichneten Spuren (Dateien) und dem
entsprechend auch die Zahl der Thumbnail-Bilder größer ist als neun, können die in dem Thumb
nail-Anzeigebereich A2 angezeigten Thumbnail-Bilder gescrollt werden, um alle Thumbnail-Bilder
anzuzeigen, indem eine rechts von dem Thumbnail-Anzeigebereich A2 angezeigte Bildlaufleiste
A4 durch eine Zeigeoperation gezogen wird.
Auf den Thumbnail-Bildern SN, die in dem Thumbnail-Anzeigebereich A2 angezeigt werden,
werden mehrere Arten von Icons überlappend angezeigt.
Diese Icons umfassen ein Bewegtbild-Icon i1, das anzeigt, daß die Datei, die dem Thumbnail-
Bild entspricht, auf welchem das Icon überlappend angezeigt wird, eine Datei ist, in der Be
wegtbilder aufgezeichnet sind. Man sieht, daß in dem Fall von Fig. 13 die Thumbnail-Bilder A, B,
C, D und E Bewegtbilddateien sind.
Das Icon, das in dem Thumbnail-Bild 6 angezeigt wird, ist ein Standbild-Icon i2. Das Icon zeigt
an, daß die entsprechende Datei eine Standbilddatei ist.
In dem Thumbnail-Bild H wird ein Icon i3 für eine Interviewdatei angezeigt. Das Interviewdatei-
Icon i3 zeigt an, daß die entsprechende Datei eine Interviewdatei ist, die in dem oben beschrie
benen Interviewmodus aufgezeichnet wurde.
Obwohl der Interviewmodus oben bereits beschrieben wurde, sei er hier noch einmal kurz erläu
tert. Der Interviewmodus ist ein Modus, in welchem grundsätzlich Ton aufgezeichnet wird und
zu einer beliebigen Zeit ein Bild, das dann aufgenommen wird, als Standbild aufgezeichnet wird.
Die Interviewdatei ist also eine Datei, in der neben Tondaten auch Standbilddaten auftreten. Fer
ner ist in der Interviewdatei der Ausgabezeitpunkt der Standbilddaten relativ zu der fortschreiten
den Wiedergabezeit der Tondaten entsprechend den Zeiten bei der Aufzeichnung definiert. Es
werden dann z. B. für das Thumbnail-Bild H als Interviewdatei die Daten eines der Standbilder
ausgewählt und als verkleinertes Bild angezeigt, die neben den Tondaten aufgezeichnet wurden.
Wenn bei der Aufzeichnung im Interviewmodus keine Standbilder aufgezeichnet wurden, befin
den sich in der Interviewdatei natürlich keine Standbilddaten. Das heißt, daß die Interviewdatei
nur Tondaten enthält.
Wenn das oben beschriebene Thumbnail-Bild H einer solchen Interviewdatei entspricht, die nur
Tondaten enthält, wird das Interviewdatei-Icon i3 nicht mit einem verkleinerten Bild des Stand
bildes sondern entsprechend größer angezeigt.
In dem Thumbnail-Bild I ist ein Gruppen-Icon i4 angezeigt. Die Videokamera des vorliegenden
Ausführungsbeispiels kann mehrere Dateien, die in der Wiedergabereihenfolge aufeinanderfol
gen, kollektiv als Verwaltung der Thumbnail-Anzeige zu einer Gruppe zusammenfassen und
diese mehreren Dateien, die so Weise in Gruppen umgewandelt wurden, als einzelnes Thumb
nail-Bild anzeigen. Das Gruppen-Icon i4 wird überlappend mit dem Thumbnail-Bild angezeigt, das
durch diese Gruppierung gewonnen wird.
In dem Thumbnail-Bild F ist ein Memo-Datei-Icon angezeigt. Die Videokamera des Ausführungs
beispiels kann Inhalte, die von dem Benutzer als Memorandum geschrieben werden, als einzel
ne unabhängige Datei erzeugen. Wenn eine solche Memo-Datei z. B. vor eine beliebige Datei
eingefügt und zusammen mit dieser angezeigt wird, können die Inhalte der Datei, die als Titel
betrachtet werden können, durch die Memo-Datei angezeigt werden. Das Memo-Datei-Icon i5
zeigt an, daß die Datei eine Memo-Datei ist.
Ein Icon, das auf den Thumbnail-Bildern C und E angezeigt wird und einen Schreibstift imitiert,
ist ein Notiz-Icon i6. Als Editierfunktion der Videokamera kann ein notizartiges Bild zu einer be
reits aufgezeichneten Bilddatei hinzugefügt werden, indem der Benutzer mit Hilfe des Stifts 320,
eines Prägebilds oder dgl. eine Stelle auf dem Anzeigepanel 67 überstrichen hat.
Das Notiz-Icon i6 zeigt an, daß die Datei durch die Notitzfunktion mit einer Notiz versehen
wurde.
In den Thumbnail-Bildern B und E wird ein Markierungs-Icon i7 angezeigt. Der Benutzer kann auf
dem Bedienungsbildschirm eine bestimmte Operation vornehmen, durch die in eine beliebige
Datei eine Marke gesetzt wird. So kann der Benutzer z. B. eine Markierung an einer Datei anbrin
gen, die für ihn wichtig ist, um sich diese Tatsache durch die Markierung zu merken. Das Mar
kierungs-Icon i7 zeigt an, daß auf der betreffenden Datei diese Markierung angebracht ist.
Auf den Thumbnail-Bildern A und E wird ein Sperr-Icon i8 angezeigt. Der Benutzer kann eine
vorbestimmte Operation für den Bedienungsbildschirm ausführen, um für eine beliebige Datei
"Sperrung" zu setzen und dadurch eine Änderung, wie Löschen und Editieren, zu verhindern.
Das Sperr-Icon i8 zeigt an, daß diese Datei gesperrt ist.
Unter den Thumbnail-Bildern A und E wird ein Effekt-Icon i9 angezeigt. In dem vorliegenden
Ausführungsbeispiel ist es möglich, spezielle Wiedergabeeffekte für Dateien vorzusehen, wie
z. B. verschiedene Arten von Szenenübergängen und Mosaik. Das Effekt-Icon i9 zeigt an, daß die
Datei mit einem dieser Spezialeffekte versehen wurde.
Das vorliegende Ausführungsbeispiel ermöglicht es durch die mit Thumbnail-Bildern überlap
pende Anzeige verschiedener Arten von Icons, den Benutzer über verschiedene Attribute, wie
Art der Dateien, denen die Thumbnail-Bilder entsprechen, und verschiedene Einstellsituationen,
visuell zu informieren.
Wenn der Benutzer z. B. mit Hilfe des Stifts 320 eine Zeigeoperation auf einem anderen Thumb
nail-Bild ausführt, wird ein Zeiger-Icon i10, das als Umrahmung des Thumbnail-Bilds E dargestellt
ist, relativ zu dem Thumbnail-Bild, das Gegenstand der der Zeigeoperation ist, bewegt und ange
zeigt. Das Thumbnail-Bild, auf dem das Zeiger-Icon i10 angeordnet ist und angezeigt wird, ist das
aktuell ausgewählte Thumbnail-Bild.
Auf dem Bedienungsschirm des vorliegenden Ausführungsbeispiels wird kein Icon überlappend
mit einem Thumbnail-Bild angezeigt, auf dem das Zeiger-Icon i10 nicht angeordnet ist, und wenn
das Zeiger-Icon 110 angeordnet wird, um das betreffende Thumbnail-Bild auszuwählen, wird ein
Icon überlappend mit dem Thumbnail-Bild angezeigt.
Wenn der Benutzer die Wiedergabe/Pausentaste 308 betätigt, während das Zeiger-Icon i10 auf
einem gewünschten Thumbnail-Bild angeordnet ist, wird die Wiedergabe von der Datei aus ge
startet, die mit dem darauf angeordneten Zeiger-Icon i10 ausgewählt ist. Wenn auf einem
Thumbnail-Bild, auf dem das Zeiger-Icon i10 überlappend angezeigt wird, eine Zeigeoperation
ausgeführt wird, beginnt die Wiedergabe von einer Spur aus, auf der das Zeiger-Icon i10 ange
ordnet ist.
Auf der linken Seite des Thumbnail-Anzeigebereichs A2 ist ein Menütastenbereich A3 vorgese
hen, in welchem verschiedene Menütasten angezeigt werden.
In dem Menütastenbereich A3 werden von oben nach unten angezeigt: Eine Wiedergabemenü
taste A3-1, eine Editiermenütaste A3-2, eine Notizeffektmenütaste A3-3, eine Studiomenütaste
A3-4, eine Einstellmenütaste A3-5 und eine Menütaste A3-6 für fortgeschrittene Bedienung.
Die Wiedergabemenütaste A3-1 dient als Taste zur Darstellung eines Menüs für verschiedene
Wiedergabearten und zur Durchführung von Einstellungen. Es kann z. B. ein Wiedergabemodus
eingestellt werden, der dann in dem Wiedergabemodus-Anzeigebereich A1-3 angezeigt wird.
Die Editiermenütaste A3-2 bewirkt eine Darstellung verschiedener Posten, die sich auf das Edi
tieren mit einer aufgezeichneten Datei als Einheit und erlaubt z. B. das Bewegen, Kopieren oder
Löschen einer Spur (Datei), das Teilen der Spur, die Gruppenbildung von Dateien und das Extra
hieren eines Standbilds (z. B. die Auswahl eines Standbilds, das als Thumbnail-Bild angezeigt
werden soll). Mit Hilfe der Editiermenütaste A3-2 lassen sich auch Spurinformationen darstellen,
und es kann auf einen Spurinformationsbildschirm umgeschaltet werden, auf dem verschiedene
Einstellungen vorgenommen werden können, die die Information der einzelnen Spuren betref
fen.
Die Notizeffektmenütaste A3-3 dient zur Darstellung eines Menüs zur Ausführung einer Notiz
funktion und zur Einstellung verschiedener spezieller Wiedergabeeffekte, wie Szenenwechsel
(Einblenden, Ausblenden, Wischblende usw.), eines speziellen Toneffekts oder eines speziellen
Bildeffekts (Mosaik und Sepiadarstellung).
Die Videokamera besitzt ferner eine Funktion für das einfache und leichte Generieren einer Vi
deoarbeit durch Bildaufzeichnung und Operationen, die der Benutzer nach einer GUI ausführt.
Die Studiomenütaste A3-4 kann für die Darstellung eines Menüs für eine solche einfache Video
produktion benutzt werden.
Die Einstellmenütaste A3-5 dient zur Darstellung eines Menüs zur Ausführung verschiedener
Einstelloperationen, z. B. für die Helligkeit des Bildschirms des Anzeigeteils 6A, die Dichte der
Panelfarbe, die Helligkeit des Suchers, die Einstellung des Datums und der Stunde und einer
Standbild-Einstellzeit.
Die Menütaste A3-6 für fortgeschrittene Bedienung wird zur Darstellung eines Menü benutzt,
das z. B. die Verbindung zu einem externen Gerät, wie einem Personalcomputer, einen Demon
strationsmodus usw. betrifft.
Im unteren Teil der Anzeigeregion ist ein Spurinformations-Anzeigebereich A5 vorgesehen. In
dem Spurinformations-Anzeigebereich A5 werden Informationen angezeigt, die eine Spur betref
fen, zu der ein ausgewähltes Thumbnail-Bild (auf dem das Zeiger-Icon i10 angeordnet ist) in dem
Thumbnail-Anzeigebereich A2 angezeigt wird.
Hier wird in einem Spurnummer-Anzeigebereich A5-1 zunächst eine Spurnummer angezeigt. In
einem Datums- und Stunden-/Titel-Anzeigebereich A5-2 werden das Datum und die Stunde der
Aufzeichnung und ein der Spur zugeordneter Titel angezeigt, wobei diese Anzeigen jeweils nach
einer vorbestimmten Zeit (z. B. einigen Sekunden) abwechseln. In einem Zeitanzeigebereich A5-3
wird die Gesamtzeit der Spur angezeigt.
In einem Verknüpfungs-Icon A5-4 wird eines der oben beschriebenen verschiedenen Icons (z. B.
das Bewegtbild-Icon i1, das Standbild-Icon i2, das Interviewdatei-Icon i3, das Gruppen-Icon i4
und das Memo-Datei-Icon i5) in Abhängigkeit von dem Dateityp angezeigt, dem das ausgewählte
Thumbnail-Bild entspricht, nämlich ob Gruppierungseinstellung vorhanden ist oder nicht usw..
Wenn auf dem Verknüpfungs-Icon A5-4 eine Zeigeoperation ausgeübt wird, wird ein Spurinfor
mationsbildschirm umschaltbar angezeigt.
Im folgenden wird anhand von Fig. 14 eine Bedienungsoperation für den Menübereich A3 be
schrieben, wobei die Wiedergabemenütaste A3-1 als Beispiel herangezogen wird.
Wenn z. B. mit Hilfe des Stifts 320 eine Zeigeoperation für die Wiedergabemenütaste A3-1 aus
geführt wird, wie dies in Fig. 14 dargestellt ist, wird ein erstes Aufklappmenü angezeigt. In die
sem Beispiel werden in dem ersten Aufklappmenü die Menüposten "← zurück", "Sportanalyse
modus", "Wiedergabemodus" und "Sortieren" angezeigt. Wenn die Wählscheibe 303 gedreht
wird (oder mit Hilfe eines Stifts eine Drag-Operation auf den Bildschirm ausgeführt wird), wäh
rend das erste Aufklappmenü angezeigt wird, bewegt sich der auszuwählende Menüposten in
Richtung der Drehung. Wenn dann z. B. der "Wiedergabemodus" ausgewählt wird, wie dies in
der Figur dargestellt ist, und die Wählscheibe 303 niedergedrückt wird (oder mit Hilfe eines
Stifts eine Zeigeoperation ausgeführt wird, deren Dauer eine feste Zeit überschreitet), wird ein
zweites Aufklappmenü angezeigt.
In dem zweiten Aufklappmenü werden vier Menüposten angezeigt, nämlich "Normal", "Platte
wiederholen", "Shuffle" und "Einführungsabtastung". Wenn der Benutzer mit dem zweiten
Aufklappmenü ähnlich verfährt wie mit dem ersten Aufklappmenü, kann ein gewünschtes Ex
emplar dieser Menüposten ausgewählt und festgelegt werden. Der auf diese Weise gesetzte
Wiedergabemodus wird auf die Anzeigeinhalte des Wiedergabemodus-Anzeigebereichs reflek
tiert, der in Fig. 13 dargestellt ist.
In der Videokamera des vorliegenden Ausführungsbeispiels kann eine bereits auf einer Platte
aufgezeichnete Datei durch eine GUI-Operation für den Bedienungsbildschirm, wie sie oben an
hand von Fig. 13 beschrieben wurde, an einer beliebigen Position in zwei Dateien (Spuren) ge
teilt werden. Anhand von Fig. 15 und 16A bis 16D wird eine solche Spurteilungsprozedur be
schrieben.
Um eine Teilungseditierung vorzunehmen, führt der Benutzer eine Zeigeoperation auf der auf
dem Bedienungsbildschirm angezeigten Editiermenütaste A3-2 aus. Daraufhin wird das erste
Aufklappmenü angezeigt, in welchem verschiedene Menüposten für das Editieren angezeigt
werden, wie dies aus Fig. 15 ersichtlich ist. Wenn der Benutzer dann in dem ersten Auflapp
menü den Menüposten "Spurteilung" auswählt, wird das zweite Aufklappmenü angezeigt, in
dem Menüposten unterhalb der Hierarchie des Menüs "Spurteilung" angeordnet sind. Wenn
dann der in dem zweiten Aufklappmenü angezeigte bezeichnete Menüposten "Teilung" ausge
wählt und festgelegt wird, gelangt die Videokamera in einen Spurteilungsmodus, der ein Teilen
der Spur (Datei) ermöglicht.
In dem Spurteilungsmodus wechselt die Anzeige des Displaypanels 67 zunächst von der Bedie
nungsbildschirmdarstellung in eine Spurauswahlbildschirm, der in Fig. 16A dargestellt ist. Auf
dem Spurauswahlbildschirm werden mehrere Thumbnail-Bilder SN von Spuren als Dateien dar
gestellt. Die Thumbnail-Anzeigeregion, in der die Thumbnail-Bilder SN angezeigt werden, kann
z. B. durch Betätigen der Bildlaufleiste A4 nach oben oder unten bewegt werden. Der Benutzer
führt dann z. B. eine Zeigeoperation aus, um eine zu teilende Datei auszuwählen. Es sei hier daruf
hingewiesen, daß der Spurteilungsmodus gestoppt und wieder der Bedienungsbildschirm dar
gestellt wird, wenn eine Stopptaste BT1 betätigt wird, die in der rechten unteren Ecke des Bild
schirms angezeigt wird.
Wenn durch eine Betätigung des in Fig. 16A dargestellten Spurauswahlbildschirms die zu teilen
de Spur ausgewählt und festgelegt ist, wird die Anzeige auf den der in Fig. 16B dargestellten
Bildschirm zur Wiedergabe der ausgewählten Spur umgeschaltet.
Auf dem Bildschirm für dis Wiedergabe der ausgewählten Spur wird die als Teilungsobjekt aus
gewählte Datei wiederholt abgespielt und angezeigt. Der Benutzer führt durch Betätigen einer
Pausentaste BT3, die in dem rechten unteren Teil des Bildschirms dargestellt ist, zu einer belie
bigen Zeit für die Teilung eine Pause herbei, während er das Bild beobachtet, das dann wieder
gegeben und angezeigt wird. Wenn der Benutzer die Stopptaste BT2 betätigt, kann z. B. der in
Fig. 16A dargestellte Spurauswahlbildschirm wiederhergestellt werden.
Wenn in der oben beschriebenen Weise eine Pause herbeigeführt wird, wechselt die Anzeige
des Anzeigepanels 67 zu einem Pausenbildschirm, der in Fig. 16C dargestellt ist. Der Pausen
bildschirm ist ein Bildschirm, mit dem der Benutzer bestätigen kann, ob die Teilungsposition ge
eignet ist oder nicht, und der es ihm erlaubt, die Teilungsposition zu justieren, wie dies im fol
genden beschrieben wird.
Auf dem in Fig. 16C dargestellten Pausenbildschirm wird zunächst das Vollbild weiter stationär
angezeigt, das angezeigt wurde, als die Pause herbeigeführt wurde. Dann findet, speziell in der
Videokamera des vorliegenden Ausführungsbeispiels, eine überlappende Anzeige mit einem
"Verknüpfungs-Glättegrad: 60%" statt. Weiter unten wird beschrieben, was der "Verknüpfungs-
Glättegrad" bedeutet, sei hier kurz erwähnt, daß er den Grad der Wartezeit angibt, bis die Wie
dergabe der durch die Teilung erzeugten Datei beginnt und diese als Bild ausgegeben wird,
wenn als Teilungsposition das aktuell angezeigte Vollbild festgelegt wird.
Obwohl weiter unten Einzelheiten beschrieben werden, sei hier schon erwähnt, daß dann, wenn
für eine Datei mit Bewegtbilddaten eine Teilungseditierung durchgeführt wird, mitunter eine
gewisse Zeit erforderlich ist, bis Wiedergabe und Bildausgabe der durch die Teilung gewonne
nen letzten Datei im Wiedergabemodus beginnt, wenn die Videokamera eine Datei abspielt, die
durch Teilungseditieren erzeugt wurde. Während der Zeit bis zum Beginn des Abspielens und
der Ausgabe wird kein Wiedergabebild angezeigt, und diese Zeit bedeutet Wartezeit für den Be
nutzer.
Diese Wartezeit ist darauf zurückzuführen, daß im vorliegenden Ausführungsbeispiel ein Auf
zeichnungsformat benutzt wird, wie es in Fig. 12A und 12B als AV-Paket dargestellt ist. Die War
tezeit variiert in Abhängigkeit von der GOP und in Abhängigkeit davon, an welcher Position eine
Videoaufzeichnung in einem AV-Paket die Vollbilddaten liegen, die die festgelegte Teilungsposi
tion enthalten. Sie variiert auch in Abhängigkeit davon, welches Vollbild in der GOP als Teilungs
position ausgewählt ist. Deshalb ist die Wartezeit keine feste Zeit.
In der vorliegenden Anmeldung wird diese Wartezeit bis zum Beginn der Wiedergabe und Aus
gabe einer Datei auch als "Wiedergabewartezeit" bezeichnet.
Wenn in dem vorliegenden Ausführungsbeispiel der Pausenbildschirm dargestellt wird, er
scheint auf diesem eine Anzeige, die die "Wiedergabewartezeit" angeben kann. Deshalb kann
der Benutzer im voraus erkennen, wie lange bei der vom ihm gesetzten Teilungsposition die
Wiedergabe und Ausgabe der durch die Teilung erzeugten Datei verzögert werden. Selbst wenn
als Ergebnis der Teilungseditierung einer Datei eine gewisse Zeit bis zum Beginn der Wieder
gabe und der Ausgabe einer Datei erforderlich ist, wird der Benutzer bei der Wiedergabe nicht
beunruhigt und empfindet den Streß nicht so sehr, da er dies bereits erkannt und verstanden
hat.
In dem vorliegenden Ausführungsbeispiel wird die "Wiedergabewartezeit" als Verhältnis des
"Verknüpfungs-Glättungsgrads" angezeigt.
Wenn die Wiedergabe einer bestimmten Datei zu Ende geht und die Wiedergabe der durch die
Teilungseditierung erzeugten letzten Datei beginnen soll, tritt zwischen den der
"Wiedergabewartezeit" entsprechenden Bildern eine Unterbrechung auf, und der glatte Über
gang bei der Wiedergabe und Ausgabe zwischen den Dateien wird durch diese Unterbrechung
beeinträchtigt. Der "Verknüpfungs-Glättegrad" bezeichnet hier das Ausmaß der Unterbrechung
zwischen den Bildern.
Der Verknüpfungs-Glättegrad ist im vorliegenden Fall so eingestellt, daß er auf 100% beträgt,
wenn die "Wiedergabewartezeit" minimal ist und Wiedergabe und Ausgabe der durch die Tei
lung erzeugten letzten Datei am glattesten ablaufen. Das Verhältnis als Glättegrad nimmt gegen
über 100% allmählich ab, wenn die Wiedergabewartezeit länger ist. Das heißt, wenn die "Wie
dergabewartezeit" der durch die Teilungseditierung erzeugten letzten Datei kurz ist, ist der
Glättegrad hoch, wenn die "Wiedergabewartezeit" jedoch lang ist, ist der Glättegrad niedrig.
Wenn die "Wiedergabewartezeit" in dieser Weise als "Verknüpfungs-Glättegrad" dargestellt
wird, kann die tatsächliche Wiedergabewartezeit dem Benutzer besser vermittelt werden als in
dem anderen Fall, in dem z. B. bloß die tatsächliche Wiedergabewartezeit angezeigt wird.
Auf dem in Fig. 16C dargestellten Pausenbildschirm kann die Teilungsposition so geändert wer
den, daß sie von einem z. B. von einem Startpunkt aus, der durch die als laufende Teilungspositi
on ausgewählten Vollbildposition gegeben ist, in Einheiten eines Vollbilds vor- oder zurückverlegt
wird, indem eine "Zurück"-Taste BT4 oder eine "Vorwärts"-Taste BT5 betätigt wird, die in dem
unteren Teil des Bildschirms angezeigt werden.
Wenn die Teilungsposition durch diese Operation verändert wird, ändert sich auch der Glätte
grad, der für die Wiedergabewartezeit kennzeichnend ist und der bei allen solchen Gelegenhei
ten in Abhängigkeit von der geänderten Teilungsposition angezeigt wird.
Auf diese Weise kann der Benutzer z. B. durch eine Pausenoperation zunächst eine Feinjustie
rung für die eingestellte Teilungsposition vornehmen. Durch Beobachten der Anzeige des Glät
tungsgrads ist es dann möglich, ein Vollbild als Teilungsposition auszuwählen, mit dem sich ein
von dem Benutzer gewünschter Glättegrad erzielen läßt. Das heißt, wenn die Verknüpfung zwi
schen der früheren Datei und der durch die Teilung gewonnenen letzten Datei so glatt wie mög
lich sein soll, kann ein Vollbild ausgewählt werden, bei dem der Glättegrad so nahe wie möglich
an 100% liegt.
Wenn der Benutzer dann eine Festlegungstaste BT6 betätigt, die zwischen der "Zurück"-Taste
BT4 und der "Vorwärts"-Taste BT5 angezeigt wird, wird die Teilungsposition, die entsprechend
dem Vollbild gesetzt ist, das in dem Pausenzustand bei Betätigung der Festlegungstaste BT6
angezeigt wird, als Kandidat für die endgültige Teilungsposition festgelegt. Der Bildschirm wird
dann auf einen Teilungsausführungsbildschirm umgeschaltet, der in Fig. 16D dargestellt ist.
Der Teilungsausführungsbildschirm von Fig. 16D dient als Bildschirm für die Bestätigung der
endgültigen Teilungsposition. Auf dem Bildschirm zur Ausführung der Teilung wird kontinuierlich
das Vollbild angezeigt, das in dem Pausenzustand bei Betätigung der Festlegungstaste BT6 an
gezeigt wurde. Außerdem werden eine Stopptaste BT7 und eine Ausführungstaste BT8 in dem
rechten unteren Teil des Bildschirms angezeigt, wie dies in der Figur dargestellt ist.
Wenn die Stopptaste BT7 betätigt wird, beendet die Videokamera den Spurteilungsmodus.
Wenn hingegen die Ausführungstaste BT8 betätigt wird, wird die Teilungseditierung mit der der
zeit ausgewählten Teilungsposition ausgeführt. Das heißt, die Teilungsposition wird endgültig
festgelegt.
Wie oben beschrieben wurde, wird in der Videokamera bei der Wiedergabe und bei dem Editie
ren einer auf einer Platte aufgezeichneten Datei ein Script für die Wiedergabesteuerung und die
Wiedergabeverwaltung benutzt.
Auch wenn in der oben beschriebenen Weise eine Teilungseditierung für eine Datei vorgenom
men wird, wird als Ergebnis des Editierens ein Script beschrieben. Die Analyse des Scripts er
möglicht es dann bei späterem Abspielen oder Editieren, geteilte Dateien, die ursprünglich in
Form einer einzigen Datei vorlagen, z. B. als zwei unabhängige Dateien zu behandeln.
Als Beispiel für ein Script für Teilungseditieren wird im folgenden ein Fall betrachtet, in dem drei
Bewegtbilddaten A, B und C auf einer Platte aufgezeichnet sind und für die Bewegtbilddatei C
eine Teilungseditierung durchgeführt wird.
Zunächst sei angenommen, daß die beschriebenen Inhalte des Scripts vor dem Teilungseditie
ren folgendermaßen lauten:
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C<
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C<
Dieses definiert, daß durch eine Analyse der ersten Zeile des Script die Bewegtbilddatei A abge
spielt wird und dann durch eine Analyse der zweiten Zeile die Bewegtbilddatei B abgespielt wird
und schließlich durch eine Analyse der folgenden dritten Zeile die Bewegtbilddatei C abgespielt
wird. Das heißt, es wird definiert, daß die drei Bewegtbilddateien A, B und C als eine einzige un
abhängige Spur verwaltet und in der Wiedergabereihenfolge der Bewegtbilddateien A → B → C
abgespielt werden.
Es werde dann angenommen, daß dann, wenn die Daten aufgezeichnet sind und das Script be
schrieben ist, für die Bewegtbilddatei C eine Teilungseditierung nach der oben beschriebenen
Prozedur vorgenommen wird. Durch die Teilungseditierung werden die Inhalte des geschriebe
nen Scripts z. B. in der folgenden Weise neu geschrieben:
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C ENDFRAME = 149<
<VIDEO SRC = C BEGINFRAME = 150<
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C ENDFRAME = 149<
<VIDEO SRC = C BEGINFRAME = 150<
Die dritte und vierte Zeile des Scripts beschreiben, daß die Bewegtbilddatei C, die ursprünglich
eine einzige Datei ist, entsprechend der bei der Teilungseditierung erfolgenden Festlegung des
150. Vollbilds der Bewegtbilddatei C als Teilungsposition, in zwei Dateien geteilt und als zwei
Dateien verwaltet wird, bestehend aus einer vorderen Datei (Spur), die die Bilder von dem er
sten Vollbild bis zu dem 149. Vollbild der Bewegtbilddatei C enthält, und einer nachfolgenden
Datei (Spur), die die Bilder von dem 150. Vollbild bis zu dem letzten Vollbild enthält.
Dies hat zur Folge, daß die Bewegtbilddateien A, B und C nun als vier Dateien verwaltet werden,
deren Wiedergabereihenfolge folgendermaßen festgelegt ist: Bewegtbilddatei A → Bewegt
bilddatei B → erster Teil der Bewegtbilddatei C (bis zu dem 149. Vollbild) → nachfolgender Teil
der Bewegtbilddatei C (beginnend mit dem 150. Vollbild).
Das als Teilungsposition festgelegte Vollbild beindet sich nicht notwendigerweise am Anfang ei
ner in der Videoaufzeichnung eines AV-Paket angeordneten GOP. Mit anderen Worten, das Voll
bild kann aus beliebigen Vollbilddaten innerhalb einer GOP in einer bestimmten Videoaufzeich
nung bestehen.
Auf diese Weise erhält man bei dem vorliegenden Ausführungsbeispiel durch Festlegung einer
Teilungsposition in einer Datei durch Beschreiben eines Scripts ein Ergebnis der Teilungseditie
rung, und eine Datenverarbeitung von tatsächlich geteilten Daten, die auf einer Platte aufge
zeichnet sind, wird nicht vorgenommen. Dadurch wird z. B. die Verarbeitungsbelastung bei der
Teilungseditierung reduziert, und es wird verhindert, daß auf der Platte aufgezeichneten Haupt
daten beeinträchtigt werden.
Es ist darauf hinzuweisen, daß in dem Beispiel des oben beschriebenen Scripts bei der Festle
gung einer Teilungsposition die Nummer eines Vollbilds (Vollbildnummer) einer Bewegtbilddatei
vor der Teilung festgelegt wird, und auch die folgende Beschreibung geht davon aus, daß eine
Teilungsposition durch eine Vollbildnummer festgelegt wird. Die Festlegung einer Teilungsposi
tion ist jedoch nicht hierauf beschränkt, in der Praxis kann eine Teilungsposition vielmehr auch
z. B. durch einen Zeitkode festgelegt werden.
Fig. 17 veranschaulicht die Verarbeitung der durch die Teilungseditierung gewonnenen letzten
Datei als Wiedergabeprozeß entsprechend der Interpretierung eines Scripts. Der Wiedergabe
prozeß ist z. B. ein Wiedergabeprozeß, wenn die vierte Zeile (<VIDEO SRC = C BEGINFRAME =
150<) des Scripts nach der Teilungseditierung interpretiert wird. Der in dieser Figur dargestellte
Prozeß wird z. B. realisiert, wenn die Videosteuerung 38 als Hauptsteuerung arbeitet und, falls
erforderlich, die Datenverarbeitungs-/Systemsteuerschaltung 31, die Treibersteuerung 46 oder
dgl. die Steuerung ausführt.
Wenn die Videosteuerung 38 das Script einliest und interpretiert, das die Wiedergabe der durch
die Teilung gewonnenen letzten Datei angibt, geht die Verarbeitung weiter zu dem Schritt S101.
In dem Schritt S101 wird auf ein AV-Paket zugegriffen, das eine Wiedergabestartposition einer
wiederzugebenden Datei, d. h. eine Teilungsfestlegungsposition, enthält. In dem nächsten Schritt
S102 wird dann die Paketeigenschaft des AV-Pakets eingelesen, und der Inhalt der Paketeigen
schaft wird analysiert.
Obwohl dies hier nicht ausführlich beschrieben wird, kann aus dem Inhalt der Paketeigenschaft
in der Videoaufzeichnung eine GOP identifiziert werden, die die Wiedergabestartposition in dem
AV-Paket enthält. So wird in dem Schritt S103 die Position der GOP, die die Wiedergabestartpo
sition in dem Paket enthält, auf der Basis des Ergebnisses der Analyse der Paketeigenschaft de
tektiert.
In dem nächsten Schritt S104 wird auch das Cluster (Zuordnungseinheit) detektiert, das die
Wiedergabestartposition enthält. Das Cluster ist eine Dateneinheit, die als kleinste Einheit für
das Einschreiben von physikalischen Daten auf einer Platte in dem Plattenformat des vorliegen
den Ausführungsbeispiels vorgeschrieben ist. Im vorliegenden Fall wird z. B. eine PCA (physika
lische Clusteradresse) des Clusters detektiert, das den Wiedergabestartpunkt enthält.
Wenn die beschriebene Verarbeitung beendet ist, berechnet die Videosteuerung 38 in dem
Schritt S105 einen Byte-Offset bis zu der GOP, die die Wiedergabestartposition in dem AV-Paket
enthält.
Der Byte-Offset wird hier durch die Zahl der Bytes von der Startposition bis zu der GOP des lau
fenden AV-Pakets repräsentiert, wie dies in Fig. 18 dargestellt ist. Der Byte-Offset kann auf der
Basis der Inhalte der Paketeigenschaft bestimmt werden durch Addieren der Größe der Paketei
genschaft, der Größe der Audioaufzeichnung und der Zahl der Bytes bis zu der Position der
GOP, die die Wiedergabestartposition in der Videoaufzeichnung enthält.
In dem nächsten Schritt S106 wird das AV-Paket bis zu der GOP, die die Wiedergabestartpositi
on enthält, auf der Basis des in dem Schritt S105 gewonnenen Wertes des Byte-Offsets bis zu
der GOP, die die Wiedergabestartposition enthält, eingelesen. Wenn das Einlesen bis zu der
GOP der Wiedergabestartposition beendet ist, geht die Verarbeitung weiter zu dem Schritt
S107.
In dem Schritt S107 wird die Dekodierung der GOP gestartet, die die Wiedergabestartposition
enthält. Wenn bei der GOP-Dekodierung der GOP-Daten (Vollbilddaten) dekodiert werden, die in
dem Cluster der Wiedergabestartposition liegen, wird die Wiedergabe und Ausgabe eines Bil
des, wie in dem Schritt S108 dargestellt, von den Vollbilddaten aus gestartet, das durch Deko
dieren der dekodierten GOP-Daten gewonnen wird. Das heißt die Anzeige des Bewegtbilds auf
dem Anzeigepanel 67 wird gestartet.
Im vorliegenden Ausführungsbeispiel werden die Daten bis zu einer GOP, die eine Wiedergabe
startposition enthält, entsprechend dem Wert des Byte-Offsets eingelesen. Alternativ kann der
optische Kopf 53 auf der Basis des Clusters auch direkt auf den Cluster auf der Platte zugreifen,
der die Wiedergabestartposition enthält. In diesem Fall wird die Wiedergabewartezeit berechnet
aus der Zeit für das Auslesen des AV-Pakets, der Kopf-Clusteradresse der GOP, die die Wieder
gabestartposition enthält und aus dem AV-Paket detektiert wird, der Zugriffszeit, die der opti
sche Kopf benötigt, um auf die Kopf-Clusteradresse zuzugreifen, und die Zeit, die für das Ausl
esen der betreffenden GOP benötigt wird.
Daß die Prozedur für die Wiedergabe der durch die Teilung gewonnenen letzten Datei in der in
Fig. 17 dargestellten Weise abläuft, ist darauf zurückzuführen, daß Bewegtbilddaten dadurch
gebildet werden, daß GOPs in einem AV-Paket angeordnet werden.
Bei einem solchen Wiedergabeprozeß kann es vorkommen, daß einige Zeit erforderlich ist, be
vor eine Wiedergabeanforderung gewonnen und die Wiedergabe und die Ausgabe einer Datei
als Bild endgültig gestartet wird. Das heißt es kann möglicherweise eine "Wiedergabewartezeit"
entstehen.
In dem vorliegenden Ausführungsbeispiel wird bei der Teilungseditierung einer Datei eine Anzei
ge erzeugt, die die Wiedergabewartezeit repräsentieren kann, wie dies in Fig. 16C dargestellt ist.
Zu diesem Zweck muß die Wiedergabewartezeit in Abhängigkeit von einer festgelegten Tei
lungsposition berechnet werden. Im Ausführungsbeispiel kann die Berechnung der Wiederga
bewartezeit z. B. folgendermaßen ablaufen.
Die Wiedergabewartezeit vor der Wiedergabe und Ausgabe der durch die Teilungseditierung er
zeugten letzten Datei kann hier begrifflich aus zwei Faktoren zusammengesetzt sein.
Einer dieser Faktoren ist die Zeitspanne, die benötigt wird, um ein AV-Paket bis zu einer GOP
einzulesen, die die Teilungsfestlegungsposition (Wiedergabestartposition) enthält. Mit anderen
Worten, diese Zeit ist die Zeit, die für die Beendigung der Verarbeitung in den Schritten S101 bis
S106 benötigt wird. Die für das Einlesen der Daten benötigte Zeit wird als "Daten-Einlesezeit"
bezeichnet.
Da bei der normalen Wiedergabe der Spur die Wiedergabestartposition des Vollbilds, wie in Fig.
19 dargestellt, der Anfang der Videoaufzeichnung ist, ist die Zeit, die vergeht, bis das AV-Paket
eingelesen ist und auf die am Anfang der Videoaufzeichnung liegende GOP zugegriffen werden
kann, d. h. die Daten-Einlesezeit, gleich Tf, die die kürzeste Zeit ist.
Wenn hingegen die GOP, die die GOP-Daten (Vollbild) als Teilungsfestlegungsposition enthält,
z. B. die vierte und damit die letzte GOP der Videoaufzeichnung ist, wie dies durch eine Pfeil
marke A in Fig. 19 angedeutet ist, wird die Daten-Einlesezeit mit Td bezeichnet. Mit anderen
Worten, die Zeit Td ist länger als die Zeit Tf.
So wird die Daten-Einlesezeit Td lang, wenn die GOP, die die Teilungsfestlegungsposition ent
hält, an einer Position liegt, die von dem Anfang des AV-Pakets weiter entfernt ist.
Die Wiedergabewartezeit umfaßt zusätzlich zu der Daten-Einlesezeit Td die Zeit, die benötigt
wird, um die die Teilungsfestlegungsposition enthaltende GOP zu dekodieren, bis die Vollbildda
ten (GOP-Daten), die der Teilungsfestlegungsposition entsprechen, endgültig dekodiert sind.
Das heißt es handelt sich um die Zeit, die für die Verarbeitung in Schritt S107 → Schritt S108 in
dem in Fig. 17 dargestellten Wiedergabeprozeß benötigt wird. Die für das Dekodieren einer
GOP-Einheit benötigte Zeit wird als "GOP-Datenanalysezeit" bezeichnet.
Die GOP ist bekanntlich die kleinste Editiereinheit von Daten, die nach dem MPEG-System ko
diert sind. Im vorliegenden Ausführungsbeispiel ist die GOP z. B. eine Gruppe von insgesamt 15
Vollbildern, die zumindest Vollbilddaten eines für die Wiedergabe benötigten Referenzbilds (I-
Bild) enthalten. GOPs sind unabhängig voneinander und können einen geschlossenen Bitstrom
bilden. Eine GOP kann aus drei Arten von Vollbilddaten bestehen, nämlich einem I-Bild (Intra-
Bild: intraframe-kodiertes Bild), einem P-Bild (prädiktives Bild: interframe-vorwärtsprädiktiv ko
diertes Bild) und einem B-Bild (bidirektionales Bild: bidirektional prädiktiv kodiertes Bild).
Das I-Bild stellt Vollbilddaten dar, die als Referenz dienen. Jede GOP enthält ein oder mehrere
fehlerfreie I-Bilder. Das I-Bild erlaubt prädiktive Kodierung in dem Vollbild. Das Vorhandensein
des Vollbilds sichert die Unabhängigkeit der GOP, und die Vollbilddaten werden vorzugsweise
zuerst verarbeitet.
Das P-Bild stellt Vollbilddaten dar, für die eine prädiktive Kodierung durchgeführt wird, wobei ein
Vorwärts-I-Bild oder -P-Bild als Referenz dient. Es wird nach einem I-Bild oder einem P-Bild ver
arbeitet, das vor ihm liegt.
Das B-Bild stellt Vollbilddaten dar, die zwischen einem I-Bild und einem P-Bild oder zwischen I-
Bildern oder P-Bildern liegen, und werden verarbeitet, nachdem ein I-Bild oder I-Bilder bzw. ein
P-Bild oder P-Bilder, die vor ihnen liegen, und ein I-Bild oder ein P-Bild, die hinter ihnen liegen,
alle verarbeitet sind.
Ein Beispiel für die Struktur der Interframe-Prädiktion in einer GOP ist in Fig. 20 dargestellt.
In dieser Figur besteht eine GOP z. B. aus 15 Vollbildern und ist so mit der vorliegenden Erfin
dung konform. Da in diesem Fall wahlfreier Zugriff in einer GOP erforderlich ist, muß in einer
GOP wenigstens ein Vollbild des I-Bildes vorhanden sein. Deshalb enthält eine GOP ein Vollbild
des I-Bildes, vier Vollbilder des P-Bildes, das Prädiktion aus einem I-Bild oder einem P-Bild erfor
dert, die zeitlich früher liegen, sowie die übrigen 10 Vollbilder des B-Bildes, das eine Prädiktion
aus einem I-Bild oder I-Bildern und/oder einem P-Bild oder aus P-Bildern erfordert, die in entge
gensetzten Zeitrichtungen liegen.
Das I-Bild I1 wird nur innerhalb des Vollbilds prädiktiv kodiert.
Das P-Bild P1 wird, mit dem I-Bild I1 als Referenz, interframe-prädiktiv kodiert, und das P-Bild P2
wird, mit dem P-Bild P1 als Referenz, interframe-prädiktiv kodiert. Das P-Bild P3 wird, mit dem P-
Bild P2 als Referenz, interframe-prädiktiv kodiert, und das P-Bild P4 wird, mit dem Bild P3 als Re
ferenz, interframe-prädiktiv kodiert.
Die B-Bilder B3 und B4 werden, mit dem I-Bild I1 und dem P-Bild P1 als Referenz, interframe-
prädiktiv kodiert, und die B-Bilder B4 und B5 werden, mit dem P-Bild P1 und dem P-Bild P2 als
Referenz, interframe-prädiktiv kodiert. Anschließend wird die prädiktive Kodierung in ähnlicher
Weise fortgeführt, wie dies durch die Pfeilmarken angedeutet ist, und die folgenden Bilder
(Vollbilddaten) werden dekodiert.
Die außerhalb des Rahmenwerks der Figur angebrachten Nummern 1 bis 15 zeigen die Ausga
bereihenfolge der Vollbilder der originalen Bilder an.
Die Dekodierung der individuellen Vollbilddaten in der GOP läuft in der beschriebenen Weise ab.
Um bestimmte Vollbilddaten zu dekodieren, müssen Vollbilddaten, die vor diesen bestimmten
Vollbilddaten zu dekodieren sind, in einer vorbestimmten Reihenfolge verarbeitet werden. Des
halb ist in Abhängigkeit von der Art und der Position der Vollbilddaten, die als Teilungsfestle
gungsposition festgelegt werden, eine erhebliche Zeit nach dem Beginn der Dekodierung der
GOP erforderlich, bis die Vollbilddaten an der Teilungsfestlegungsposition dekodiert werden.
Dies ist die "GOP-Datenanalysezeit". Im folgenden wird ein Beispiel beschrieben.
Fig. 21A bis 21C zeigen GOP-Datenanalysezeiten entsprechend der Differenz in der Teilungs
festlegungsposition. Die in dieser Figur in O angegebenen Zahlen geben die Reihenfolge der
Dekodierung an.
Es sei angenommen, daß die Daten einer GOP so angeordnet sind, wie dies z. B. in Fig. 21A
dargestellt ist. Das I-Bild I1, das in der Dekodier-Ausgabereihenfolge an dritter Stelle liegt, ist als
Teilungsfestlegungsposition festgelegt.
Dieses I-Bild I1 dient als I-Bild, das in der GOP dem Anfang am nächsten liegt. Es handelt sich
um die Vollbilddaten (GOP-Daten), die zuerst dekodiert werden. Wenn die für das Dekodieren
des einzelnen I-Bildes benötigte Zeit mit Ti bezeichnet wird und die GOP-Datenanalysezeit mit
Tg bezeichnet ist, kann die Zeit Tg für den in Fig. 21A dargestellten Fall ausgedrückt werden als
Tg = Ti
Wenn das P-Bild P2, das in der Dekodier-Ausgabenreihenfolge an neunter Stelle liegt, als Tei
lungsfestlegungsposition festgelegt wird, wie dies in Fig. 21B dargestellt ist, wird nach dem De
kodiergesetz für eine GOP zuerst das I-Bild I1 dekodiert. Als zweites wird das P-Bild P1 deko
diert, und anschließend wird als drittes das P-Bild P2 dekodiert. Das heißt es werden ein I-Bild
und zwei P-Bilder dekodiert.
Wenn die für das Dekodieren eines I-Bildes benötigte Zeit, ähnlich wie oben beschrieben, mit Ti
und die zum Dekodieren eines P-Bildes benötigte Zeit mit Tp bezeichnet wird, ist die GOP-Da
tenanalysezeit Tg in diesem Fall gleich
Tg = Ti + 2 × Tp
und damit länger als die Zeit, die in Fig. 21A dargestellt ist.
Wenn das B-Bild B8, das in der Dekodier-Ausgabenreihenfolge an vierzehnter Stelle liegt, als
Teilungsfestlegungsposition festgelegt wird, wie in Fig. 21 C dargestellt, muß die Dekodierung
der Vollbilddaten in einer Reihenfolge durchgeführt werden, die in der Figur durch die in O ange
gebenen Zahlen gegeben ist, und die Dekodierung des B-Bildes B8 endet schließlich an drei
zehnter Stelle in der Dekodierungsreihenfolge.
Wenn die für das Dekodieren eines I-Bildes benötigte Zeit mit Ti und die für das Dekodieren ei
nes P-Bildes mit Tp bezeichnet wird, und wenn ferner die für das Dekodieren eines B-Bildes be
nötigte Zeit mit Tb bezeichnet wird, ist die GOP-Datenanalysezeit Tg gleich
Tg = Ti + 2 × T p + 8 × Tb
und damit noch mal länger als in dem Fall von Fig. 21B.
Die vorangehende Beschreibung zeigt, daß die "Wiedergabewartezeit" in dem vorliegenden
Ausführungsbeispiel von der Daten-Einlesezeit Td und der GOP-Datenanalysezeit Tg abhängt.
Wenn die Wiedergabewartezeit mit Ts bezeichnet wird, läßt sie sich darstellen als
Ts = Td + Tg
In dem vorliegenden Ausführungsbeispiel wird bei der anhand von Fig. 16A bis 16D beschrie
benen Teilungseditierung die Wiedergabewartezeit Ts entsprechend der vorangehenden Be
schreibung in Abhängigkeit von der auf dem Pausenbildschirm gesetzten Teilungsfestlegungs
position berechnet. Auf der Basis der Wiedergabewartezeit Ts wird dann der Glättegrad für die
Durchführung der Anzeige bestimmt.
Es ist darauf hinzuweisen, daß z. B. in Abhängigkeit von der tatsächlichen Wiedergabeverarbei
tung die Zeit einer Daten-Einleseoperation, die als Daten-Einlesezeit Td berechnet wird, und die
Zeit für eine GOP-Datendekodieroperation, die als GOP-Datenanalysezeit Tg berechnet wird,
einander möglicherweise überlappen können. Die Wiedergabewartezeit wird jedoch durch den
relativen Ausdruck repräsentiert, der zur Vereinfachung der Beschriebung oben angegeben
wurde. Deshalb kann in der Praxis eine kompliziertere Funktion oder ein komplizierterer Aus
druck verwendet werden.
Auf der Basis der vorangehenden Beschreibung und unter Bezugnahme auf die Flußdiagramme
von Fig. 22 und 23 wird im folgenden eine Verarbeitungsprozedur für die überlappende Anzeige
des Glättungsgrads erläutert, wenn der in Fig. 16B oder 16C dargestellte Pausenbildschirm
angezeigt wird.
Es ist darauf hinzuweisen, daß auch dieser Prozeß durchgeführt wird, wenn die Videosteuerung
38 als Hauptsteuerung arbeitet und die die passende Steuerung in der Datenverarbeitungs-
/Systemsteuerschaltung 31, in der Treibersteuerung 46 oder dgl. ausgeführt werden.
Wenn z. B. auf der Basis des in Fig. 16B dargestellten Wiedergabebildschirms für die Spuraus
wahl eine Pause geschaltet wird, während die Spur wiedergegeben wird, wie dies oben anhand
von Fig. 16A bis 16D beschrieben wurde, geht die Videosteuerung 38 zu dem Verarbeitungs
schritt S201 von Fig. 22 über, so daß der in Fig. 16C dargestellte Pausenbildschirm angezeigt
wird.
In dem Schritt S201 läuft ein Steuervorgang ab, um GOP-Daten anzuzeigen und auszugeben, die
der zu dieser Zeit gesetzten Pausenposition entsprechen, d. h. einer Teilungsfestlegungsposition,
d. h. den Vollbilddaten in der Anzeigeregion des Anzeigepanels. Es ist darauf hinzuweisen, daß
dann, wenn diese Verarbeitung als Reaktion auf eine Pausenschaltung zuerst ausgeführt wird,
die Vollbilddaten, die in dieser Pause angezeigt und ausgegeben werden, kontinuierlich als
Standbild ausgegeben werden und die Datenposition der Vollbilddaten als Teilungsfestlegungs
position betrachtet wird. In diesem Fall werden auch die in Fig. 16C dargestellte "Zurück"-Taste
BT4, die "Vorwärts"-Taste BT5 und die "Festlegungs"-Taste BT6 an den vorbestimmten Posi
tionen auf dem Pausenbildschirm angezeigt.
In dem nächsten Schritt S202 wird dann die Wiedergabewartezeit Ts berechnet, die für den Fall
gilt, daß die Wiedergabe von der aktuell gesetzten Teilungsfestlegungsposition aus beginnt. Die
ser Rechenprozeß ist in Fig. 23 dargestellt.
Wie Fig. 23 zeigt, wird bei der Berechnung der Wiedergabewartezeit Ts in dem Schritt S301 die
Paketeigenschaft des AV-Pakets, das die aktuell gesetzte Teilungsfestlegungsposition enthält,
eingelesen, und der Inhalt der der Paketeigenschaft wird analysiert. In dem nächsten Schritt
S302 wird eine GOP, die die aktuell gesetzte Teilungsfestlegungsposition enthält, auf der Basis
der analysierten Inhalte der Paketeigenschaft detektiert.
Wenn eine GOP detektiert ist, wird dann in dem nächsten Schritt S303 die Daten-Einlesezeit Td
(Fig. 19) bis zu der GOP, die die Teilungsfestlegungsposition enthält berechnet. Zu diesem
Zweck wird der Byte-Offset (Fig. 18) bis zu der GOP bestimmt, die die Teilungsfestlegungsposi
tion enthält, und zur Durchführung einer arithmetischen Operation nach einem vorbestimmten
Ausdruck wird die Datenverarbeitungsgeschwindigkeit usw. verwendet, wenn Daten der Daten
menge, die dem Byte-Offset entspricht, eingelesen werden.
Die Zeit, bis die betroffene GOP von der Anfangsposition des AV-Pakets eingelesen ist, d. h. die
für eine vorbestimmte Einheitsdatenmenge erforderliche Zeit hängt hier z. B. auch davon ab, in
welcher Weise die Daten gelesen werden. Es ist z. B. möglich, über eine dem Byte-Oftset ent
sprechende Datenmenge bis zu der betroffenen GOP zu springen, um auf die betroffene GOP
zuzugreifen, oder die Daten tatsächlich sukzessiv von der Anfangsposition des AV-Pakets aus zu
lesen. Auf jeden Fall ist es möglich, die Daten-Einlesezeit Td zu bestimmen, indem man eine
entsprechende Berechnung auf der Basis der bis zum Einlesen der betroffenen Daten benötig
ten Verarbeitungszeit und der dem Byte-Offset entsprechenden Datenmenge durchführt.
In dem nächsten Schritt S304 wird dann detektiert, welche Vollbilddaten in der GOP die GOP-
Daten (Vollbilddaten) sind, die der Teilungsfestlegungsposition entsprechen. Dies geschieht auf
der Basis des Inhalts der Paketeigenschaft, die in dem früheren Schritt S301 analysiert wurde.
Wenn die Detektierung ausgeführt ist, wird dann in dem nächsten Schritt S305 das Dekodieren
der GOP-Einheit gestartet. Dies geschieht auf der Basis der Information über die detektierte Po
sition der GOP, des Bildtyps, der tatsächlichen Verarbeitungsgeschwindigkeit bei der GOP-De
kodierung usw. Es wird die Zeit berechnet, bis die Vollbilddaten, die der Teilungsfestlegungs
position entsprechen, detektiert sind und wiedergegeben, angezeigt und endgültig ausgegeben
werden können, d. h. die GOP-Datenanalysezeit Tg.
Durch die bisherige Verarbeitung werden die Daten-Einlesezeit Td und die GOP-Datenanalyse
zeit Tg gewonnen, die Bestandteile der Wiedergabewartezeit Ts sind. So wird in dem Schritt
S306 die Wiedergabewartezeit Ts auf der Basis der Daten-Einlesezeit Td und der GOP-
Datenanalysezeit Tg berechnet. Die Wiedergabewartezeit Ts kann, wie oben beschrieben, z. B.
durch eine einfache arithmetische Operation berechnet werden, die durch Ts = Td + Tg darge
stellt wird.
Nachdem die Berechnung der Wiedergabewartezeit Ts ausgeführt ist, geht die Videosteuerung
38 mit ihrer Verarbeitung zu dem Schritt S203 von Fig. 22 über.
In dem Schritt S203 bestimmt die Videosteuerung 38 auf der Basis der in dem Schritt S202 be
rechneten Wiedergabewartezeit Ts den Wert des Glättegrads, der auf dem Pausenbildschirm
(Fig. 16C) überlappend dargestellt werden soll. Da die entsprechende Verarbeitung auf unter
schiedliche Weise erfolgen kann, wird hier auf eine ausführliche Beschreibung verzichtet. Die
Wiedergabewartezeit Ts kann z. B. auf eine bestimmte Funktion angewendet werden, um den
Wert des Glättegrads zu bestimmen. Wenn für individuelle Werte in gewissen vorbestimmten
Abständen stufenweise Werte für den Glättegrad verwendet werden, kann z. B. eine Tabelle be
nutzt werden, in der Werte des Glättegrads und Bereiche der Wiedergabewartezeit in Beziehung
zueinander gesetzt sind, und auf diese Tabelle wird zurückgegriffen, um den Wert des Glätte
grads zu bestimmen.
In dem nächsten Schritt S204 wird eine Steuerung durchgeführt, um den Wert des Glättegrads,
der durch die Verarbeitung in dem Schritt S203 gewonnen wurde, auf dem Pausenbildschirm
überlappend anzuzeigen, wie dies z. B. in Fig. 16C dargestellt ist.
Wie Fig. 16C ebenfalls zeigt, werden auf dem Pausenbildschirm auch die "Zurück"-Taste BT4,
die "Vorwärts"-Taste BT5 und die "Festlegungs"-Taste BT6 angezeigt und können von dem
Benutzer betätigt werden.
So wird z. B. in dem auf dem Schritt S 204 folgenden Schritt S205 festgestellt, ob die "Zurück"-
Taste BT4 betätigt ist. Wenn das Ergebnis affirmativ ist, geht die Verarbeitung weiter zu dem
Schritt S207. Wenn das Ergebnis hingegen negativ ist, geht die Verarbeitung weiter zu dem
Schritt S206, in dem festgestellt wird, ob die "Vorwärts"-Taste BT5 betätigt ist oder nicht. Wenn
auch das Ergebnis in dem Schritt S206 affirmativ ist, geht die Verarbeitung weiter zu dem Schritt
S207. Wenn das Ergebnis hingegen negativ ist, geht die Verarbeitung weiter zu dem Schritt
S208.
Wenn bei der vorangehend beschriebenen Verarbeitung die "Zurück"-Taste BT4 oder die
"Vorwärts"-Taste BT5 betätigt wird, während der Pausenbildschirm angezeigt wird, geht die
Verarbeitung weiter zu dem Schritt S207.
In dem Schritt S207 wird die Teilungsfestlegungsposition z. B. in einer Vollbild-Dateneinheit in
Abhängigkeit von der Betätigung der "Zurück"-Taste BT4 oder der "Vorwärts"-Taste BT5 verän
dert und neu gesetzt. Die Verarbeitung kehrt dann zu dem Schritt S201 zurück. Wenn die Verar
beitung von dem Schritt S207 zu dem Schritt S201 zurückkehrt, werden in dem Schritt S201
nach Maßgabe der durch die Verarbeitung in dem Schritt S207 geänderten Teilungsfestlegungs
position (Pausenposition) eine Bildsignalverarbeitung zur Änderung der anzuzeigenden und als
Standbild auszugebenden Vollbilddaten (GOP-Daten) und eine entsprechende Anzeigesteuerung
ausgeführt.
Wenn weder die "Zurück"-Taste BT4 noch die "Vorwärts"-Taste BT5 noch die "Festlegungs"-
Taste BT6 betätigt werden, während der Pausenbildschirm angezeigt wird, liefert der Schritt
S208 ein negatives Ergebnis, und die Verarbeitung kehrt zu dem Schritt S204 zurück. Während
der Pausenanzeige der Vollbilddaten, die der aktuell gesetzten Teilungsfestlegungsposition ent
sprechen, wird in Abhängigkeit von der Verarbeitungsprozedur der "Verknüpfungs-Glättegrad"
für die aktuell gesetzte Teilungsfestlegungsposition überlappend angezeigt.
Wenn dann die "Festiegungs"-Taste BT6 betätigt wird, liefert der Schritt S208 ein affirmatives
Ergebnis. In diesem Fall wird ein nicht dargestellter Prozeß für einen Funktionsmodus zur Anzei
ge des in Fig. 16D dargestellten Bildschirms für die Ausführung der Teilung durchgeführt. Mit
anderen Worten, während die Vollbilddaten, die bei der Betätigung der "Festlegungs"-Taste BT6
angezeigt wurden, kontinuierlich weiter angezeigt werden, wird die "Stopp"-Taste BT8 überlap
pend angezeigt, so daß der Bildschirm für die Ausführung der Teilung dargestellt wird, und die
Vollbilddaten, die dann angezeigt werden, werden als endgültiger Kandidat für die Teilungsfest
legungsposition gesetzt. Anschließend läuft ein Prozeß ab, der der Betätigung der "Stopp"-Ta
ste BT7 oder der "Ausführen"-Taste BT8 entspricht. Wenn z. B. die "Ausführen"-Taste BT8 be
tätigt wird, werden die Beschreibungsinhalte des Scripts neu geschrieben, so daß die Datei an
des betreffenden Teilungsfestlegungsposition geteilt werden kann, wie dies oben beispielhaft
beschrieben wurde.
Es ist darauf hinzuweisen, daß die Erfindung nicht auf die oben beschriebene Konstruktion be
schränkt ist und daß zahlreiche Modifizierungen möglich sind.
So ist z. B. das Kompressionsformat für Bewegtbilddaten nicht auf das MPEG-System, ein
schließlich MPEG2, beschränkt, es kann vielmehr auch ein Kompressionsverfahren nach einem
anderen System benutzt werden. Auch das Aufzeichnungsformat ist nicht auf das beschriebene
Beispiel beschränkt. Außerdem ist die vorliegende Erfindung nicht nur auf Bewegtbilddaten an
wendbar sondern auch dann, wenn z. B. eine Teilungseditierung von Audiodaten oder dgl.
durchgeführt wird. Während in dem Ausführungsbeispiel die Wiedergabewartezeit als Bewer
tung des Wiedergabezustands einer durch Teilung gewonnenen Datei bewertet wird, ist es auch
möglich, z. B. einen Wiedergabezustand zu bewerten, dessen Meldung an den Benutzer vorteil
haft ist, und den Benutzer von dem Ergebnis der durch eine Anzeige oder dgl. zu informieren.
Das mit der vorliegenden Erfindung konforme Aufzeichnungsmedium kann auch bei einer Video
kamera angewendet werden, die für ein anderes Aufzeichnungsmedium ausgelegt ist, z. B. für
ein anderes plattenförmiges Aufzeichnungsmedium als eine Minidisc (MD) oder ein Speicher
element, wie einen Flash-Speicher. Das Aufzeichnungsmedium kann auch bei einer Videoka
mera angewendet werden, die für ein bandförmiges Medium ausgelegt ist.
Außerdem kann die vorliegende Erfindung nicht nur bei einem Videogerät angewendet werden,
sondern auch bei verschiedenen anderen Audio- und Videogeräten, die eine vorbestimmte Art
von Aufzeichnungsmedien aufzeichnen und abspielen können.
Vorangehend wurde ein bevorzugtes Ausführungsbeispiel der Erfindung unter Verwendung
spezifischer Ausdrücke beschrieben. Diese Beschreibung dient lediglich zur Erläuterung, und es
sind selbstverständlich Änderungen und Variationen möglich, ohne daß damit der Bereich der
folgenden Ansprüche verlassen wird.
Claims (17)
1. Editiergerät zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem
Speichermedium gespeichert werden sollen, mit
einer Festlegungseinrichtung zum Festlegen einer Editierposition für die kodierten Daten,
einer Bewertungseinrichtung zum Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festlegungseinrichtung festgelegten Editierposition aus wiedergegeben werden,
und einer Hinweiseinrichtung zum Hinweisen des Benutzers des Editiergeräts auf das Be wertungsergebnis der Bewertungseinrichtung.
einer Festlegungseinrichtung zum Festlegen einer Editierposition für die kodierten Daten,
einer Bewertungseinrichtung zum Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festlegungseinrichtung festgelegten Editierposition aus wiedergegeben werden,
und einer Hinweiseinrichtung zum Hinweisen des Benutzers des Editiergeräts auf das Be wertungsergebnis der Bewertungseinrichtung.
2. Editiergerät nach Anspruch 1, bei dem
die Bewertungseinrichtung als Bewertungsergebnis eine Wiedergabewartezeit ausgibt, die
erforderlich ist, um die Wiedergabe nach einem Befehl, die kodierten Daten von der Editierposi
tion aus wiederzugeben und auszugeben, zu starten.
3. Editiergerät nach Anspruch 2, bei dem
die Bewertungseinrichtung den Wiedergabekontinuitätsgrad ausgibt, der für Kontinuität der Wiedergabe repräsentativ ist und auf der auszugebenden Wiedergabewartezeit basiert, und
die Hinweiseinrichtung veranlaßt, daß der von der Bewertungseinrichtung ausgegebene Wiedergabekontinuitätsgrad auf einem Anzeigeteil angezeigt wird.
die Bewertungseinrichtung den Wiedergabekontinuitätsgrad ausgibt, der für Kontinuität der Wiedergabe repräsentativ ist und auf der auszugebenden Wiedergabewartezeit basiert, und
die Hinweiseinrichtung veranlaßt, daß der von der Bewertungseinrichtung ausgegebene Wiedergabekontinuitätsgrad auf einem Anzeigeteil angezeigt wird.
4. Editiergerät nach Anspruch 2, bei dem
die Bewertungseinrichtung als Wiedergabewartezeit zumindest die Datenauslesezeit arith
metisch ermittelt, die erforderlich ist, um Paketdaten, die eine Mehrzahl von kodierten Datenein
heiten enthalten, vom Anfang der Paketdaten bis zu derjenigen der kodierten Dateneinheiten
auszulesen, die die Editierposition enthält.
5. Editiergerät nach Anspruch 2, bei dem
das Speichermedium eine Platte ist,
das Editiergerät ferner eine Leseeinrichtung für den Zugriff auf eine vorbestimmte Position der Platte aufweist, um die an dieser vorbestimmten Position der Platte aufgezeichneten Daten auszulesen,
die Bewertungseinrichtung als Wiedergabewartezeit zumindest die Zeit arithmetisch ermit telt, die benötigt wird, um die Headerinformation der eine Mehrzahl von kodierten Dateneinhei ten enthaltenden Paketdaten auszulesen, sowie die Zugriffszeit, die die Leseeinrichtung benö tigt, um auf die Platte nach Maßgabe der physikalischen Kopfadresse einer der kodierten Daten einheiten zuzugreifen, die die aus der Headerinformation detektierte Editierposition enthält.
das Speichermedium eine Platte ist,
das Editiergerät ferner eine Leseeinrichtung für den Zugriff auf eine vorbestimmte Position der Platte aufweist, um die an dieser vorbestimmten Position der Platte aufgezeichneten Daten auszulesen,
die Bewertungseinrichtung als Wiedergabewartezeit zumindest die Zeit arithmetisch ermit telt, die benötigt wird, um die Headerinformation der eine Mehrzahl von kodierten Dateneinhei ten enthaltenden Paketdaten auszulesen, sowie die Zugriffszeit, die die Leseeinrichtung benö tigt, um auf die Platte nach Maßgabe der physikalischen Kopfadresse einer der kodierten Daten einheiten zuzugreifen, die die aus der Headerinformation detektierte Editierposition enthält.
6. Editiergerät nach Anspruch 4, bei dem
die Bewertungseinrichtung als Wiedergabewartezeit die Dekodierzeit arithmetisch ermittelt, die benötigt wird, um die kodierte Dateneinheit, die die Editierposition enthält, bis zu den die Editierposition enthaltenden kodierten Daten zu dekodieren,
wobei die Wiedergabewartezeit durch Addieren der Dekodierzeit zu der Datenauslesezeit arithmetisch ermittelt wird.
die Bewertungseinrichtung als Wiedergabewartezeit die Dekodierzeit arithmetisch ermittelt, die benötigt wird, um die kodierte Dateneinheit, die die Editierposition enthält, bis zu den die Editierposition enthaltenden kodierten Daten zu dekodieren,
wobei die Wiedergabewartezeit durch Addieren der Dekodierzeit zu der Datenauslesezeit arithmetisch ermittelt wird.
7. Editiergerät nach Anspruch 1, das ferner aufweist:
eine Festlegungseinrichtung zum Festlegen der Editierposition und
eine Aktualisierungseinrichtung zum Aktualisieren eines Scripts für die Steuerung der auf dem Aufzeichnungsmedium aufgezeichneten kodierten Daten nach Maßgabe der durch die Festlegungseinrichtung festgelegten Editierposition,
wobei das Script in dem Speichermedium in einer korrespondierenden Relation zu den ko dierten Daten gespeichert ist.
eine Festlegungseinrichtung zum Festlegen der Editierposition und
eine Aktualisierungseinrichtung zum Aktualisieren eines Scripts für die Steuerung der auf dem Aufzeichnungsmedium aufgezeichneten kodierten Daten nach Maßgabe der durch die Festlegungseinrichtung festgelegten Editierposition,
wobei das Script in dem Speichermedium in einer korrespondierenden Relation zu den ko dierten Daten gespeichert ist.
8. Editiergerät nach Anspruch 7, bei dem
in dem Aufzeichnungsmedium eine Mehrzahl von kodierten Daten gespeichert wird,
und das Editiergerät ferner aufweist:
eine Auswahleinrichtung zum Auswählen eines Exemplars aus der Mehrzahl von kodierten Daten,
eine Dekodiereinrichtung zum Dekodieren der von der Auswahleinrichtung ausgewählten kodierten Daten und zum Ausgeben der resultierenden dekodierten Daten und
eine Ausgabeeinrichtung zum Ausgeben der dekodierten Daten in einer vorbestimmten Einheit,
wobei die Aktualisierungseinrichtung die letzte Einheit in dem Script aufzeichnet, wenn die ersten kodierten Daten in der vorbestimmten Einheit, die durch das Teilen der kodierten Daten auf der Basis der Editierposition gewonnen werden sollen, sowie die Kopfeinheit der auf die er sten kodierten Daten folgenden zweiten kodierten Daten von der Ausgabeeinrichtung ausgege ben werden,
wobei die Auswahleinrichtung so betrieben werden kann, daß sie von den ersten kodierten Daten und den zweiten kodierten Daten eine auswählt,
und wobei die Dekodiereinrichtung und die Auswahleinrichtung so betrieben werden kön nen, daß sie von den dem Script entsprechend auswählten ersten kodierten Daten und den zweiten kodierten Daten nur eine ausgeben.
in dem Aufzeichnungsmedium eine Mehrzahl von kodierten Daten gespeichert wird,
und das Editiergerät ferner aufweist:
eine Auswahleinrichtung zum Auswählen eines Exemplars aus der Mehrzahl von kodierten Daten,
eine Dekodiereinrichtung zum Dekodieren der von der Auswahleinrichtung ausgewählten kodierten Daten und zum Ausgeben der resultierenden dekodierten Daten und
eine Ausgabeeinrichtung zum Ausgeben der dekodierten Daten in einer vorbestimmten Einheit,
wobei die Aktualisierungseinrichtung die letzte Einheit in dem Script aufzeichnet, wenn die ersten kodierten Daten in der vorbestimmten Einheit, die durch das Teilen der kodierten Daten auf der Basis der Editierposition gewonnen werden sollen, sowie die Kopfeinheit der auf die er sten kodierten Daten folgenden zweiten kodierten Daten von der Ausgabeeinrichtung ausgege ben werden,
wobei die Auswahleinrichtung so betrieben werden kann, daß sie von den ersten kodierten Daten und den zweiten kodierten Daten eine auswählt,
und wobei die Dekodiereinrichtung und die Auswahleinrichtung so betrieben werden kön nen, daß sie von den dem Script entsprechend auswählten ersten kodierten Daten und den zweiten kodierten Daten nur eine ausgeben.
9. Editiergerät zum Editieren von kodierten Bilddaten, die eine Mehrzahl von Bildergruppen
(GOPs) umfassen,
mit einem Dekodierteil zum Dekodieren der kodierten Bilddaten und zum Ausgeben von dekodierten Bilddaten,
mit einem Anzeigeteil zum Anzeigen der von dem Dekodierteil ausgegebenen dekodierten Bilddaten,
mit einem Anzeigesteuerteil zum Steuern des Anzeigeteils in der Weise, daß sie die Anzei ge mit einem Vollbild oder Halbbild an der gewünschten Position der dekodierten Bilddaten, die von dem Anzeigeteil angezeigt werden, nach Maßgabe eines Benutzerbefehls temporär stoppt,
und mit einem Bewertungsteil zum Bewerten des Wiedergabezustands der zweiten Bildda ten, wenn die dekodierten Bilddaten nach Maßgabe des genannten Benutzerbefehls in erste Bilddaten und in zweite Bilddaten geteilt sind,
wobei der Anzeigesteuerteil den Anzeigeteil so steuert, daß das Bewertungsergebnis des Bewertungsteils angezeigt wird.
mit einem Dekodierteil zum Dekodieren der kodierten Bilddaten und zum Ausgeben von dekodierten Bilddaten,
mit einem Anzeigeteil zum Anzeigen der von dem Dekodierteil ausgegebenen dekodierten Bilddaten,
mit einem Anzeigesteuerteil zum Steuern des Anzeigeteils in der Weise, daß sie die Anzei ge mit einem Vollbild oder Halbbild an der gewünschten Position der dekodierten Bilddaten, die von dem Anzeigeteil angezeigt werden, nach Maßgabe eines Benutzerbefehls temporär stoppt,
und mit einem Bewertungsteil zum Bewerten des Wiedergabezustands der zweiten Bildda ten, wenn die dekodierten Bilddaten nach Maßgabe des genannten Benutzerbefehls in erste Bilddaten und in zweite Bilddaten geteilt sind,
wobei der Anzeigesteuerteil den Anzeigeteil so steuert, daß das Bewertungsergebnis des Bewertungsteils angezeigt wird.
10. Editiergerät nach Anspruch 9, bei dem der Bewertungsteil
auf Paketdaten zugreift, die eine Bildergruppe enthalten, welche einer gewünschten Positi on der dekodierten Bilddaten entspricht, um die Paketdaten auszulesen,
die ausgelesenen Paketdaten analysiert,
die der gewünschten Position entsprechende Position in der Bildergruppe nach Maßgabe des Ergebnisses der Analyse detektiert und
die Datenauslesezeit auf der Basis der Position der Bildergruppe arithmetisch ermittelt.
auf Paketdaten zugreift, die eine Bildergruppe enthalten, welche einer gewünschten Positi on der dekodierten Bilddaten entspricht, um die Paketdaten auszulesen,
die ausgelesenen Paketdaten analysiert,
die der gewünschten Position entsprechende Position in der Bildergruppe nach Maßgabe des Ergebnisses der Analyse detektiert und
die Datenauslesezeit auf der Basis der Position der Bildergruppe arithmetisch ermittelt.
11. Editiergerät nach Anspruch 10, bei dem der Bewertungsteil
die kodierten Daten detektiert, die der gewünschten Position in der Bildergruppe entspre chen,
die Bilddaten analysiert, um die der Dekodierzeit der kodierten Bilddaten entsprechende Da tendekodierzeit arithmetisch zu ermitteln und
die Datenauslesezeit und die Datendekodierzeit addiert, um die Wiedergabewartezeit arith metisch zu ermitteln.
die kodierten Daten detektiert, die der gewünschten Position in der Bildergruppe entspre chen,
die Bilddaten analysiert, um die der Dekodierzeit der kodierten Bilddaten entsprechende Da tendekodierzeit arithmetisch zu ermitteln und
die Datenauslesezeit und die Datendekodierzeit addiert, um die Wiedergabewartezeit arith metisch zu ermitteln.
12. Editiergerät nach Anspruch 9, ferner mit einem Ausleseteil zum Auslesen von Daten von ei
ner Platte, auf der die kodierten Daten aufgezeichnet sind.
13. Editiergerät nach Anspruch 12, bei dem die Platte eine optische Platte ist
mit ersten Spuren, die eine gewobbelte Spur und eine nicht gewobbelte Spur aufweisen, die jeweils entweder durch ein Land oder eine Rille implementiert sind, wobei eine gewobbelte Spur eine Spur ist, deren beiden Seitenflächen gewobbelt sind, während eine nicht gewobbelte Spur eine Spur ist, die keine gewobbelte Seitenfläche besitzt,
sowie mit zweiten Spuren, die jeweils zwischen den ersten Spuren eingefaßt sind und zum Aufzeichnen von Daten benutzt werden,
wobei dann, wenn die erste Spur durch eine Rille implementiert ist, die zweite Spur durch ein Land implementiert ist, und wenn die erste Spur durch ein Land implementiert ist, die zweite Spur durch eine Rille implementiert ist.
mit ersten Spuren, die eine gewobbelte Spur und eine nicht gewobbelte Spur aufweisen, die jeweils entweder durch ein Land oder eine Rille implementiert sind, wobei eine gewobbelte Spur eine Spur ist, deren beiden Seitenflächen gewobbelt sind, während eine nicht gewobbelte Spur eine Spur ist, die keine gewobbelte Seitenfläche besitzt,
sowie mit zweiten Spuren, die jeweils zwischen den ersten Spuren eingefaßt sind und zum Aufzeichnen von Daten benutzt werden,
wobei dann, wenn die erste Spur durch eine Rille implementiert ist, die zweite Spur durch ein Land implementiert ist, und wenn die erste Spur durch ein Land implementiert ist, die zweite Spur durch eine Rille implementiert ist.
14. Editiergerät nach Anspruch 13, ferner mit
einem Bildaufnahmeteil zum fotoelektrischen Umwandeln des von einem Aufnahmegegen stand reflektierten Lichts in Bilddaten,
einem Komprimiererteil zum Komprimieren der Bilddaten in kodierte Bilddaten nach dem MPEG-System und
einem Aufzeichnungsteil zum Aufzeichnen der kodierten Bilddaten auf der Platte.
einem Bildaufnahmeteil zum fotoelektrischen Umwandeln des von einem Aufnahmegegen stand reflektierten Lichts in Bilddaten,
einem Komprimiererteil zum Komprimieren der Bilddaten in kodierte Bilddaten nach dem MPEG-System und
einem Aufzeichnungsteil zum Aufzeichnen der kodierten Bilddaten auf der Platte.
15. Editiergerät nach Anspruch 12, bei kodierte Audiodaten auf der Platte aufgezeichnet werden.
16. Verfahren zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem
Speichermedium gespeichert werden sollen,
mit den Verfahrensschritten:
Festlegen einer Editierposition für die kodierten Daten,
Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festle gungseinrichtung festgelegten Editierposition aus wiedergegeben werden, und Hinweisen des Benutzers auf das Bewertungsergebnis.
Festlegen einer Editierposition für die kodierten Daten,
Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festle gungseinrichtung festgelegten Editierposition aus wiedergegeben werden, und Hinweisen des Benutzers auf das Bewertungsergebnis.
17. Verfahren zum Editieren von kodierten Bilddaten mit einer Mehrzahl von Bildergruppen,
mit den Verfahrensschritten:
Dekodieren der kodierten Bilddaten und Ausgeben der dekodierten Bilddaten,
Anzeigen der ausgegebenen dekodierten Bilddaten auf einem Anzeigeteil,
temporäres Stoppen der Anzeige mit einem Vollbild oder Halbbild der an einer gewünschten Position angezeigten dekodierten Bilddaten nach Maßgabe eines Benutzerbefehls,
wenn die dekodierten Bilddaten an der gewünschten Position in ersten Bilddaten und zwei te Bilddaten geteilt werden, Bewerten des Wiedergabezustands der zweiten Bilddaten und
Anzeigen des Bewertungsergebnisses auf dem Anzeigeteil.
Dekodieren der kodierten Bilddaten und Ausgeben der dekodierten Bilddaten,
Anzeigen der ausgegebenen dekodierten Bilddaten auf einem Anzeigeteil,
temporäres Stoppen der Anzeige mit einem Vollbild oder Halbbild der an einer gewünschten Position angezeigten dekodierten Bilddaten nach Maßgabe eines Benutzerbefehls,
wenn die dekodierten Bilddaten an der gewünschten Position in ersten Bilddaten und zwei te Bilddaten geteilt werden, Bewerten des Wiedergabezustands der zweiten Bilddaten und
Anzeigen des Bewertungsergebnisses auf dem Anzeigeteil.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000090721A JP4348821B2 (ja) | 2000-03-27 | 2000-03-27 | 編集装置、編集方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE10115084A1 true DE10115084A1 (de) | 2001-10-04 |
Family
ID=18606292
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE10115084A Withdrawn DE10115084A1 (de) | 2000-03-27 | 2001-03-27 | Editiergerät und Editierverfahren |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US7236684B2 (de) |
| JP (1) | JP4348821B2 (de) |
| DE (1) | DE10115084A1 (de) |
| GB (1) | GB2364428B (de) |
Families Citing this family (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3795382B2 (ja) * | 2001-11-21 | 2006-07-12 | 松下電器産業株式会社 | 情報記録装置および方法ならびに情報再生装置および方法 |
| KR100584176B1 (ko) * | 2002-02-22 | 2006-05-26 | 엘지전자 주식회사 | 재기록 가능 고밀도 기록매체의 정지영상 관리방법 |
| KR100467603B1 (ko) * | 2002-08-08 | 2005-01-24 | 삼성전자주식회사 | 태스크 기반의 비선형 하이퍼비디오 편집방법 및 그 장치 |
| US7557838B2 (en) * | 2002-11-15 | 2009-07-07 | Sony Corporation | Imaging method and imaging apparatus |
| EP1435619A3 (de) * | 2003-01-02 | 2007-07-18 | Samsung Electronics Co., Ltd. | Multimediagerät mit Diavorführung und zugehörigen Tonsignalen |
| JP4331488B2 (ja) * | 2003-02-20 | 2009-09-16 | パナソニック株式会社 | 集積回路及びそれを用いた電子機器 |
| JP2004355794A (ja) * | 2003-05-07 | 2004-12-16 | Matsushita Electric Ind Co Ltd | 記録再生装置及び記録再生方法 |
| CN1784745A (zh) * | 2003-05-07 | 2006-06-07 | 松下电器产业株式会社 | 记录再生装置和记录再生方法 |
| JP2005142853A (ja) * | 2003-11-06 | 2005-06-02 | Toshiba Corp | 映像編集装置及び映像編集方法 |
| JP4314980B2 (ja) * | 2003-12-01 | 2009-08-19 | ソニー株式会社 | 撮像装置 |
| KR100585668B1 (ko) * | 2004-03-22 | 2006-06-07 | 엘지전자 주식회사 | 가상 미디어파일 시스템을 이용한 멀티미디어 편집 방법및 장치와 멀티미디어 파일 구조 |
| US20060034536A1 (en) * | 2004-06-23 | 2006-02-16 | Ogren Wayne E | Systems and methods relating to magnitude enhancement analysis suitable for high bit level displays on low bit level systems, determining the material thickness, and 3D visualization of color space dimensions |
| JP2006148731A (ja) * | 2004-11-24 | 2006-06-08 | Sony Corp | 記録装置および方法、再生装置および方法、プログラム、並びに記録媒体 |
| JP2006186420A (ja) * | 2004-12-24 | 2006-07-13 | Canon Inc | 撮像装置及び撮像装置の制御方法 |
| JP2006191301A (ja) * | 2005-01-05 | 2006-07-20 | Toshiba Corp | デジタルカメラ及び電子機器 |
| JP2006191300A (ja) * | 2005-01-05 | 2006-07-20 | Toshiba Corp | デジタルカメラ及び電子機器 |
| JP4636887B2 (ja) * | 2005-01-11 | 2011-02-23 | キヤノン株式会社 | 光学機器 |
| JP4471882B2 (ja) * | 2005-03-31 | 2010-06-02 | 三洋電機株式会社 | 表示装置および表示方法 |
| EP1718065A1 (de) * | 2005-04-30 | 2006-11-02 | STMicroelectronics (Research & Development) Limited | Verfahren und Vorrichtung zur Bilddatenverarbeitung |
| KR100736076B1 (ko) * | 2005-10-24 | 2007-07-06 | 삼성전자주식회사 | 화면 캡처 기능을 제공하는 휴대용 장치 및 그 방법 |
| JP4285512B2 (ja) * | 2006-07-31 | 2009-06-24 | ソニー株式会社 | 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法 |
| JP4838659B2 (ja) * | 2006-08-01 | 2011-12-14 | キヤノン株式会社 | 再生装置及び再生装置の制御方法 |
| JP4659714B2 (ja) * | 2006-09-29 | 2011-03-30 | ソニー株式会社 | 記録再生装置及びコンテンツ管理方法 |
| JP4967572B2 (ja) * | 2006-09-29 | 2012-07-04 | ソニー株式会社 | 記録再生装置及び記録再生方法 |
| JP4946426B2 (ja) * | 2006-12-27 | 2012-06-06 | 株式会社日立製作所 | 記録方法 |
| JP4807250B2 (ja) * | 2006-12-27 | 2011-11-02 | 株式会社日立製作所 | 記録方法 |
| US20090251311A1 (en) * | 2008-04-06 | 2009-10-08 | Smith Patrick W | Systems And Methods For Cooperative Stimulus Control |
| US8837901B2 (en) * | 2008-04-06 | 2014-09-16 | Taser International, Inc. | Systems and methods for a recorder user interface |
| US10354689B2 (en) | 2008-04-06 | 2019-07-16 | Taser International, Inc. | Systems and methods for event recorder logging |
| JP5208057B2 (ja) * | 2009-06-16 | 2013-06-12 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
| KR20120058763A (ko) * | 2010-11-30 | 2012-06-08 | 삼성전자주식회사 | 영상 장치에서 영상 데이터를 송신하기 위한 장치 및 방법 |
| JP2018093412A (ja) * | 2016-12-06 | 2018-06-14 | 株式会社日立製作所 | 演算装置、送信プログラム、送信方法 |
| JP6898667B2 (ja) * | 2019-06-24 | 2021-07-07 | 株式会社インタラクティブソリューションズ | プレゼンテーションマネジメントシステム |
| US12340299B2 (en) * | 2021-03-05 | 2025-06-24 | Qualcomm Incorporated | Sparsity-based neural network mapping to computing units in a system-on-chip |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0764951B1 (de) * | 1995-04-08 | 2002-09-18 | Sony Corporation | Schnittsystem |
| JP3277787B2 (ja) * | 1995-12-21 | 2002-04-22 | ソニー株式会社 | 音声・映像データ記録・再生装置 |
| JP3325464B2 (ja) * | 1996-07-18 | 2002-09-17 | 沖電気工業株式会社 | 動画像処理装置 |
| US6064793A (en) * | 1996-09-18 | 2000-05-16 | Canon Kabushiki Kaisha | Reproducing apparatus having editing function |
| DE69832544T2 (de) | 1997-02-19 | 2006-08-10 | Canon K.K. | Anordnung und Verfahren zur Bildbearbeitung und Medium mit darauf gespeicherten Programmen |
| GB2328550B (en) | 1997-08-01 | 2000-02-09 | Discreet Logic Inc | Editing image data |
| JPH1169301A (ja) * | 1997-08-08 | 1999-03-09 | Sony Corp | 復号方法及び復号再生装置、並びに記録媒体 |
| GB2336022A (en) | 1998-04-03 | 1999-10-06 | Discreet Logic Inc | Edit processing audio-visual data |
| JP4207099B2 (ja) | 1998-09-29 | 2009-01-14 | ソニー株式会社 | 画像編集装置及びその方法 |
-
2000
- 2000-03-27 JP JP2000090721A patent/JP4348821B2/ja not_active Expired - Fee Related
-
2001
- 2001-03-26 GB GB0107534A patent/GB2364428B/en not_active Expired - Fee Related
- 2001-03-26 US US09/817,504 patent/US7236684B2/en not_active Expired - Lifetime
- 2001-03-27 DE DE10115084A patent/DE10115084A1/de not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| US20020012522A1 (en) | 2002-01-31 |
| JP4348821B2 (ja) | 2009-10-21 |
| GB2364428B (en) | 2004-01-21 |
| GB0107534D0 (en) | 2001-05-16 |
| US7236684B2 (en) | 2007-06-26 |
| JP2001275083A (ja) | 2001-10-05 |
| GB2364428A (en) | 2002-01-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE10115084A1 (de) | Editiergerät und Editierverfahren | |
| DE69621982T2 (de) | Aufnahmeträger und Wiedergabevorrichtung für Playbackdaten | |
| DE60023560T2 (de) | Multimedia-fotoalben | |
| DE69603769T2 (de) | Aufzeichnungsmedium, Datenaufzeichnungsverfahren und -vorrichtung | |
| DE60002732T2 (de) | Digitales videoverarbeitungs- und speichersystem für video-, audio- und zusatzdaten | |
| DE69632894T2 (de) | Informationsaufzeichnungsmedium und -wiedergabegerät | |
| DE69914111T2 (de) | Informationsaufzeichnungsmedium, Vorrichtung und Verfahren zur Wiedergabe von Daten davon | |
| DE69623756T2 (de) | Kombiniertes editier-und aufzeichnungssystem für digitale,bewegte bilder | |
| DE69812258T2 (de) | Videodatenschnittgerät, optische Platte zur Verwendung als Aufzeichnungsmedium dafür und rechnerlesbares Aufzeichnungsmedium | |
| DE60007876T2 (de) | Digitales videoverarbeitungs- und schnittstellensystem für video-, audio- und zusatzdaten | |
| DE60000052T2 (de) | Optische Platte, Aufzeichnungs- und Wiedergabeanordnung | |
| DE69805256T2 (de) | Videodatenschnittgerät und rechnerlesbares Aufzeichnungsmedium zur Speicherung eines Schnittprogramms | |
| US6052508A (en) | User interface for managing track assignment for portable digital moving picture recording and editing system | |
| DE60009337T2 (de) | Verfahren zur bearbeitung von quellenvideomaterial für zeitlupe und schnellwiedergabe auf dem aufnahmemedium | |
| DE60032105T2 (de) | Reihenfolge von titeln in einer echtzeit dvd videoaufzeichnung | |
| DE60020872T2 (de) | Bildgenauer schnitt ohne dekodierung und neukodierung eines mpeg-bitstroms für einschreibare dvd | |
| JP3951778B2 (ja) | 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,プログラム,映像コンテンツ編集支援方法 | |
| DE60130104T2 (de) | System und verfahren zur sofortigen wiederholung mit mehreren perspektiven | |
| JP4269465B2 (ja) | 画像表示システム、及び画像表示方法 | |
| JP2004180279A (ja) | コンテンツ編集支援システム,映像処理装置,再生装置,編集装置,コンピュータプログラム,およびコンテンツ処理方法 | |
| JP4178679B2 (ja) | 記録再生装置、画像表示方法 | |
| JP2012147288A (ja) | 放送システム | |
| JP4820485B2 (ja) | 画像処理装置 | |
| JP2001069387A (ja) | 記録装置、記録方法 | |
| JP4110817B2 (ja) | 映像コンテンツ編集支援システム,記録再生装置,編集者端末装置,コンピュータプログラム,記憶媒体,映像コンテンツ編集支援方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8139 | Disposal/non-payment of the annual fee |