[go: up one dir, main page]

DE10115084A1 - Editiergerät und Editierverfahren - Google Patents

Editiergerät und Editierverfahren

Info

Publication number
DE10115084A1
DE10115084A1 DE10115084A DE10115084A DE10115084A1 DE 10115084 A1 DE10115084 A1 DE 10115084A1 DE 10115084 A DE10115084 A DE 10115084A DE 10115084 A DE10115084 A DE 10115084A DE 10115084 A1 DE10115084 A1 DE 10115084A1
Authority
DE
Germany
Prior art keywords
data
editing
image
playback
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10115084A
Other languages
English (en)
Inventor
Takashi Kawakami
Manabu Kii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE10115084A1 publication Critical patent/DE10115084A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2525Magneto-optical [MO] discs
    • G11B2220/2529Mini-discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Ein Editiergerät zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem Speichermedium gespeichert werden sollen, besitzt einen Festlegungsteil, einen Bewertungsteil und einen Hinweisteil. Der Festlegungsteil legt eine Editierposition für die kodierten Daten fest. Der Bewertungsteil bewertet den Wiedergabezustand, wenn die kodierten Daten von der durch den Festlegungsteil festgelegten Editierposition aus wiedergegeben werden. Der Hinweisteil weist den Benutzer des Editiergeräts auf das Ergebnis der Bewertung durch den Bewertungsteil hin.

Description

Die Erfindung betrifft ein Editiergerät und ein Editierverfahren, die z. B. die Möglichkeit bieten, kodierte Daten durch Teilen der Daten zu editieren.
Digitale Videogeräte, mit denen Bewegtbilddaten aufgezeichnet und wiedergegeben und die aufgezeichneten Bewegtbilddaten editiert werden können, z. B. digitale Videokameras, sind sehr populär geworden.
Da Bewegtbilddaten große Datenmengen umfassen, ist es üblich geworden, solche Bewegtbild­ daten für die Aufzeichnung auf einem Aufzeichnungsmedium einer Kompressionskodierung zu unterziehen. So ist z. B. das MPEG-Format als Format für eine solche Kompressionskodierung von Bilddaten allgemein bekannt.
Eine der möglichen Editieroperationen für Bilddaten in einem digitalen Videogerät besteht darin, daß eine Datei von Bewegtbilddaten z. B. in mehrere Dateien unterteilt.
Als Verfahren für das Teilungseditieren von Bewegtbilddateien wird vorgeschlagen, die auf einem Aufzeichnungsmedium aufgezeichneten Bilddaten nicht tatsächlich direkt zu verarbeiten sondern, z. B. mit einer als Script bezeichneten Beschreibungsinformation für die Wiedergabe- Steuerung, eine Teilungsposition für die Bilddaten zu beschreiben. Das digitale Videogerät er­ kennt die in dem Script beschriebene Teilungsposition und führt die Wiedergabe in der Weise aus, daß auch eine durch die Teilungseditierung gewonnene Datei als Datei behandelt wird.
Als einer der Fälle, bei denen das Teilungseditieren einer Datei in der oben beschriebenen Weise nach einem Script vorgenommen wird, wird hier als Beispiel der Fall betrachtet, daß Bewegtbild­ daten nach dem MPEG-System (Motion Picture Experts Group) komprimiert und kodiert werden. Wenn in diesem Fall die Wiedergabe von einer Bewegtbilddatendatei aus gestartet wird, die tat­ sächlich durch Teilungseditieren gewonnen wurde, vergeht mitunter mehr Zeit als üblich, bis die Bewegtbilddatei dekodiert und dann wiedergegeben und als Bild ausgegeben wird.
Der Beginn der Wiedergabe und die Ausgabe wird z. B. aus folgenden Gründen verzögert:
Für Daten, die nach dem MPEG-System komprimiert und dekodiert werden, ist bekanntlich als Dekodierdateneinheit eine Bildergruppe (GOP = Group of Picture) definiert. Vollbilddaten als GOP werden durch Prädiktionskodierung dekodiert, die nach einer vorbestimmten Ordnung er­ folgt, wobei Vorwärts- oder Vorwärts- und Rückwärts-Vollbilddaten benutzt werden.
Während die Vollbilddaten in der GOP nacheinander dekodiert werden, benötigt man deshalb je nach der Position der Vollbilddaten in einer GOP und in Abhängigkeit von der Teilungsfestle­ gungsposition beträchtliche Zeit, bis das der Teilungsfestlegungsposition entsprechende Vollbild in der GOP endlich dekodiert ist und mit der Wiedergabe und Ausgabe begonnen wird.
Bei der Aufzeichnung von Bilddaten auf einem Aufzeichnungsmedium, benutzt man ein an das Aufzeichnungsmedium angepaßtes Aufzeichnungsformat. Wenn jedoch beispielsweise ein Pa­ ket als Aufzeichnungsformat definiert ist, das mehr als eine GOP enthält, benötigt man ebenfalls in Abhängigkeit von der Teilungsfestlegungsposition in dem Paket, beträchtliche Zeit, bis die Teilungsfestlegungsposition eingelesen ist.
Der normale Benutzer weiß jedoch nicht, daß dieses Phänomen, d. h. daß mehr Zeit als üblich benötigt wird, um die Wiedergabe und Ausgabe einer durch Teilungseditierung gewonnenen Da­ tei von Bewegtbilddaten zu starten, auf das oben beschriebene Format zurückzuführen ist. Wenn man nun dieses Phänomen einfach so läßt, wie es ist, empfindet der Benutzer Streß, und die Zuverlässigkeit des Geräts wird beeinträchtigt.
Es ist ein Ziel der vorliegenden Erfindung, ein Editiergerät und ein Editierverfahren anzugeben, mit denen die Zuverlässigkeit verbessert werden kann, indem der Benutzerstreß soweit wie möglich abgebaut wird, der dadurch verursacht wird, daß dort, wo eine Teilungseditierung von kodierten Daten, z. B. von Bewegtbildern, möglich ist, viel Zeit vergeht, bis eine durch das Tei­ lungseditieren gewonnene Datei wiedergegeben und ausgegeben wird.
Nach einem Aspekt der Erfindung wird dieses Ziel erreicht durch ein Editiergerät mit den Merk­ malen des Anspruchs 1.
Wenn in dem Editiergerät eine Teilungseditierung von Daten, die in vorbestimmten Einheiten kodiert sind, durchgeführt werden soll, wird Wiedergabezustand bewertet und das Ergebnis der Bewertung dem Benutzer zugeführt. So kann der Benutzer wenigstens erfassen und erkennen, welcher Wiedergabezustand als Ergebnis der von ihm selbst durchgeführten Teilungseditierung erreicht ist.
Bei einer Editieroperation, bei der eine Teilungsposition der Daten, z. B. von Bilddaten, die bei­ spielsweise nach dem MPEG-System komprimiert und kodiert sind, festgelegt wird, wird der Wiedergabezustand unter Berücksichtigung der Wiedergabe der Daten von der Teilungsposition aus bewertet, und das Ergebnis dieser Bewertung wird dem Benutzer zugeführt.
Deshalb kann der Benutzer zumindest den Wiedergabezustand im voraus aus dem ihm zuge­ führten Bewertungsergebnis erkennen und erfassen, der durch die von ihm selbst vorgenom­ mene Editieroperation verursacht wird. Wenn dann die Wiedergabe tatsächlich durchgeführt wird, sind der Streß und das Unbehagen für den Benutzer geringer. Der Benutzer kann die Tei­ lungsposition z. B. so festlegen, daß ein möglichst gutes Bewertungsergebnis gewonnen wird. Auf diese Weise kann der Benutzer mit dem Editiergerät z. B. mühelos ein besseres Editierer­ gebnis erreichen, und die Zuverlässigkeit und die Bequemlichkeit bei der Benutzung können verbessert werden.
Die Bewertungseinrichtung kann als Bewertungsergebnis eine Wiedergabewartezeit ausgeben, die erforderlich ist, um die Wiedergabe nach einem Befehl, die kodierten Daten von der Editier­ position aus wiederzugeben und auszugeben, zu starten.
So wird das an den Benutzer gelieferte Bewertungsergebnis als Wiedergabewartezeit ausgege­ ben, d. h. als die Zeit, die vergeht, bis die Wiedergabe und die Ausgabe der Daten von der Tei­ lungsposition aus gestartet wird. Wenn es sich um kodierte Daten handelt, kann die bis zur Wie­ dergabe und Ausgabe der Daten erforderliche Zeit in Abhängigkeit von der Teilungsposition vari­ ieren. Die Wiedergabewartezeit stellt für den Benutzer eine Wartezeit dar. Deshalb ist die Dar­ stellung der Wiedergabewartezeit eine nützliche Information für den Benutzer, die die Bequem­ lichkeit bei der Benutzung weiter verbessert.
Die Bewertungseinrichtung kann den Wiedergabekontinuitätsgrad ausgeben, der für Kontinuität der Wiedergabe repräsentativ ist und auf der auszugebenden Wiedergabewartezeit basiert, wo­ bei die Hinweiseinrichtung veranlaßt, daß der von der Bewertungseinrichtung ausgegebene Wiedergabekontinuitätsgrad auf einem Anzeigeteil angezeigt wird.
Wenn als eine Art der Darstellung des Bewertungsergebnisses die Wiedergabewartezeit in Form eines Verhältnisses dargestellt wird, kann der Benutzer sie leichter erfassen als dann, wenn sie als reine Zeit dargestellt wird.
Die Bewertungseinrichtung kann als Wiedergabewartezeit zumindest die Datenauslesezeit arith­ metisch ermitteln, die erforderlich ist, um Paketdaten, die eine Mehrzahl von kodierten Datenein­ heiten enthalten, vom Anfang der Paketdaten bis zu derjenigen der kodierten Dateneinheiten auszulesen, die die Editierposition enthält, oder als Wiedergabewartezeit die Dekodierzeit arith­ metisch ermittel, die benötigt wird, um die kodierte Dateneinheit, die die Editierposition enthält, bis zu den die Editierposition enthaltenden kodierten Daten zu dekodieren, wobei die Wiederga­ bewartezeit durch Addieren der Dekodierzeit zu der Datenauslesezeit arithmetisch ermittelt wird. Dies ermöglicht ein genaueres und zuverlässigeres Bewertungsergebnis.
Nach einem anderen Aspekt der Erfindung ist ein Editiergerät mit den Merkmalen von Anspruch 9 vorgesehen.
Bei diesem Editiergerät kann der Benutzer für die gewünschte Position als Teilungsposition eine Festlegung treffen, mit der die aktuell gesetzte Teilungsposition verändert wird. Auf diese Weise kann der Benutzer die Teilungsposition ändern, wobei er sich auf das Bewertungsergebnis be­ zieht, das ihm über die Anzeige auf der Anzeigeeinrichtung vermittelt wird. Dadurch wird die Handhabbarkeit beim Teilungseditieren weiter verbessert. Da das Bewertungsergebnis über die Anzeige vermittelt wird, kann der Benutzer das Bewertungsergebnis visuell erfassen.
Die oben beschriebenen sowie weitere Ziele, Merkmale und Vorteile der Erfindung werden durch die folgende Beschreibung und die anliegenden Ansprüche weiter verdeutlicht, die auf die anliegenden Zeichnungen Bezug nehmen, in denen gleiche Teile oder Elemente mit den glei­ chen Bezugszeichen versehen sind.
Fig. 1 zeigt eine schematische Ansicht der Spurstruktur einer Platte für eine Videokamera, bei der die Erfindung angewendet wird,
Fig. 2A und 2B zeigen einen Schnitt bzw. eine Aufsicht eines Spurabschnitts der Platte von Fig. 1 in größerem Maßstab,
Fig. 3 zeigt eine Tabelle der Spezifikationen der Platte von Fig. 1,
Fig. 4 zeigt ein Blockschaltbild des inneren Aufbaus der Videokamera, bei der die vorliegende Erfindung angewendet ist,
Fig. 5 zeigt ein Blockschaltbild des inneren Aufbaus eines Mediumtreiberteils der Videoka­ mera,
Fig. 6A und 6B zeigen eine Seitenansicht bzw. eine Aufsicht der Videokamera,
Fig. 7A und 7B zeigen eine Frontansicht bzw. eine Rückansicht der Videokamera,
Fig. 8A und 8B zeigen perspektivische Ansichten, die die Bewegungen des beweglichen An­ zeigepanels der Videokamera verdeutlichen,
Fig. 9 zeigt ein Beispiel für die Datei/Ordnerverwaltung der Platte durch die Videokamera in einer schematischen Darstellung,
Fig. 10 zeigt ein Konzept einer Datenstruktur der für die Kamera bestimmten Platte in einer schematischen Darstellung,
Fig. 11 zeigt ein Konzept einer Datenstruktur der für die Kamera bestimmten Platte in einer Beziehung zu den physikalischen Bereichen der Platte in einer schematischen Darstel­ lung,
Fig. 12A und 12B zeigen schematische Darstellungen der Struktur eines AV-Pakets,
Fig. 13 zeigt ein Beispiel für eine Darstellungsform eines Bedienungsbildschirms (Thumbnail Display) der Videokamera in einer schematischen Darstellung,
Fig. 14 zeigt ein Beispiel für die Betätigung der Wiedergabemenütasten in einer schemati­ schen Darstellung,
Fig. 15 zeigt eine Prozedur zur Einstellung eines Spurteilungsmodus mittels eines Anzeige­ formulars auf einem Anzeigepanel in einer schematischen Darstellung,
Fig. 16A bis 16D zeigen eine Prozedur im Spurteilungsmodus mittels eines Anzeigeformulars auf einem Anzeigepanel in einer schematischen Darstellung,
Fig. 17 zeigt ein Flußdiagramm eines Wiedergabeprozesses für eine durch Teilung editierte Datei,
Fig. 18 zeigt eine schematische Ansicht, in der die Berechnung eines bei der Wiedergabe de­ tektierten Byte-Offsets veranschaulicht wird,
Fig. 19 zeigt eine schematische Ansicht, in der die Daten-Einlesezeit veranschaulicht wird,
Fig. 20 zeigt eine schematische Ansicht eines Dekodierprozesses für eine GOP des MPEG- Systems,
Fig. 21A bis 21C zeigen schematische Ansichten, in denen ein Beispiel für den Unterschied in der GOP-Datenanalysezeit entsprechend einer Teilungsfestlegungsposition veran­ schaulicht wird,
Fig. 22 zeigt ein Flußdiagramm der Verarbeitung für die überlappende Anzeige des Glättungs­ grads, wenn ein Pausenbildschirm angezeigt wird,
Fig. 23 zeigt ein Flußdiagramm der Verarbeitung zur Berechnung der Wiedergabewartezeit.
Das im folgenden beschriebene Editiergerät nach einem bevorzugten Ausführungsbeispiel der Erfindung ist in eine tragbare Videokamera eingebaut, wobei der Kamerateil und der Aufzeich­ nungs- und Wiedergabeteil, der ein Bild (ein Standbild oder ein Bewegtbild), ferner Ton usw. aufzeichnen und wiedergeben kann, miteinander kombiniert sind. Der in die Videokamera des Ausführungsbeispiels eingebaute Aufzeichnungs- und Wiedergabeteil benutzt eine Konstruktion, bei der für die Datenaufzeichnung und Wiedergabe eine sogenannte Minidisc benutzt wird, die als eine Art von magnetooptischer Platte bekannt ist.
Die Beschreibung geht in der folgenden Reihenfolge vor.
  • 1. Plattenformat
  • 2. Äußeres Erscheinungsbild der Videokamera
  • 3. Innerer Aufbau der Videokamera
  • 4. Aufbau des Mediumtreiberteils
  • 5. Beispiel für die Struktur der für die Videokamera geeigneten Platte
  • 6. Prozeß für die Thumbnail-Bilderzeugung
  • 7. Script
  • 8. Anzeige des Bedienungsbildschirms
  • 9. Prozeß der Dateiaufteilung
    • 1. 9-1. Editieren mit Dateiunterteilung
    • 2. 9-2. Wiedergabeverarbeitung
    • 3. 9-3. Wiedergabewartezeit
    • 4. 9-4. Teilungseditieren
1. Plattenformat
Der Aufzeichnungs- und Wiedergabegeräteteil, der in die Videokamera nach dem vorliegenden Ausführungsbeispiel eingebaut ist, eignet sich für ein als MD-Daten bezeichnetes Format, nach dem Daten auf einer Minidisc (magneto-optische Platte) aufgezeichnet und von dieser wieder­ gegeben werden. Als MD-Datenformat wurden zwei unterschiedliche Formate entwickelt, die als MD-DATA1 und MD-DATA2 bezeichnet werden. Die Videokamera nach dem vorliegenden Ausführungsbeispiel führt die Aufzeichnung und die Wiedergabe nach dem MD-DATA2-Format durch, das eine höhere Aufzeichnungsdichte erlaubt als das MD-DATA1-Format. Deshalb wird zunächst das MD-DATA2-Format beschrieben.
Fig. 1, 2A und 2B zeigen ein Ausführungsbeispiel für die Spurstruktur einer Platte im MD-DATA2- Format. Dabei zeigen Fig. 2A und 2B einen Schnitt bzw. eine Aufsicht, die den in Fig. 1 von einer gestrichelten Linie A umschlossenen Teil in größerem Maßstab darstellen.
Wie diese Figuren zeigen, sind auf einer Seite der Platte zwei Arten von Rillen vorbereitend aus­ gebildet, nämlich eine gewobbelte Rille WG, die Wobbelungen (Mäander) aufweist, und eine nicht gewobbelte Rille NWG, bei der kein Wobbeln vorgesehen ist. Die gewobbelte Rille WG und die nicht gewobbelte Rille NWG sind auf der Platte in Form von Doppelspiralen ausgebildet, so daß zwischen ihnen sog. Lands Ld vorhanden sind.
In dem MD-DATA2-Format werden die Lands Ld als Aufzeichnungsspuren (Spuren auf denen Daten aufgezeichnet werden) benutzt. Da die gewobbelte Rille WG und die nicht gewobbelte Rille NWG in der oben beschriebenen Weise ausgebildet sind, gibt es zwei Spuren Tr'A und TR'B, die unabhängig voneinander als Aufzeichnungsspuren in Form von Doppelspiralen (Dop­ pelspiralen) ausgebildet sind.
Die Spur Tr'A ist eine Spur, bei der auf der dem Außenumfang der Platte zugewandten Seite die gewobbelte Rille WG und auf der dem Innenumfang der Platte zugewandten Seite die nicht ge­ wobbelte Spur NWG angeordnet sind.
Die Spur Tr'B ist hingegen eine Spur, bei der die gewobbelte Spur WG auf der dem Innenum­ fang der Platte zugewandten Seite und die nicht gewobbelte Spur NWG auf der dem Außenum­ fang der Platte zugewandten Seite angeordnet sind.
Man kann dies kurz gesagt so betrachten, daß bei der Spur Tr'A Wobbeln nur auf einer Seite, nämlich auf der dem Außenumfang der Platte zugewandten Seite vorgesehen ist, bei der Spur Tr'B hingegen Wobbeln nur auf einer Seite, nämlich auf der dem Innenumfang der Platte zuge­ wandten Seite vorgesehen ist.
Der Spurabstand ist die Entfernung zwischen den Zentren der einander benachbarten Spuren Tr'A und Tr'B, wie dies in Fig. 2B dargestellt ist. Der Spurabstand beträgt hier 0,95 µm.
Das Wobbeln, das in einer Rille, wie der gewobbelten Rille WG ausgebildet wird, wird durch ein Signal erzeugt, das durch das Kodieren von physikalischen Adressen auf der Platte mittels FM- Modulation und Biphase-Modulation gewonnen wird. Deshalb läßt sich bei der Aufzeichnung oder Wiedergabe eine physikalische Adresse auf der Spur durch Demodulation der Wiedergabe­ information extrahieren, die aus dem in der gewobbelten Rille WG vorgesehenen Wobbeln ge­ wonnen wird.
Die Adresseninformation der gewobbelten Rille WG ist den Spuren Tr'A und Tr'B gemeinsam. Die dem Innenumfang zugewandte Spur Tr'A und die dem Außenumfang zugewandte Spur Tr'B haben über die gewobbelte Rille WG die Adresseninformation gemeinsam, die durch das Wob­ beln der gewobbelten Rille WG dargestellt wird.
Ein Adressiersystem, wie es oben beschrieben wurde, wird als Verschachtelungsadressiersy­ stem bezeichnet. Durch Anwendung des Verschachtelungsadressiersystems ist es z. B. möglich, den Spurabstand zu reduzieren, wobei das Übersprechen zwischen benachbarten Wobbelungen unterdrückt wird. Das System, bei dem eine Adresse durch die Ausbildung von Wobbelungen in einer Rille aufgezeichnet wird, wird auch als ADIP-System bezeichnet (ADIP = Adress in Pre­ groove).
Die Identifizierung, welche der Spuren TrA und Tr'B gerade abgetastet wird, die die gleiche Adresseninformation der oben beschriebenen Weise gemeinsam haben, kann folgendermaßen durchgeführt werden.
Es ist z. B. möglich, ein Dreistrahlsystem in der Weise zu benutzen, daß in einem Zustand, in welchem ein Hauptstrahl eine Spur (ein Land Ld) abtastet, die verbleibenden zwei Seitenstrahlen die Spuren abtasten, die auf den entgegengesetzten Seiten der von dem Hauptstrahl abgetaste­ ten Spur liegen.
Fig. 2B zeigt als Beispiel einen Zustand, in dem ein Hauptstrahlpunkt SPm die Spur Tr'A abta­ stet. In diesem Fall tastet von den beiden Seitenstrahlpunkten SPs1 und SPs2 der Seitenstrahl­ punkt SPs1 die der inneren Umfangsseite zugewandte nicht gewobbelte Rille NWG ab, während der Seitenstrahlpunkt SPs2 die der äußeren Umfangsseite zugewandte gewobbelte Rille WG ab­ tastet.
Wenn der Hauptstrahlpunkt SPm hingegen die Spur Tr'B abtastet, tastet der Seitenstrahlpunkt SPs1 die gewobbelte Rille WG ab, während der Seitenstrahlpunkt SPs2 die nicht gewobbelte Rille NWG abtastet. Dieser Zustand ist in der Zeichnungsfigur nicht dargestellt.
Auf diese Weise werden zwischen dem Fall, in welchem der Hauptstrahlpunkt SPm die Spur Tr'A abtastet, und dem Fall, in welchem der Hauptstrahlpunkt SPm die Spur Tr'B abtastet, die von den Seitenstrahlpunkten SPs1 und SPs2 abzutastenden Rillen unvermeidlich zwischen der gewobbelten Rille WG und der nicht gewobbelten Rille NWG vertauscht.
Da die Wellenformen der von Fotodetektoren aus der Reflexion der Seitenstrahlpunkte SPs1 und SPs2 abgeleiteten Detektorsignale sich in Abhängigkeit davon unterscheiden, ob die gewob­ belte Rille WG oder die nicht gewobbelte Rille NWG abgetastet wird, kann identifiziert werden, welche der Spuren Tr'A und Tr'B von dem Hauptstraße abgetastet wird, indem z. B. festgestellt wird, welcher der Seitenstrahlpunkte SPs1 und SPs2 gerade die gewobbelte Rille WG (oder die nicht gewobbelte Rille NWG) abtastet.
Fig. 3 zeigt die wichtigsten Spezifikationen des MD-DATA2-Formats, das die oben beschriebene Spurstruktur besitzt, in einer Gegenüberstellung mit dem MD-DATA1-Format.
Bei dem MD-DATA1-Format beträgt der Spurabstand 1,6 µm und die Spurlänge 0,59 µm/Bit. Die Wellenlänge λ des Lasers ist λ = 780 nm, und die numerische Apertur NA des optischen Kopfes ist NA = 0,45.
Als Aufzeichnungssystem wird das Rillenaufzeichnungssystem verwendet. Das heißt, daß als Spur für die Aufzeichnung und Wiedergabe eine Rille benutzt wird.
Als Adressiersystem wird ein System benutzt, das von einer gewobbelten Rille Gebrauch macht, die dadurch erzeugt wird, daß eine Rille (Spur) in Form einer einzelnen Spirale ausgebildet wird und auf den entgegengesetzten Seiten der Rille Wobbelungen als Adresseninformation ausge­ bildet werden.
Als Modulationssystem für die Datenaufzeichnung wird ein EFM-(8-14)-System benutzt. Als Feh­ lerkorrektursystem wird der ACIRC-Kode (Advanced Cross Interleave Reed-Solomon Kode) be­ nutzt, und für die Datenverschachtelung wird die Verschachtelung vom Faltungstyp angewen­ det. Die Datenredundanz beträgt dementsprechend 46,3%.
Bei dem MD-DATA1-Format wird ein Plattenantriebssystem mit konstanter Lineargeschwindig­ keit (CLV) benutzt, wobei die Lineargeschwindigkeit der CLV 1,2 m/s beträgt.
Die Standarddatenrate bei der Aufzeichnung und Wiedergabe beträgt 133 kB/s, die Aufzeich­ nungskapazität ist 140 MB.
Bei dem MD-DATA2-Format, für das die Videokamera des Ausführungsbeispiels ausgebildet ist, der Spurabstand hingegen 0,95 µm und die Pitlänge 0,39 µm/Bit. Beide Werte sind also kleiner als die entsprechenden Werte für das MD-DATA1-Format. Um diese Pitlänge zu erreichen, wird z. B. die Laserwellenlänge λ auf λ = 650 nm gesetzt und die numerische Apertur NA des opti­ schen Kopfes auf NA = 0,52, so daß der Strahlpunktdurchmesser in der In-Fokus-Position ver­ ringert und das Band des optischen Systems vergrößert wird.
Als Aufzeichnungssystem wird, wie oben anhand von Fig. 1, 2A und 2B beschrieben, das Land- Aufzeichnungssystem benutzt, und als Adressiersystem das Verschachtelungsadressiersystem. Als Modulationssystem für die Datenaufzeichnung wird ein RLL-(1,7)-System (RLL: lauflängenbe­ grenzt) benutzt, das sich für Aufzeichnungen mit hoher Dichte eignet. Als Fehlerkorrektursystem wird das RS-PC-System benutzt. Für die Datenverschachtelung wird Datenverschachtelung mit Blockvervollständigung verwendet. Durch die Anwendung der beschriebenen Systeme kann die Datenredundanz auf 19,7% heruntergedrückt werden.
Auch in dem MD-DATA2-Format wird für das Plattenantriebssystem CLV benutzt, wobei die Li­ neargeschwindigkeit 2,0 m/s und die Standarddatenrate bei der Aufzeichnung und Wiedergabe 589 kB/s beträgt. Dadurch läßt sich eine Aufzeichnungskapazität von 650 MB erreichen, d. h. ei­ ne im Vergleich zu dem MD-DATA1-Format viermal größere Aufzeichnungskapazität.
Bei der Aufzeichnung von Bewegtbildern nach dem MD-DATA2-Format läßt sich eine Spielzeit von 15 bis 17 Minuten erreichen, wenn Kompressionskodierung nach MPEG2 eingesetzt wird, wobei diese Zeit von der Bitrate der kodierten Daten abhängig ist. Wenn nur Tonsignaldaten aufgezeichnet werden und eine Komprimierung nach ATRAC (Adaptive Transform Acoustics Coding) für die Tondaten angewendet wird, sind Aufzeichnungen bis zu etwa 10 Stunden mög­ lich.
2. Äußeres Erscheinungsbild der Videokamera
Im folgenden wird anhand von Fig. 6A, 6B, 7A und 7B das äußere Erscheinungsbild der Video­ kamera des Ausführungsbeispiels beschrieben.
Auf der Frontseite des Körpers 200 der Videokamera ist ein Kameraobjektiv 201 mit einer Bild­ aufnahmeoptik, einer Irisblende usw. zur Bildaufnahme angeordnet, das nach außen offenliegt. Auf der Vorderseite des Kamerakörpers 200 befindet sich unten ein Mikrofon 202, mit dem bei der Aufnahme eines Bildes der Außenton aufgenommen wird. Die Videokamera kann das von dem Kameraobjektiv 201 aufgenommene Bild und den von dem Mikrofon 202 aufgenommenen Stereoton aufzeichnen. An gleicher Position wie das Mikrofon 202 ist auch ein Lautsprecher 205 für die Ausgabe des Wiedergabetons angeordnet. Der Lautsprecher strahlt auch die erforderli­ chen Informationstöne durch einen Piepston oder dgl. aus.
Auf der Rückseite des Kamerakörpers 200 befindet sich ein Sucher 204. Bei der Aufzeichnung, im Aufnahmebereitschaftszustand oder dgl. werden das von dem Kameraobjektiv 201 aufge­ nommene Bild (das auch als Durchbild bezeichnet wird), ein Schriftzeichenbild oder dgl. in dem Sucher 204 angezeigt. Der Benutzer kann das Bild aufnehmen, während er durch den Sucher 204 blickt.
Eine Stelle des Kamerakörpers, an der ein Hauptregler 300, eine Auslösetaste 301 und eine Löschtaste 302 angeordnet sind, die weiter unten beschrieben werden, läßt sich als Batterie­ deckel 206 öffnen und schließen. Durch Öffnen des Batteriedeckels 206 kann eine Batterie (wie­ deraufladbare Zelle) in den Kamerakörper 200 eingelegt und aus ihm herausgenommen werden.
Auf einer Seite des Kamerakörpers 200 ist ein bewegbarer Panelteil (Bildschirmträger) 203 vor­ gesehen. Dieser bewegliche Panelteil 203 ist in einem bewegbaren Lagerteil 208 so gelagert, daß er relativ zu dem Kamerakörper 200 verschwenkt werden kann. Die Bewegungen des be­ wegbaren Panelteils 203 werden weiter unten beschrieben.
Auf der Rückseite des bewegbaren Panelteils 203 befindet sich ein Anzeigepanel 57 (Anzeigebildschirm). Wenn der bewegbare Panelteil 203 sich in der in Fig. 6B dargestellten an­ gepaßten Position befindet, ist der Anzeigebildschirm 67 angelegt, wobei er dem Kamerakörper zugewandt ist.
Der Anzeigebildschirm 67 dient zur Anzeige oder Ausgabe eines Aufnahmebildes oder des von dem internen Aufzeichnungs- und Wiedergabegerät wiedergegebenen Bildes usw.
Als Reaktion auf eine Aktion des Geräts zeigt der Anzeigebildschirm 67 ferner Meldungen oder dgl. durch Buchstaben, Zeichen usw. an, um dem Benutzer eine notwendige Meldung zukom­ men zu lassen. Im vorliegenden Fall wird die Anzeigevorrichtung von dem Anzeigepanel 67 ge­ bildet, ist jedoch nicht hierauf beschränkt. Es kann statt dessen auch z. B. eine Flüssigkristallan­ zeigeeinheit oder dgl. benutzt werden.
Das Anzeigepanel 67 besitzt z. B. auf der Rückseite der Anzeigefläche einer Flüssigkristallanzei­ geeinheit ein Berührungspanel, das eine Zeigeoperation detektiert und dies als Bedienungsinfor­ mation ausgibt. Im vorliegenden Ausführungsbeispiel ist eine sogenannte GUI-Operation mög­ lich, wobei auf einem auf dem Anzeigepanel 67 angezeigten Bild eine Zeigeoperation ausgeführt wird.
Da das Anzeigepanel 67 so konstruiert ist, daß die Position, an der die Druckkraft auf das Berüh­ rungspanel einwirkt, als Koordinatenpositionsinformation detektiert wird, kann es mit einem Fin­ ger oder dgl. betätigt werden. Es ist jedoch zu berücksichtigen, daß die Anzeigefläche des Anzei­ gepanels 67 begrenzt ist, so daß es mitunter schwierig ist, eine solche Zeigeoperation mit einem Finger auszuführen. Deshalb ist ein Stift 320 in Form eines Stäbchens vorgesehen, wie dies in Fig. 6B dargestellt ist. Der Benutzer kann anstelle seiner Finger den Stift 320 benutzen, um eine Zeige-(Berührungs)-Betätigung auf dem Anzeigepanel 67 auszuführen.
Eine Stelle auf der Seite des Kamerakörpers 200, an der das bewegbare Panelteil 203 angeord­ net ist, ist als Platten-Lade-/Entnahmeteil 210 ausgebildet. In diesen kann eine Platte als Auf­ zeichnungsmedium, für das die Videokamera ausgebildet ist, eingeführt bzw. aus ihm entnom­ men werden.
Obwohl dies hier nicht dargestellt ist, sind weiterhin vorgesehen: ein Videoausgang für die Aus­ gabe eines Wiedergabebildsignals usw. an ein externes Videogerät, ein Kopfhörer-/Leitungsan­ schluß zur Ausgabe des Wiedergabetonsignals an ein externes Audiogerät oder einen Kopfhörer usw. Es ist außerdem ein I/F-Anschluß usw. vorgesehen als Schnittstellenfunktion für den Da­ tentransfer zu einem bzw. von einem externen Datengerät entsprechen.
An verschiedenen Stellen des Kamerakörpers 200 sind verschiedene Bedienungselemente für die Bedienung durch den Benutzer vorgesehen. Die wichtigsten dieser Bedienungselemente werden im folgenden beschrieben.
Der Hauptwählschalter 300 ist an der Rückseite des Kamerakörpers 200 so angeordnet, wie dies in Fig. 7B dargestellt ist. Er dient als Bedienungselement zum Ein-/Ausschalten der Videokamera bei der Aufzeichnung oder bei der Wiedergabe. Im vorliegenden Beispiel ist der Hauptwählschal­ ter 300 als Drehschalter ausgebildet.
Wenn der Hauptwählschalter 300 sich in der Ausschaltposition PS2 befindet, ist die Stromver­ sorgung ausgeschaltet. Wenn der Hauptwählschalter 300 in diesem Zustand z. B. auf die Wie­ dergabe/Editierstellung PS1 gedreht wird, wird die Stromversorgung der Videokamera einge­ schaltet und ein Betriebsmodus eingestellt, in welchem die Wiedergabe einer aufgezeichneten Bilddatei und verschiedene Editierfunktionen möglich sind. Wenn der Hauptwählschalter 300 in die dem Kameramodus entsprechende Position PS2 gedreht wird, gelangt die Kamera in eine Betriebsart (Kameramodus), in der bei eingeschalteter Stromversorgung eine Bilddatei eines Bewegtbilds oder eines Standbilds aufgezeichnet werden kann. Wenn der Hauptwählschalter 300 auf die Position PS2 für den Kameramodus gesetzt ist, ist ein Interview-Modus eingestellt.
Auf eine detaillierte Beschreibung des Interview-Modus wird hier verzichtet. Es handelt sich um eine Betriebsart, bei der grundsätzlich eine Tonaufzeichnung stattfindet, wenn die Auslösetaste 301 oder eine weiter unten beschriebene Fototaste 304 zu einem beliebigen Zeitpunkt gedrückt wird. In diesem Zeitpunkt wird dann ein Bild als Standbild aufgezeichnet. Bei der Wiedergabe im Interview-Modus wird die in dem Interview-Modus aufgezeichnete Bilddatei abgespielt. Wäh­ rend der Ton wiedergegeben wird werden Standbilder durch Schalten nacheinander in den glei­ chen Zeitlagen angezeigt wie bei der Aufzeichnung.
Die Auslösetaste 301 ist im Zentrum des drehbaren Teils des Hauptwählschalters 300 angeord­ net.
Die Auslösetaste 301 arbeitet als Bedienungselement zum Starten/Beenden der Aufzeichnung, wenn sich die Videokamera im Kameramodus oder im Interview-Modus befindet.
Auf der Rückseite des Kamerakörpers 200 ist eine Wählscheibe 303 angeordnet. Die Wähl­ scheibe 303 ist ein Bedienungselement in Form einer Scheibe, die in Vorwärts- und Rückwärts­ richtung gedreht werden kann und so montiert ist, daß bei in vorbestimmten Drehwinkelab­ schnitten ein Einrastgefühl vermittelt wird. Die Drehrichtung zur oberen Seite einer Pfeilmarke 303a ist hier die Vorwärtsrichtung, und die Drehrichtung nach unten die Rückwärtsrichtung. Die Wählscheibe 303 kann im vorliegenden Fall auch nach links niedergedrückt werden, wie in Fig. 7B durch eine Pfeilmarke 303b angedeutet ist.
Die Wählscheibe 302 ist mit einem Zweiphasen-Drehkodierer kombiniert, wobei eine Rastung einem Drehschritt entspricht, so daß eine Information über die Zahl der Drehschritte ausgege­ ben wird, die die Drehrichtung und den Drehwinkel kennzeichnet.
Die Löschtaste 302 dient als Entscheidungstaste für das Löschen von Daten, die in einem vor­ bestimmten Modus wiedergegeben werden.
In einem oberen geneigten Teil einer Seitenfläche des Kamerakörpers 200 sind die Fototaste 304, eine Zoomtaste 305, eine Fokussierungstaste 306 und eine Gegenlichtkorrekturtaste 307 angeordnet, wie dies in Fig. 6A dargestellt ist.
Die Fototaste 304 dient als Auslöser zum Aufzeichnen einer Bilddatei für ein Standbild, wenn sie z. B. im Kameramodus niedergedrückt wird.
Die Zoomtaste 305 dient zur Zoombetätigung (Teleseite bis Weitwinkelseite) eines optischen Linsensystems (des Kameraobjektivs 201).
Die Fokussierungstaste 306 dient zum Umschalten des Fokussierungszustands (z. B. normal/un­ endlich oder dgl.) des optischen Linsensystems.
Die Gegenlichtkorrekturtaste 307 dient zum Ein/Ausschalten einer Gegenlichtkorrekturfunktion.
Auf einem Teil der Seitenfläche des Kamerakörpers 200 auf der Seite, auf der das bewegliche Panelteil 203 angeordnet ist, befinden sich, wie in Fig. 6B dargestellt, eine Wiedergabe-/Pausen­ taste 208, eine Stopptaste 309, eine Wiedergabetaste 310 für langsame Wiedergabe, ferner Suchtasten 311 und 312 und eine Tonaufzeichnungstaste 313. Es handelt sich um Tasten, die prinzipiell für die Aufzeichnung/Wiedergabe einer Datei (Spur) dienen.
Wie Fig. 6A zeigt, sind auf einem Teil der Oberseite des Kamerakörpers 200 eine Bildschirman­ zeigetaste 314 für die Bildanzeige sowie Lautstärketasten 315 und 316 zur Einstellung der Laut­ stärke des von dem Lautsprecher ausgegebenen Tons angeordnet.
Es sei erwähnt, daß das in Fig. 6A, 6B, 7A und 7B dargestellte äußere Erscheinungsbild der Videokamera lediglich ein Beispiel ist und in Abhängigkeit von den für die Videokamera des Aus­ führungsbeispiels tatsächlich benötigten Gebrauchsbedingungen usw. in geeigneter Weise mo­ difiziert werden kann. Natürlich kann die obige Videokamera auch mit verschiedenartigen Be­ triebssystemen für die Bedienungselemente, Verbindungsanschlüsse zu einem externen Gerät usw. ausgestattet sein.
Anhand von Fig. 8A und 8B wird näher erläutert, wie der oben beschriebene bewegbare Panel­ teil 203 bewegt werden kann. Es sei darauf hingewiesen, daß das Erscheinungsbild der Video­ kamera in Fig. 8A und 8B zur Erleichterung der Beschreibung vereinfacht dargestellt ist. Als Bewegung des bewegbaren Panelteils 203 kann zunächst seine Position dadurch geändert werden, indem es aus der in Fig. 6B dargestellten Position in Richtung der Pfeilmarke YJ1 her­ ausgezogen wird, wie dies in Fig. 8A dargestellt ist.
In diesem Fall ist der Anzeigebildschirm (Anzeigepanel 67) der Seite des Fotografierenden (Sucher 204) zugewandt und weist infolgedessen in eine Richtung, die dem Kameraobjektiv 201, das ein Bild aufnimmt, entgegengesetzt ist. In dieser Position des Anzeigepanels kann der Foto­ grafierende, der die Videokamera hält, z. B. ein Bild aufnehmen (Bildaufzeichnung), während er das auf dem Anzeigepanel 67 angezeigte Aufnahmebild überwacht.
Der bewegbare Panelteil 203 kann außerdem aus der in Fig. 8A dargestellten Position innerhalb eines Bereichs von etwa 180° in Richtung einer Pfeilmarke YJ2 verschwenkt werden. Kurz ge­ sagt, der bewegliche Panelteil 203 kann in eine Position gebracht werden, in der das Anzeigepa­ nel 67 dem Aufnahmegegenstand (Kameraobjektiv) zugewandt ist, wie dies in Fig. 7B dargestellt ist.
In diesem Zustand kann ein Benutzer, der sich auf der Seite des Aufnahmegegenstands befin­ det, das aufgenommene Bild betrachten.
Wenn eine Platte in den Plattenlade-/Entnahmeteil 205 eingeführt oder aus diesem entfernt wer­ den soll, kann dies in einer Position geschehen, in der das bewegliche Panelteil 203 von dem Kamerakörper 200 abgehoben ist, wie dies in Fig. 8A oder 8B dargestellt ist.
Es ist auch möglich, den beweglichen Panelteil aus der in Fig. 8B dargestellten Position in Rich­ tung der Pfeilmarke YJ3 zu bewegen. Dadurch kann das bewegliche Panelteil 203, obwohl dies nicht dargestellt ist, in eine Anlagestellung gebracht werden, in der das Anzeigepanel 67 von au­ ßen betrachtet werden kann.
Wenn das Anzeigepanel in Richtung der Pfeilmarke YJ2 in der oben beschrieben Weise gedreht wird und wenn das Anzeigepanel 67 auf die Seite des Fotografierenden gerichtet ist und wenn das Anzeigepanel 67 auf die Seite des Aufnahmegegenstands gerichtet ist, sind die Seiten des angezeigten Bilds oben und unten sowie rechts und links vertauscht. In dem vorliegenden Aus­ führungsbeispiel wird dieser Nachteil jedoch durch eine entsprechende Steuerung für umge­ kehrte Anzeige eliminiert, so daß das Bild des Anzeigepanels 67 in einer geeigneten Richtung von dem Benutzer (Fotografierender und Aufnahmegegenstand) in Abhängigkeit von der Dreh­ position des bewegbaren Panelteils 203 normal beobachtet werden kann.
3. Innerer Aufbau der Videokamera
Fig. 4 zeigt den inneren Aufbau der Videokamera des Ausführungsbeispiels.
In Fig. 4 ist ein Objektivblock 1 dargestellt, der ein optisches System 11 enthält, das in der Praxis z. B. ein Bildaufnahmeobjektiv, eine Irisblende usw. aufweist. Das Kameraobjektiv 201, das in den oben beschriebenen Fig. 6A und 6B dargestellt ist, ist in dem optischen System 11 enthal­ ten. In dem Objektivblock list außerdem ein Motorteil 12 angeordnet mit einem Fokussierungs­ motor, mit dem das optische System 11 automatisch fokussiert wird, und einem Zoommotor für die Bewegung einer Zoomlinse in Abhängigkeit von der Betätigung der oben beschriebenen Zoomtaste 304 usw.
Ein Kamerablock 2 enthält einen Schaltungsteil zur Umwandlung des von dem Objektivblock 1 aufgenommenen Lichtbilds in ein digitales Bildsignal.
Das optische System 11 erzeugt auf einer CCD (ladungsgekoppelte Vorrichtung) 21 des Kame­ rablocks 2 das optische Bild eines Aufnahmegegenstands. Die CCD 21 bewirkt eine fotoelektri­ sche Umwandlung des optischen Bildes und erzeugt ein entsprechendes Bildsignal, das einer Abtast- und Halte/AGC-Schaltung 22 zugeführt wird (AGC = automatische Verstärkungssteue­ rung). Die Abtast- und Halte/AGC-Schaltung 22 justiert die Verstärkung für das aufgenommene Bildsignal, das von der CCD 21 ausgegeben wird, und führt eine Abtast- und Halteverarbeitung zur Signalformung durch. Das Ausgangssignal der Abtast- und Halte/AGC-Schaltung 2 wird ei­ nem Video-A/D-Wandler 23 zugeführt, der es in Bildsignaldaten in Form digitaler Daten umwan­ delt.
Die Zeitsteuerung der Signalverarbeitung der CCD 21, der Abtast- und Halte/AGC-Schaltung 22 und des Video-A/D-Wandlers erfolgt mit Zeitsignalen, die von einem Zeitsignalgenerator 24 er­ zeugt werden. Der Zeitsignalgenerator 24 empfängt ein Taktsignal, das für die Signalverarbei­ tung in einer weiter unten beschriebenen Datenverarbeitungs-/Systemsteuerschaltung 31 (in ei­ nem Videosignal-Verarbeitungsschaltungsteil 3) und erzeugt auf der Basis dieses Taktsignals die erforderlichen Zeitsignale. Auf diese Weise können die Signalverarbeitungszeiten des Kamera­ blocks 2 mit den Verarbeitungszeiten des Videosignal-Verarbeitungsschaltungsteils 3 synchroni­ siert werden.
Eine Kamerasteuerung 25 führt die erforderliche Steuerung durch, so daß die oben beschriebe­ nen verschiedenen Funktionsschaltungsteile in dem Kamerablock 2 in geeigneter Weise arbei­ ten können. Die Kamerasteuerung 25 steuert die automatische Fokussierung, die automatische Belichtungseinstellung, die Blendeneinstellung, das Zoomen usw. des Objektivblocks 1.
Für die automatische Fokussierungssteuerung steuert die Kamerasteuerung 25 z. B. den Dreh­ winkel des Fokussiermotors auf der Basis einer Fokussierungssteuerinformation, die von einem automatischen Fokussierungssteuersystem gewonnen wird. Dadurch wird das Aufnahmeobjek­ tiv so angetrieben, daß ein korrekter Fokussierungszustand erreicht wird.
Der Videosignal-Verarbeitungsschaltungsteil 3 komprimiert bei der Aufzeichnung das aus dem Kamerablock 2 zugeführte digitale Bildsignal und das von dem Mikrofon 202 aufgenommene di­ gitale Audiosignal, und liefert die komprimierten Daten als Benutzeraufzeichnungsdaten an einen Mediumtreiberteil 4 in der folgenden Stufe. Der Videosignal-Verarbeitungsschaltungsteil 3 liefert außerdem ein Bild, das auf der Basis des ihm aus dem Kamerablock 2 zugeführten digitalen Bild­ signals erzeugt wird, sowie ein Zeichenbild an einen Suchertreiberteil 207, so daß es in dem Sucher 204 angezeigt wird.
Bei der Wiedergabe demoduliert der Videosignal-Verarbeitungsschaltungsteil 3 die Benutzerwie­ dergabedaten (von einer Platte 51 ausgelesene Daten), die ihm aus dem Mediumtreiberteil 4 zu­ geführt werden, d. h. komprimierte Bildsignaldaten und Tonsignaldaten, und gibt das Demodula­ tionsergebnis als Wiedergabebildsignal und als Wiedergabetonsignal aus.
In dem vorliegenden Ausführungsbeispiel benutzt das Komprimier/Dekomprimiersystem für die Bildsignaldaten (Bilddaten) für ein Bewegtbild das MPEG-System und für Standbilder das JPEG- System (JPEG = Joint Photographic Coding Experts Group). Das Kompri­ mier/Dekomprimiersystem für die Audiosignaldaten benutzt das ATRAC2-System (ATRAC = Ad­ aptive Transform Acoustic Coding). Eine Datenverarbeitungs-/Systemsteuerschaltung 31 des Vi­ deosignal-Verarbeitungsschaltungsteils 3 steuert die Komprimierung/Dekomprimierung der Bild­ signaldaten und der Tonsignaldaten in dem Videosignal-Verarbeitungsschaltungsteil 3 sowie die Verwaltung der Eingabe/Ausgabe von Daten, die den Videosignal-Verarbeitungsschaltungsteil 3 durchlaufen.
Die Steuerung des gesamten Videosignal-Verarbeitungsschaltungsteils 3, einschließlich der Da­ tenverarbeitungs-/Systemsteuerschaltung 31 wird von einer Videosteuerung 38 ausgeführt. Die Videosteuerung 38 enthält z. B. einen Mikrocomputer oder dgl. und ermöglicht eine wechselsei­ tige Kommunikation mit der Kamerasteuerung 25 des Kamerablocks 2 und einer Treibersteue­ rung 46 des weiter unten beschriebenen Mediumtreiberteils 4 z. B. über eine nicht dargestellte Busleitung oder dgl.
Die Videosteuerung 38 enthält einen Programmspeicher 39.
Der Programmspeicher 39 besteht aus einem wiederbeschreibbaren Speicherelement, z. B. ei­ nem EEPROM oder einem Flashspeicher. Der Programmspeicher 39 speichert neben verschie­ denen Einstelldaten Informationen, wie verschiedene Programme, die von der die Hauptsteue­ rung bildenden Videosteuerung 38 ausgeführt werden.
Die Grundfunktion des Videosignal-Verarbeitungsschaltungsteils 3 besteht bei der Aufzeichnung darin, daß die von dem Video-A/D-Wandler 23 des Kamerablocks 2 zugeführten Bildsignaldaten in die Datenverarbeitungs-/Systemsteuerschaltung 31 eingegeben werden. Die Datenverarbei­ tungs-/Systemsteuerschaltung 31 liefert die eingegebenen Bildsignaldaten z. B. an eine Bewe­ gungsdetektorschaltung 35. Die Bewegungsdetektorschaltung 35 benutzt z. B. einen Speicher 36 als Arbeitsbereich für eine Bildverarbeitung, wie die Bewegungskompensation, für die einge­ gebenen Bildsignaldaten und liefert die resultierenden Daten an eine MPEG2-Videosignal-Verar­ beitungsschaltung 33.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 benutzt z. B. einen Speicher 34 als Arbeitsbe­ reich für die Komprimierung der zugeführten Bildsignaldaten nach dem MPEG2-Format und gibt einen Bitstrom (MPEG2-Bitstrom) von komprimierten Daten als Bewegtbild aus. Die MPEG2-Vi­ deosignal-Verarbeitungsschaltung 33 ist ferner so aufgebaut, daß sie z. B. komprimierte Bildda­ ten als Standbild nach dem JPEG-Format erzeugt, wenn sie aus Bildsignalen eines Bewegtbilds Bilddaten für ein Standbild extrahiert, und eine Komprimierung der Bilddaten als Standbild durch­ führt. Es ist auch möglich, nicht JPEG zu verwenden, sondern ein I-Bild (Intrabild), aus normalen Bilddaten in Form komprimierter Bilddaten nach dem MPEG2-Format besteht, als Bilddaten eines Standbilds zu behandeln.
Die Bildsignaldaten (komprimierte Bilddaten), die von der MPEG2-Videosignal-Verarbeitungs­ schaltung 33 kompressionskodiert werden, werden mit einer vorbestimmten Transferrate in ei­ nen Pufferspeicher 32 eingeschrieben und dort temporär gespeichert.
Bekanntlich unterstützt das MPEG2-Format als sogenannte kodierte Bitrate (Datenrate) sowohl eine konstante Rate (CBR: konstante Bitrate) als auch eine variable Rate (VBR: variable Bitrate). Der Videosignal-Verarbeitungsschaltungsteil 3 ist für beide vorbereitet.
Wenn z. B. eine Bildkomprimierung mit VBR auszuführen ist, führt die Bewegungsdetektorschal­ tung 35 eine Bewegungsdetektierung innerhalb des Bereichs von etwa 10 bis 100 Vollbildern in einer Einheit eines Makroblocks durch und, falls Bewegung detektiert wird, überträgt sie dieses Detektierungsergebnis als Bewegungsvektorinformation an die MPEG2-Videosignal-Verarbei­ tungsschaltung 33.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 verwendet die erforderliche Informationen, einschließlich der Bewegungsvektorinformation, um für jeden Makroblock einen Quantisierungs­ koeffizienten so festzulegen, daß die Bilddaten nach der Kompressionskodierung eine bestimm­ te erforderliche Datenrate haben können.
Einem Tonkompressionskodierer/-dekodierer 37 wird z. B. der von dem Mikrofon 202 aufge­ nommene Ton als Tonsignaldaten in Form von digitalen Daten über einen A/D-Wandler 64 zuge­ führt (der sich in einem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 befindet).
Der Tonkompressionskodierer/-dekodierer 37 komprimiert die ihm zugeführten Tonsignaldaten nach dem oben beschriebenen ATRAC2-Format. Die komprimierten Tonsignaldaten werden von der Datenverarbeitungs-/Systemsteuerschaltung 31 ebenfalls mit einer vorbestimmten Transfer­ rate in den Pufferspeicher 32 eingeschrieben und dort temporär gespeichert.
Die komprimierten Bilddaten und die komprimierten Tondaten können, wie oben beschrieben, in dem Pufferspeicher 32 gespeichert werden. Die grundsätzliche Funktion des Pufferspeichers 32 besteht darin, eine Ratendifferenz zwischen der Datentransferrate zwischen dem Kamerablock 2 oder dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 und dem Pufferspeicher 32 und der Daten­ transferrate zwischen dem Pufferspeicher 32 und dem Mediumtreiberteil 4 zu absorbieren.
Die in dem Pufferspeicher 32 gespeicherten komprimierten Bild- und Tondaten werden beim Auslesen sukzessiv in vorbestimmten Zeitlagen ausgelesen und einem MD-DATA2-Kodie­ rer/Dekodierer 41 des Mediumtreiberteils 4 übertragen. Bei der Wiedergabe können jedoch die Aktionen nach dem Auslesen von in dem Pufferspeicher 32 gespeicherten Daten bis zum Ausle­ sen von auf der Platte 51 aufgezeichneten Daten von dem Mediumtreiberteil 4 durch ein Deck 5 intermittierend stattfinden.
Das Einschreiben und Auslesen der Daten in den und aus dem Pufferspeicher 32 wird von der Datenverarbeitungs-/Systemsteuerschaltung 31 gesteuert.
Im folgenden wird die Funktion des Videosignal-Verarbeitungsschaltungsteils 3 bei der Wieder­ gabe beschrieben.
Bei der Wiedergabe werden die komprimierten Bild- und Tonsignaldaten (Benutzerwiedergabedaten), die von der Platte 51 ausgelesen in von dem MD-DATA2-Kodie­ rer/Dekodierer 41 (in dem Mediumtreiberteil 4) dekodiert werden, zu der Datenverarbeitungs- /Systemsteuerschaltung 31 übertragen.
Die Datenverarbeitungs-/Systemsteuerschaltung 31 speichert diese komprimierten Bild- und Tonsignaldaten temporär in dem Pufferspeicher 32. Dann werden die komprimierten Bild- und Tonsignaldaten mit der erforderlichen Zeitlage und Transferrate aus dem Pufferspeicher 32 aus­ gelesen, wodurch die Wiedergabezeitbasen abgeglichen werden, und die komprimierten Bildda­ ten werden der MPEG2-Videosignal-Verarbeitungsschaltung 33 zugeführt, während die kompri­ mierten Tonsignaldaten dem Tonkompressionskodierer/-dekodierer 37 zugeführt werden.
Die MPEG2-Videosignal-Verarbeitungsschaltung 33 dekomprimiert die komprimierten Bilddaten und überträgt die resultierenden Daten zu der Datenverarbeitungs-/Systemsteuerschaltung 31. Die Datenverarbeitungs-/Systemsteuerschaltung 31 führt die dekomprimierten Bildsignaldaten einem Video-D/A-Wandler 61 (in dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6) zu.
Der Tonkompressionskodierer/-dekodierer 37 dekomprimiert die komprimierten Audiosignalda­ ten und liefert die resultierenden Daten an einen D/A-Wandler 65 (in dem Anzeige/Bild/Ton-Ein­ gabe/Ausgabeteil 6).
In dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 werden die dem Video-D/A-Wandler 61 zuge­ führten Bildsignaldaten von diesem in ein analoges Bildsignal umgewandelt. Das analoge Bildsi­ gnal wird verzweigt und einer Anzeigesteuerung 62 und einer Compositsignal-Verarbeitungs­ schaltung 63 zugeführt.
Die Anzeigesteuerung 62 steuert auf der Basis des ihr zugeführten Bildsignals einen Anzeigeteil 6A. Dieser Anzeigeteil 6A zeigt daraufhin ein Wiedergabebild an. Natürlich kann der Anzeigeteil 6A nicht nur das durch die Wiedergabe von der Platte 61 gewonnene Bild anzeigen sondern auch auf Echtzeitbasis ein aufgenommenes Bild anzeigen und ausgeben, das durch Aufnahme eines Bilds in dem aus dem Objektivblock 1 und dem Kamerablock 2 bestehenden Kamerateil gewonnen wird.
Der Anzeigeteil 6A zeigt zusätzlich zu dem Wiedergabebild bzw. dem aufgenommenen Bild mit Buchstaben, Zeichen usw. eine Nachricht an, um den Benutzer als Reaktion auf die Betätigung des Geräts, wie oben beschrieben, über eine erforderliche Meldung zu informieren. Bei einer solchen Nachrichtenanzeige können synthetisierte Bildsignaldaten der benötigten Buchstaben, Zeichen usw. mit den von der Datenverarbeitungs-/Systemsteuerschaltung 31 an den Video-D/A- Wandler 61 auszugebenden Bildsignaldaten so verarbeitet werden, daß die erforderlichen Buch­ staben, Zeichen usw. an einer vorbestimmten Position angezeigt werden. Dies geschieht unter dem Steuereinfluß der Videosteuerung 38.
Außerdem ist mit dem Anzeigeteil 6A ein Berührungspanel 6B kombiniert und bildet zusammen mit diesem das Anzeigepanel 67.
Das Berührungspanel 6B detektiert die Positionsinformation, wenn auf dem Anzeigeteil 6A ein Druck ausgeübt wird und gibt diese Information als Bedienungsinformation an die Videosteue­ rung 38 aus.
Die Compositsignal-Verarbeitungsschaltung 63 wandelt das analoge Bildsignal, das ihr von dem Video-D/A-Wandler 61 zugeführt wird, in ein Compositsignal um und liefert dieses an einen Vi­ deoausgang T1. Wenn die Videokamera über den Videoausgang T1 z. B. mit einem externen Monitor oder dgl. verbunden ist, kann das von der Videokamera wiedergegebene Bild auf dem externen Monitor angezeigt werden.
In dem Anzeige/Bild/Ton-Eingabe/Ausgabeteil 6 werden die Tonsignaldaten, die der Kompressi­ onskodierer/-dekodierer 37 dem D/A-Wandler 65 zuführt, in diesem in ein analoges Tonsignal umgewandelt. Dieses analoge Tonsignal wird einem Kopfhörer-/Leitungsanschluß T2 zugeführt. Das von dem D/A-Wandler 65 ausgegebene analoge Audiosignal wird außerdem über einen Ver­ stärker 66 dem Lautsprecher 205 zugeführt, so daß der Wiedergabeton oder von dem Lautspre­ cher 205 abgestrahlt wird.
Der Pegel des analogen Tonsignals kann in dem Verstärker 66 variiert und dadurch die Lautstär­ ke des von dem Lautsprecher 205 abgestrahlten Tons eingestellt werden. Die Steuerung erfolgt z. B. in der Anzeigesteuerung 62 des Anzeige/Bild/Ton-Eingabe/Ausgabeteils 6, obwohl in Fig. 4 keine entsprechende Leitung dargestellt ist.
Der Mediumtreiberteil 4 kodiert bei der Aufzeichnung die Aufzeichnungsdaten nach dem mit der Plattenaufzeichnung konformen MD-DATA2-Format und überträgt die kodierten Daten zu dem Deck 5. Bei der Wiedergabe dekodiert der Mediumtreiberteil 4 die Daten, die das Deck 5 von der Platte 51 ausliest, um Wiedergabedaten zu gewinnen, und überträgt die Wiedergabedaten zu dem Videosignal-Verarbeitungsschaltungsteil 3.
Der MD-DATA2-Kodierer/Dekodierer 41 des Mediumtreiberteils 4 nimmt bei der Aufzeichnung die Aufzeichnungsdaten (komprimierte Bilddaten und komprimierte Tonsignaldaten) aus der Da­ tenverarbeitungs-/Systemsteuerschaltung 31 auf, kodiert die Aufzeichnungsdaten nach dem MD-DATA2-Format und speichert die kodierten Daten temporär in einem Pufferspeicher 42. An­ schließend liest der MD-DATA2-Kodierer/Dekodierer 41 die Daten in der geforderten Zeitlage aus und überträgt die ausgelesenen Daten an das Deck 5.
Bei der Wiedergabe dekodiert der MD-DATA2-Kodierer/Dekodierer 41 das digitale Wiedergabe­ signal, das von der Platte 51 ausgelesen und ihm über eine HF-Signalverarbeitungsschaltung 44 und eine binäre Digitalisierungsschaltung 43 zugeführt wird, nach dem MD-DATA2-Format und überträgt das dekodierte digitale Wiedergabesignal als Wiedergabedaten zu der Datenverarbei­ tungs-/Systemsteuerschaltung 31 des Videosignal-Verarbeitungsschaltungsteils 3.
Es sei darauf hingewiesen, daß auch in diesem Fall, wenn nötig, die Wiedergabedaten temporär in dem Pufferspeicher 42 gespeichert werden und die in einer vorgegebenen Zeitlage aus dem Pufferspeicher 42 ausgelesenen Daten zu der Datenverarbeitungs-/Systemsteuerschaltung 31 übertragen werden. Das Einschreiben/Auslesen in den bzw. aus dem Pufferspeicher 42 wird von der Treibersteuerung 46 gesteuert.
Selbst dann, wenn z. B. bei der Wiedergabe der Platte 51, die Servosteuerung verlorengeht und deshalb kein Signal von der Platte ausgelesenen werden kann, wird die Kontinuität der Zeitfolge der Wiedergabedaten aufrechterhalten, falls die Wiedergabe von der Platte innerhalb einer Zeit­ spanne wiederhergestellt wird, in der die Daten ausgelesen werden, die in dem Pufferspeicher 42 gespeichert bleiben.
Die HF-Signalverarbeitungsschaltung 44 führt die erforderliche Verarbeitung für ein von der Plat­ te 51 ausgelesenes Signal durch, und erzeugt ein HF-Signal als Wiedergabedaten und Servo­ steuersignale, wie ein Fokusfehlersignal und ein Spurfehlersignal für die Servosteuerung des Decks 5. Das HF-Signal wird von der binären Digitalisierungsschaltung 44, wie oben beschrie­ ben, binär digitalisiert und in Form von digitalen Signaldaten dem MD-DATA2-Kodie­ rer/Dekodierer 41 zugeführt.
Die verschiedenen Servosteuersignale, die erzeugt werden, werden einer Servoschaltung 45 zu­ geführt. Die Servoschaltung 45 führt die erforderliche Servosteuerung des Decks 5 nach Maß­ gabe dieser Servosteuersignale durch.
Die Videokamera besitzt auch einen Kodierer/Dekodierer 77, der für das MD-DATA1-Format ge­ eignet ist, so daß Aufzeichnungsdaten, die aus dem Videosignal-Verarbeitungsschaltungsteil 3 zugeführt werden, auch nach dem MD-DATA1-Format kodiert und auf der Platte 51 aufgezeich­ net werden können, oder Daten, die von einer Platte 51 ausgelesen werden, auf der die Daten nach dem MD-DATA1-Format aufgezeichnet sind, dekodiert und die dekodierten Daten dem Vi­ deosignal-Verarbeitungsschaltungsteil 3 zugeführt werden können. Das heißt die Videokamera des Ausführungsbeispiels ist so aufgebaut, daß Kompatibilität sowohl zu dem MD-DATA2-For­ mat als auch zu dem MD-DATA1-Format gegeben ist.
Die Treibersteuerung 46 ist ein Funktionsschaltungsteil für die kollektive Steuerung des Medi­ umtreiberteils 4.
Das Deck 5 ist ein Bauteil, das aus einem Mechanismus für den Antrieb der Platte 51 besteht. Das Deck 5 besitzt einen Mechanismus (den Platten-Lade-/Entladeteil 210, der in Fig. 6A und 6B dargestellt ist), mit dem der Benutzer eine zu ladende Platte 51 in das Deck 5 laden und aus ihm entfernt und ersetzt werden kann. Es wird ferner davon ausgegangen, daß die Platte 51 im vor­ liegenden Fall eine magneto-optische Platte ist, die für das MD-DATA2-Format oder das MD- DATA1-Format ausgebildet ist.
Die geladene Platte 51 wird in dem Deck 5 von einem Spindelmotor 52 mit konstanter Linearge­ schwindigkeit angetrieben, Ein optischer Kopf 53 strahlt bei der Aufzeichnung/Wiedergabe La­ serlicht auf die Platte 51.
Der optische Kopf 53 liefert bei der Aufzeichnung einen Laserstrahl mit hohem Pegel, um die Aufzeichnungsspur auf eine dem Curie-Punkt entsprechende Temperatur zu erwärmen. Bei der Wiedergabe liefert er hingegen einen Laserstrahl mit vergleichsweise niedrigem Pegel, um Da­ ten aus dem durch den magnetischen Kerr-Effekt reflektierten Licht zu detektieren. Zu diesem Zweck enthält der optische Kopf 53 eine Laserdiode zum Aussenden eines Laserstrahls, ferner ein optisches System mit einem polarisierenden Strahlenteiler, ein Objektiv usw. sowie einen Detektor zum Detektieren des reflektierten Lichts. Diese Teile werden nicht näher beschrieben. Das Objektiv in dem optischen Kopf 53 ist so gelagert, daß es z. B. von einem Zweiachsen-Me­ chanismus in radialer Richtung der Platte und in Richtung auf die Platte zu und von ihr weg be­ wegt werden kann.
An einer dem magnetischen Kopf 53 gegenüberliegenden Position auf der anderen Seite der Platte 51 ist ein Magnetkopf 54 angeordnet. Der Magnetkopf 54 legt ein Magnetfeld an die Plat­ te 51 an, das mit den Aufzeichnungsdaten moduliert ist.
Das Deck 5 besitzt außerdem einen nicht dargestellten Vorschubmechanismus, der von einem Vorschubmotor 55 angetrieben wird. Wenn der Vorschubmechanismus angetrieben wird, wer­ den der optische Kopf 53 und der Magnetkopf 54 insgesamt in radialer Richtung der Platte be­ wegt.
Es ist ein Bedienungsteil 7 vorgesehen, das den verschiedenen in Fig. 6A und 6B dargestellten Bedienungselementen entspricht. Durch Betätigen der Bedienungselemente werden verschie­ dene Bedienungsinformationen des Benutzers z. B. an die Videosteuerung 38 ausgegeben.
Die Videosteuerung 38 liefert Steuerinformationen für die erforderlichen Aktionen, die der Be­ dienungsinformation entsprechen, die von dem oben beschriebenen Berührungspanel 6B und dem ebenfalls oben beschriebenen Bedienungsteil 7 ausgegeben werden und die von den zu­ gehörigen Teilen der Kamerasteuerung 25 und der Treibersteuerung 46 auszuführen sind.
Es ist ferner ein externes Interface 8 vorgesehen, das eine wechselseitige Datenübertragung zwischen der Videokamera und einem externen Gerät ermöglicht. Dieses Interface ist, wie in Fig. 4 dargestellt, zwischen einem I/F-Anschluß T3 und dem Videosignal-Verarbeitungsteil ange­ ordnet.
In dem vorliegenden Ausführungsbeispiel wird als externes Interface 8 das Ethernet-System be­ nutzt, das allgemein für LANs (Local area networks) verwendet wird. Das Ethernet umfaßt be­ kanntlich eine Übertragungsleitung und hat eine einfache Struktur, ist preiswert und eignet sich für den Aufbau eines LANs oder dgl.. Als Kommunikationsprotokoll wird das IP (Internet-Proto­ koll) benutzt, wobei das externe Interface 8 für das Ethernet ausgebildet ist. Der I/F-Anschluß T3 hat eine Anschlußform, die einem für das Ethernet vorgesehenen Kabelverbinder entspricht.
Wenn die Videokamera des Ausführungsbeispiels über den I/F-Anschluß T3 mit einer Übertra­ gungsleitung des Ethernet verbunden wird, kann sie mit einem Personalcomputer oder einem anderen digitalen Bildgerät kommunizieren, die mit der Übertragungsleitung verbunden sind, um Bild/Tondaten usw. zu senden und zu empfangen. Außerdem ist es je nach Konstruktion mög­ lich, die Videokamera von dem über das Ethernet angeschlossenen Gerät aus fernzusteuern.
Wenn z. B. Thumbnail-Bilddaten für die Thumbnail-Anzeige über die Übertragungsleitung des Ethernet zu dem Personalcomputer übertragen und an diesen ausgegeben werden, kann in dem vorliegenden Ausführungsbeispiel ein als Web-Datei im HTML-Format erzeugtes Thumbnail-An­ zeigebild ausgegeben werden, obwohl dies hier nicht näher beschrieben wird. Zu diesem Zweck ist z. B. in dem Programmspeicher 39 ein Satz (Programm) gespeichert, mit dem Daten als Web- Datei nach dem HTML-Format erzeugt werden können.
Es ist darauf hinzuweisen, daß die Videokamera des Ausführungsbeispiels je nach Bedarf zu­ sätzlich zu dem oben beschriebenen Ethernet-Interface mit einem weiteren Interface, z. B. einem IEEE1395-Interface ausgestattet sein kann, das als Interface für die Datenübertragung nach au­ ßen und von außen benutzt werden kann. Das heißt, in dem in der Zeichnungsfigur externen In­ terface 8 können mehrere Interfaceteile mit unterschiedlichen Spezifikationen angeordnet sein, deren Zahl der Zahl der tatsächlich vorgesehenen Interface-Funktionen entspricht.
Ein Stromversorgungsblock 9 benutzt eine Gleichstromversorgung aus einer eingebauten Batte­ rie oder eine Gleichstromversorgung aus dem öffentlichen Netz, um die einzelnen Funktions­ schaltungsteile mit einer Spannung der erforderlichen Höhe zu versorgen. Das Ein- und Aus­ schalten der Stromversorgung durch den Stromversorgungsblock 9 wird von der Videosteuerung 38 nach Maßgabe der Betätigung des oben beschriebenen Hauptwählschalters 300 gesteuert.
Die Videosteuerung 38 bewirkt außerdem, daß ein Anzeigeelement 206 während des Aufzeich­ nens Licht aussendet.
4. Aufbau des Mediumtreiberteils
Im folgenden wird anhand des Blockschaltbilds von Fig. 5, in der diejenigen Funktionsschal­ tungsteile, die dem MD-DATA2-Format entsprechen, herausgezogen sind, die Konstruktion des in Fig. 4 dargestellten Mediumtreiberteils 4 detailliert beschrieben.
Die Informationen, die durch das Auslesen von Daten von der Platte 51 mit Hilfe des optischen Kopfes 53 detektiert werden (d. h. der durch Detektierung des reflektierten Laserlichts mit Hilfe des Fotodetektors gewonnene fotoelektrische Strom) wird einem HF-Verstärker 101 in der HF- Signalverarbeitungsschaltung 44 zugeführt.
Der HF-Verstärker 101 erzeugt aus der Detektorinformation als Wiedergabesignal ein Wieder­ gabe-HF-Signal und führt dieses der binären Digitalisierungsschaltung 43 zu. Diese unterzieht das Wiedergabe-HF-Signal einer binären Digitalisierung und erzeugt so ein Wiedergabe-HF-Si­ gnal (binär digitalisiertes HF-Signal) in Form eines digitalen Signals.
Das binäre digitalisierte HF-Signal wird dem MD-DATA2-Kodierer/Dekodierer 41 zugeführt, in welchem eine Einstellung des Verstärkungsgrads, eine Klemmung (Pegelhaltung) usw. für das binär digitalisierte HF-Signal mit Hilfe einer AGC/Klemmschaltung 103 vorgenommen wird. Das resultierende Signal wird einer Entzerrer/PLL-Schaltung 104 zugeführt.
Die Entzerrer/PLL-Schaltung 104 entzerrt das binär digitalisierte HF-Signal und liefert das ent­ zerrte binär digitalisierte HF-Signal an einen Viterbi-Dekodierer 105. Das binär digitalisierte HF-Si­ gnal wird nach der Entzerrung außerdem einer PLL-Schaltung zugeführt, um ein Taktsignal CLK zu extrahieren, das mit dem binär digitalisierten HF-Signal (RLL-(1,7)-Kodekette) synchronisiert ist.
Die Frequenz des Taktsignals CLK entspricht der aktuellen Drehgeschwindigkeit der Platte. Des­ halb nimmt ein CLV-Prozessor 111 das Taktsignal CLK aus der Entzerrer/PLL-Schaltung 104 auf und vergleicht das Taktsignal CLK mit einem Referenzwert, der einer vorbestimmten CLV-Ge­ schwindigkeit entspricht (siehe Fig. 3), um eine Fehlerinformation zu gewinnen. Sie benutzt die Fehlerinformation als Signalkomponente für die Erzeugung eines Spindelfehlersignals SPE. Das Taktsignal CLK wird außerdem als Taktsignal für die Verarbeitung in den entsprechenden Signal­ verarbeitungsschaltungssystemen verwendet, zu denen z. B. eine RLL-(1,7)-Demodulatorschal­ tung 106 gehört.
Der Viterbi-Dekodierer 105 dekodiert das binär digitalisierte HF-Signal, das ihm von der Entzer­ rer/PLL-Schaltung 104 zugeführt wird, nach einem Viterbi-Dekodierverfahren. Dadurch werden Wiedergabedaten in Form einer RLL-(1,7)-Kodekette gewonnen.
Diese Wiedergabedaten werden der RLL-(1,7)-Demodulatorschaltung 106 zugeführt, in der sie in einen RLL-(1,7)-demodulierten Datenstrom umgewandelt werden.
Der durch die Demodulation in der RLL-(1,7)-Demodulatorschaltung 106 gewonnene Datenstrom wird über einen Datenbus 114 in den Pufferspeicher 42 eingeschrieben und auf den Pufferspei­ cher 42 expandiert.
Der in dieser Weise auf den Pufferspeicher 42 expandierte Datenstrom wird zunächst in Einhei­ ten eines Fehlerkorrekturblocks mit Hilfe einer ECC-Verarbeitungsschaltung 116 einer Fehlerkor­ rektur nach dem RS-PC-System unterzogen und dann in einer Entwürfelungs-/EDC-Dekodier­ schaltung 117 einer EDC-Dekodierung (Fehlererfassung) unterzogen.
Die durch die bisherige Verarbeitung gewonnen Daten sind Wiedergabedaten DATAp. Diese Wiedergabedaten DATAp werden mit einer Transferrate, die einem von einer Transfertaktgene­ ratorschaltung 121 erzeugten Transfertaktsignal entspricht, aus der Entwürfelungs-/EDC-Deko­ dierschaltung 117 zu der Datenverarbeitungs-/Systemsteuerschaltung 31 des Videosignal-Verar­ beitungsschaltungsteils 3 übertragen.
Die Transfertaktgeneratorschaltung 121 ist eine Schaltung, die z. B. aus dem Taktsignal eines Quarzsystems ein Transfertaktsignal (Datentransferrate) mit einer geeigneten Frequenz erzeugt, wenn ein Datentransfer zwischen dem Mediumtreiberteil 4 und dem Videosignal-Verarbeitungs­ schaltungsteil 3 oder ein Datentransfer zwischen Funktionsschaltungsteilen in dem Mediumtrei­ berteil 4 auszuführen ist.
Die Transfertaktgeneratorschaltung 121 erzeugt ferner ein Taktsignal mit einer erforderlichen Frequenz, die in Abhängigkeit von dem Betriebszustand der Videokamera verschiedenen Funkti­ onsschaltungsteilen des Mediumtreiberteils 4 und des Videosignal-Verarbeitungsschaltungsteils 3 zuzuführen sind.
Die mit Hilfe des optischen Kopfes 53 aus der Platte 51 ausgelesene Detektorinformation (foto­ elektrischer Strom) wird außerdem einem Matrixverstärker 107 zugeführt.
Der Matrixverstärker 107 führt die erforderliche arithmetische Operation für die ihm zugeführte Detektorinformation aus, um ein Spurfehlersignal TE, ein Fokusfehlersignal FE, eine Rilleninfor­ mation GFM (die Absolutadresseninformation, die als gewobbelte Rille WG auf der Platte 51 aufgezeichnet ist) usw. zu erzeugen und liefert die extrahierte Information an die Servoschaltung 45. Das extrahierte Spurfehlersignal TE und das extrahierte Fokusfehlersignal FE werden einem Servoprozessor 112 zugeführt, während die Rilleninformation GFM einem ADIP-Bandpaßfilter 108 zugeführt wird.
Die von dem ADIP-Bandpaßfilter 108 bandbegrenzte Rilleninformation GFM wird einer A/B-Spur­ detektorschaltung 109, einem ADIP-Dekodierer 110 und dem CLV-Prozessor 111 zugeführt.
Die A/B-Spurdetektorschaltung 109 entscheidet z. B. auf der Basis des anhand von Fig. 2B be­ schriebenen Systems oder dgl. aus der ihr zugeführten Rilleninformation GFM, welche der Spu­ ren TR'A und TR'B gerade abgetastet wird und liefert die Spuridentifizierungsinformation an die Treibersteuerung 46. Der ADIP-Dekodierer 110 dekodiert die Rilleninformation GFM, um ein ADIP-Signal zu extrahieren, das die Absolutadresseninformation auf der Platte darstellt, und lie­ fert das ADIP-Signal an die Treibersteuerung 46. Die Treibersteuerung 46 führt auf der Basis der Spuridentifizierungsinformation und des ADIP-Signals die erforderlichen Steuerprozesse aus.
Dem CLV-Prozessor 111 werden das Taktsignal CLK aus der Entzerrer/PLL-Schaltung 104 und die Rilleninformation GFM aus dem ADIP-Bandpaßfilter 108 zugeführt. Der CLV-Prozessor 111 erzeugt z. B. auf der Basis eines Fehlersignals, das durch Integration eines Phasenfehlers zwi­ schen der Rilleninformation GMF und dem Taktsignal CLK gewonnen wird, ein Spindelfehlersi­ gnal SPE für die CLV-Servosteuerung und liefert dieses an den Servoprozessor 112. Die von dem CLV-Prozessor 111 auszuführenden Aktionen werden von der Treibersteuerung 46 gesteu­ ert.
Der Servoprozessor 112 erzeugt verschiedene Servosteuersignale (ein Spurführungssteuersi­ gnal, ein Vorschubsteuersignal, ein Spindelsteuersignal usw.) auf der Basis des Spurfehlersignals TE, des Fokusfehlersignals FE und des Spindelfehlersignals SPE, die ihm in der oben beschrie­ benen Weise zugeführt werden, und eines Spursprungsbefehls, eines Zugriffsbefehls oder dgl. aus der Treibersteuerung 46 und liefert die Servosteuersignale an den Servotreiber 113.
Der Servotreiber 113 erzeugt die erforderlichen Servotreibersignale auf der Basis der Servosteu­ ersignale, die der Servoprozessor 112 ihm zuführt. Die Servotreibersignale sind hier Zweiachsen- Treibersignale (zwei Arten von Signalen für die Fokussierungsrichtung und die Spurführungsrich­ tung) für den Antrieb des Zweiachsen-Mechanismus, ferner ein Vorschubmotortreibersignal für den Antrieb des Vorschubmechanismus und ein Spindelmotortreibersignal für den Antrieb des Spindelmotors 52.
Mit diesen Servotreibersignale führt das Deck 5 die Fokussierungssteuerung und die Spurfüh­ rungssteuerung für die Platte 51 sowie die CLV-Steuerung für den Spindelmotor 52 aus.
Wenn auf der Platte 51 aufgezeichnet werden soll, führt die Datenverarbeitungs- /Systemsteuerschaltung 31 des Videosignal-Verarbeitungsschaltungsteils 3 einer Verwürfelungs- /EDC-Kodierschaltung 115 Aufzeichnungsdaten DATAr zu. Die Benutzer-Aufzeichnungsdaten DATAr werden z. B. synchron mit einem von der Transfertaktgeneratorschaltung 121 erzeugten Transfertaktsignal (Datentransferrate) zugeführt.
Die Verwürfelungs-/EDC-Kodierschaltung 115 schreibt und expandiert die Aufzeichnungsdaten DATAr in den und auf den Pufferspeicher 42, wobei die Aufzeichnungsdaten DATAr einer Da­ tenverwürfelung und einer EDC-Kodierung (Hinzufügen eines Fehlererfassungskodes nach ei­ nem vorbestimmten System) unterzogen werden. Nach dieser Verarbeitung fügt die ECC-Verar­ beitungsschaltung 116 den Aufzeichnungsdaten DATAr, die auf den Pufferspeicher expandiert sind, Fehlerkorrekturkodes nach dem RS-PC-System hinzu.
Die so verarbeiteten Aufzeichnungsdaten DATAr werden aus dem Pufferspeicher 42 ausgelesen und über den Datenbus 114 einer RLL-(1,7)-Modulatorschaltung 118 zugeführt.
Die RLL-(1,7)-Modulatorschaltung 118 unterzieht die Aufzeichnungsdaten DATAr einer RLL-(1,7)- Modulation und liefert die Aufzeichnungsdaten in Form einer RLL-(1,7)-Kodekette an eine Trei­ berschaltung 119.
Das MD-DATA2-Format benutzt übrigens das sogenannte Laserpuls-Magnetfeldmodulationssy­ stem als Aufzeichnungssystem für eine Platte. Das Laserpuls-Magnetfeldmodulationssystem ist ein Aufzeichnungssystem, bei dem ein mit den Aufzeichnungsdaten moduliertes Magnetfeld an die Aufzeichnungsseite der Platte angelegt und das auf die Platte zu strahlende Laserlicht im­ pulsweise synchron mit den Aufzeichnungsdaten emittiert wird.
In einem solchen Laserpuls-Magnetfeldmodulationssystem beruht die Ausbildung der Kanten der auf der Platte aufgezeichneten Pits nicht auf einer Übergangseigenschaft wie der Umkehr­ geschwindigkeit des Magnetfelds, sie hängt vielmehr davon ab, wie die Strahlung eines Laser­ impulses zeitlich gesteuert wird.
Deshalb ist es bei dem Laserpuls-Magnetfeldmodulationssystem, verglichen, z. B. mit einem ein­ fachen Magnetfeldmodulationssystem (einem System, bei dem Laserlicht konstant auf eine Platte gestrahlt und ein mit den Aufzeichnungsdaten moduliertes Magnetfeld an die Aufzeich­ nungsseite der Platte angelegt wird) problemlos möglich, den Jitter der Aufzeichnungspits sehr klein zu halten. Das heißt, das Laserpuls-Magnetfeldmodulationssystem ist ein Aufzeichnungs­ system, das sich in besonderer Weise für die Aufzeichnung mit hoher Dichte eignet.
Die Treiberschaltung 119 des Mediumtreiberteils 4 arbeitet so, daß der Magnetkopf 54 an die Platte 51 ein den eingegebenen Aufzeichnungsdaten moduliertes Magnetfeld anlegen kann. Au­ ßerdem liefert die RLL-(1,7)-Modulatorschaltung 118 ein mit den Aufzeichnungsdaten synchro­ nisiertes Taktsignal an einen Lasertreiber 120. Der Lasertreiber 120 steuert die Laserdiode des optischen Kopfes 53 nach Maßgabe des dieses Taktsignals, so daß die Platte mit einem Laser­ impuls bestrahlt werden kann, der mit den von dem Magnetkopf 54 als Magnetfeld generierten Aufzeichnungsdaten synchronisiert ist. Der von der Laserdiode emittierte Laserimpuls hat die für das Aufzeichnen geeignete Laserleistung. Auf diese Weise ermöglicht der Mediumtreiberteil 4 des vorliegenden Ausführungsbeispiels eine Aufzeichnung nach dem Laserpuls-Magnetfeldmo­ dulationssystem.
5. Beispiel für die Struktur der für das Plattenabspielgerät ausgebildeten Platte
Im folgenden wird ein Beispiel für die Datenstruktur der Platte 51 beschrieben, die für das vor­ liegende Ausführungsbeispiel geeignet ist.
Als Voraussetzung für das bessere Verständnis werden zunächst Dateneinheiten des Formats MD-DATA2 beschrieben, die als Sektor und Cluster bezeichnet werden.
Der Sektor ist die kleinste Einheit für das physikalische Auslesen von Daten von einer Platte. Je­ dem Sektor ist eine PSA (physikalische Sektoradresse) zugeordnet.
Das Cluster (logisches Cluster) ist die kleinste Einheit für das physikalische Einschreiben von Daten auf eine Platte. Eine PSA wird durch einen Satz von 16 aufeinanderfolgenden Sektoren 0h bis Fh gebildet und auch als Zuordnungseinheit (Allocation Unit) bezeichnet. Jedem Cluster ist eine PCA (physikalische Clusteradresse) zugeteilt. Ein Sektor, der sich in einem Einlaufbereich (pre-mastered area) befindet, der im folgenden beschrieben wird, kann durch die PCA eindeutig identifiziert werden. Bei Clustern, die in einem beschreibbaren Bereich liegen, ist in jeder der Spuren Tr'A und Tr'B ein Cluster vorhanden, das die gleiche PCA hat.
Im folgenden wird ein Dateiverwaltungssystem für das MD-DATA2-Format beschrieben.
Das MD-DATA2-Format schriebt ein TMS (Spurverwaltungssystem) als Datenverwaltungssy­ stem vor. Das TMS ist die grundlegendste Vorschrift für die Zuweisung des Aufzeichnungsbe­ reichs einer Platte nach dem MD-DATA2-Format und ermöglicht es, z. B. annähernd 5500 Infor­ mationsstücke in einer hierarchisch klassifizierten Form aufzuzeichnen.
Zur Realisierung einer hierarchischen Verwaltungsstruktur sind in dem TMS eine Spur und ein Ordner (Verzeichnis) definiert. Eine Spur ist die kleinste Einheit einer Datenmenge, die von dem TMS direkt zu verwalten ist, und ist als Vorschrift ein Synonym für eine Datei. Jede Spur wird durch einen Spur-Deskriptor repräsentiert.
Ein Ordner hat eine Struktur für die Verwaltung von Spuren in Gruppen. Spuren und Ordner ge­ hören zu einem bestimmten Exemplar von Ordner (Verwandten-Ordner) und bilden letztlich eine Baumstruktur, deren Wurzel der "Wurzel-Ordner" ist. Jeder Ordner wird durch einen Ordner- Deskriptor repräsentiert.
Außerdem wird jeder/jedem Spur/Ordner eine Identifizierung ID zugeteilt.
Fig. 9 zeigt ein Ausführungsbeispiel für eine hierarchische Struktur unter dem TMS.
Um in dem TMS eine hierarchische Ordnerstruktur zu realisieren und eine Such-Reihenfolge für Spuren und Ordner zu definieren, sind alle Spuren und Ordner durch zwei Arten von Verknüp­ fungen miteinander verknüpft.
Eine dieser Verknüpfungen ist eine Verknüpfung, die den Verwandten-Ordner einer/eines Spur/Ordners bestimmt, wodurch erkennbar wird, zu welchem Ordner die Spur bzw. der Ordner gehört.
Die andere ist eine Verknüpfung, mittels derer Spuren/Ordner, die zu dem obersten Ordner, d. h. dem Verwandten-Ordner, gehören, in einer Reihenfolge verknüpft sind. Diese Verknüpfung er­ laubt es, eine Such-Reihenfolge der Spuren/Ordner innerhalb des Ordners zu definieren und er­ möglicht eine Hochgeschwindigkeitssuche.
Da alle Spuren/Ordner auf einer Platte in einer Baumstruktur angeordnet sind, deren Wurzel der Wurzel-Ordner ist, kann jede/jeder von ihnen auf der Platte eindeutig identifiziert werden, und zwar auf der Basis eines Ordners auf einem Pfad, dessen Startpunkt der Wurzel-Ordner ist, und einer Permutation der ID der Spur bzw. des Ordners selbst.
In dem Ausführungsbeispiel von Fig. 9 hat z. B. der Wurzel-Ordner die ID 0000h ("h" bedeutet, daß der Wert in hexadezimaler Notation dargestellt ist). Der Wurzel-Ordner hat drei Abkömm­ linge, nämlich einen Ordner 0101h, eine Spur 0088h und einen weiteren Ordner 0201h. Diese drei Ordner/Spur haben eine Reihenfolge, die folgendermaßen definiert ist: Ordner 0101h → Spur 0088h → Ordner 0201h, wie dies in der Figur dargestellt ist.
Zu dem Ordner 1010h gehören weiterhin drei Spuren, nämlich eine Spur 0077h, eine weitere Spur 0088h und eine Spur 0070h. Die Wiedergabereihenfolge der drei Spuren ist folgenderma­ ßen definiert: Spur 0077h → Spur 0088h → Spur 0070h.
Zu dem Ordner 0201h, der ein Abkömmling des Wurzel-Odners ist, gehören weiterhin ein Ord­ ner 0201h und eine Spur 0120h, ihre Reihenfolge ist: Ordner 0201h → Spur 0120h.
Obwohl hier die Spur 0088h (Deskriptor-Nummer = 39) unter dem Wurzel-Ordner und die zu dem Ordner 0101h gehörende Spur 0088h (Deskriptor-Nummer = 26) die gleiche ID haben, was daraus ersichtlich ist, daß ihnen Deskriptor-Nummern zugewiesen sind, die sich voneinander un­ terscheiden, werden sie als unabhängig voneinander betrachtet. Dies gilt in ähnlicher Weise für die Ordner. Dem entsprechen in der Figur der Ordner 0201 (Deskriptor-Nummer = 77), der ein Abkömmling des Wurzel-Ordners ist, und der Ordner 0201h (Deskriptor-Nummer = 4), der ein Abkömmling des Ordners 0201h ist.
Fig. 10 zeigt ein Konzept für eine Form von Datenverwaltung der Platte 51, die für das vorliegen­ de Ausführungsbeispiel ausgebildet ist. Es ist darauf hinzuweisen, daß das physikalische Format der in dieser Figur dargestellten Platte 51 der Beschreibung entspricht, die oben anhand von Fig. 1, 2A und 2B gegeben wurde.
In der Platte 51 sind z. B. ein PTOC und ein RTOC als Verwaltungsinformation gesetzt. Das PTOC enthält die erforderliche Verwaltungsinformation, die in ihm in Form von Pits aufgezeichnet ist. Die Inhalte des PTOC können nicht neu geschrieben werden.
In dem RTOC sind z. B. Basisinformationen gespeichert, die für die Verwaltung der auf der Platte aufgezeichneten Daten benötigt werden.
Die Inhalte des RTOC können jederzeit neu geschrieben werden, z. B. entsprechend dem Er­ gebnis der bisherigen Datenaufzeichnung auf der Platte und dem Ergebnis einer Editierverarbei­ tung, wie dem Löschen einer Spur (Datei) oder eines Ordners.
Benutzerdaten werden als Volumen-Ordner (Volume Folder) verwaltet, der in einem Wurzel-Ord­ ner angeordnet ist. Das Volumen (Volume) ist in dem vorliegenden Ausführungsbeispiel als ein kompletter Satz von Benutzerdaten definiert, und es ist vorgeschrieben, daß für eine Platte nur ein Volumen vorhanden ist. Die in dem Volumen enthaltenen Daten sind als Ordner und Spuren unter dem Volumen-Ordner gespeichert, mit Ausnahme derjenigen, die mit dem PTOC und dem RTOC verwaltet werden.
In dem Volumen-Ordner ist eine Volumen-Indexspur (VIT) mit einer vorbestimmten Größe (von z. B. 12 Clustern) angeordnet.
Die Volumen-Indexspur ist vorgeschrieben als ein Bereich, in dem Unter-Verwaltungsinformatio­ nen aufgezeichnet sind, wobei die Haupt-Verwaltungsinformation, wie sie war, in dem PTOC und dem RTOC aufgezeichnet ist. Die VIT besitzt eine Tabelle, in der Informationen für Verwal­ tungsmerkmale, betreffend Spuren (Dateien), Ordner und Hilfsdaten, Titel und Paketdaten, die die Spuren bilden, aufgezeichnet sind.
Als Spur, die in dem Volumen-Ordner verwaltet wird, kann optional eine Thumbnail-Spur (Thumb­ nail-Bildspur) angeordnet sein.
In dem vorliegenden Ausführungsbeispiel kann die Thumbnail-Spur ein Standbild mit einer vor­ bestimmten Auflösung als Thumbnail-Bild in einer Korrespondenzbeziehung zu jeder der auf der Platte aufgezeichneten Dateien enthalten. Ein Thumbnail-Bild wird als repräsentatives Bild be­ handelt, das ein visuelles Erkennen der Datei ermöglicht.
Auf der Thumbnail-Spur sind solche Thumbnail-Bilder zusammen mit Indexinformationen aufge­ zeichnet, die eine Korrespondenzbeziehung mit den auf der Platte aufgezeichneten Dateien (Spuren) und den gespeicherten Positionen der Thumbnail-Bilder repräsentieren. Die Datenlänge der Thumbnail-Spur kann nach Maßgabe der Anzahl der zu speichernden Thumbnail-Bilder usw. beliebig erweitert werden.
Bild/Tondaten, die z. B. aufgezeichnet werden, wenn der Benutzer ein Bild aufnimmt, werden in einer Datei als Einheit verwaltet und als Spuren unter der Volumen-Datei in dem Volumen-Ord­ ner angeordnet oder in einem Ordner, der unterhalb des Volumen-Ordners angeordnet ist.
In Fig. 10 ist ein Zustand dargestellt, in welchem eine bestimmte Datei als eine Spur dargestellt und diese Spur in einem bestimmten Ordner gespeichert ist. Der Ordner ist eine Struktur zum kollektiven Verwalten von Spuren oder Ordnern in einer Gruppe, wie dies oben beschrieben wurde.
In einer Struktur unterhalb des Volumen-Ordners werden eine beliebige Zahl von Spuren oder Ordnern in einem Bereich gespeichert, der definiert ist durch eine maximale Zahl von Fällen, die in dem Volumen-Ordner gespeichert werden können, und eine maximale Zahl von Stufen der hierarchischen Struktur der Ordner.
In dem Volumen-Ordner ist ferner eine Hilfsdatenspur angeordnet, in der Hilfsdaten gespeichert werden.
Die in der Hilfsdatenspur gespeicherte Information ist beliebig und hängt z. B. von der tatsächlich angewendeten Applikation ab.
In dem vorliegenden Ausführungsbeispiel ist eine Script-Information als Wiedergabesteuerin­ formation gespeichert. Es sind außerdem Bilddaten (Bild) zu einer Spur (aufgezeichnete Bildda­ tei) gespeichert, die durch "notizhaftes Editieren" erzeugt werden.
Das PTOC und das RTOC, die Verwaltungsinformationen darstellen, und die in der Volumen-In­ dexspur gespeicherte Information (auch diese Information wird in dem vorliegenden Ausfüh­ rungsbeispiel generell als "Verwaltungsinformation" bezeichnet) werden z. B. beim Laden der Platte ausgelesen und in einem vorbestimmten Bereich, z. B. des Pufferspeichers 42 des Medi­ umtreiberteils 4 (oder des Pufferspeichers 32) gespeichert. Bei der Datenaufzeichnung oder bei dem Editieren wird die in dem Pufferspeicher gespeicherte Verwaltungsinformation entspre­ chend dem Ergebnis der Aufzeichnung oder dem Ergebnis des Editierens neu geschrieben, und anschließend wird die Verwaltungsinformation der Platte 51 bei einer bestimmten Gelegenheit und zu einer bestimmten Zeit auf der Basis der Inhalte der in dem Pufferspeicher gespeicherten Verwaltungsinformation neu geschrieben (aktualisiert) (das PTOC wird jedoch nicht aktualisiert).
Fig. 11 zeigt die oben anhand von Fig. 10 beschriebene Form der Datenverwaltung in einer Kor­ respondenzbeziehung zu der physikalischen Struktur der Platte 51.
Der in dieser Figur dargestellte Einlaufbereich ist ein Pitbereich am inneren Umfang der Platte. In diesem Bereich ist die Information des PTOC gespeichert.
Am Außenumfang des Einlaufbereichs ist ein beschreibbarer Bereich ausgebildet, wobei zwi­ schen ihnen ein Übergangsbereich angeordnet ist. Der beschreibbare Bereich ist ein magneto­ optischer Aufzeichnungsbereich, der magneto-optisches Aufzeichnen und Wiedergeben ermög­ licht. In dem beschreibbaren Bereich sind die beiden Spuren der Spur Tr'A und der Spur Tr'B auf Doppelspiralen ausgebildet, wie dies oben anhand von Fig. 1, 2A und 2B beschrieben wurde. Am inneren Umfang des beschreibbaren Bereichs ist ein RTOC-Bereich sowohl für die Spur Tr'A als auch für die Spur Tr'B vorgesehen. In dem RTOC-Bereich für die Spur Tr'A ist in dreimaliger Wiederholung die Information des RTOC aufgezeichnet, die eine Größe von vier Clustern hat. Im Anschluß daran ist die Volumen-Indexspur mit einer Größe von 12 Clustern angeordnet.
Im Anschluß an die Volumen-Indexspur kann optional eine Thumbnail-Spur angeordnet sein. Die Thumbnail-Spur in dem RTOC-Bereich ist so definiert, daß hier zumindest das erste Clusterex­ emplar angeordnet ist. Mit wachsender Dateinummer wächst z. B. auch die Thumbnail-Bildda­ tennummer, und wenn die Thumbnail-Bilddatennummer die Kapazität der Thumbnail-Spur in dem RTOC-Bereich überschreitet, können Thumbnail-Bilddaten zusätzlich in dem beschreibbaren Datenbereich aufgezeichnet werden, der im folgenden beschrieben wird. Die Thumbnail-Spur in dem beschreibbaren Datenbereich wird in diesem Fall von der Volumen-Indexspur (oder dem RTOC) verwaltet.
Im Anschluß an die Thumbnail-Spur des RTOC-Bereichs kann optional ein Bereich vorgesehen sein, in dem Scripts aufgezeichnet werden, die Hilfsdaten und Bilddaten darstellen.
Falls auch die Scripts und die Bilddaten, die in dem RTOC-Bereich aufgezeichnet werden kön­ nen, die für sie vorgesehene Kapazität überschreiten, können sie zusätzlich in dem beschreibba­ ren Bereich aufgezeichnet werden, und zwar in einer solchen Form, daß sie von der Volumen- Indexspur (oder dem RTOC) verwaltet werden.
Der beschreibbare Datenbereich beginnt mit einer Adressenposition, die durch eine Startadresse W für den beschreibbaren Datenbereich bezeichnet ist. In dem beschreibbaren Datenbereich können AV-Daten, d.h. Daten von Spuren (Dateien) aufgezeichnet werden. Auch die oben be­ schriebenen Thumbnail-Bilddaten und Hilfsdaten können in dem beschreibbaren Datenbereich aufgezeichnet werden.
Hinter dem beschreibbaren Datenbereich ist ein Auslaufbereich angeordnet, der mit einer durch die Startadresse L des Auslaufbereichs bezeichneten Adressenposition beginnt, und mit dem äußeren Umfang endet.
Die vorangehende Beschreibung bezieht sich auf die Spur TrA. Die Bereichseinstellung für die Spur Tr'B entspricht derjenigen der Spur Tr'A, wie ebenfalls aus Fig. 11 ersichtlich ist. Der RTOC-Bereich ist zur Zeit jedoch undefiniert. Das heißt, der RTOC-Bereich wird im wesentlichen nur für die Spur Tr'A benutzt.
Es ist darauf hinzuweisen, daß das in Fig. 10 und 11 dargestellte Beispiel der Plattenstruktur nur ein Ausführungsbeispiel darstellt und daß die physikalische Positionsbeziehung der einzelnen Bereiche auf der Platte entsprechend den Bedingungen der tatsächlichen Benutzung usw. mo­ difiziert werden kann. Auch die Struktur, in der die Daten gespeichert werden, kann modifiziert werden.
Die AV-Daten, die in dem anhand von Fig. 11 erläuterten beschreibbaren Datenbereich gespei­ chert sind, bestehen aus einer Folge von AV-Paketen. Ein AV-Paket ist die kleinste Editiereinheit eines Bewegtbildes, eines Standbildes und von Ton und enthält Audiodaten (Audioaufzeichnung) und Videodaten (Videoaufzeichnung), die simultan abzuspielen sind. Es wird empfohlen, daß ein 71319 00070 552 001000280000000200012000285917120800040 0002010115084 00004 71200 AV-Paket eine Spieldauer von etwa einer Sekunde bis fünf Sekunden repräsentiert, obwohl diese Zeit von der Bitrate der im Innern zu speichernden Daten abhängt. Es ist außerdem vorge­ schrieben, daß das AV-Paket auf der Platte aus integralen Zuordnungseinheiten gebildet wird, die nicht nur physikalisch sondern auch logisch kontinuierlich sind.
Fig. 12A und 12B zeigen die Struktur eines AV-Pakets. Das ganze AV-Paket besitzt eine Paketei­ genschaft als Header, der an seinem Anfang angeordnet ist, wie dies in Fig. 12A dargestellt ist. In der Paketeigenschaft, deren detaillierte Struktur hier nicht dargestellt ist, sind verschiedene Aufzeichnungsbedingungen gespeichert, die das aktuelle AV-Paket betreffen. Die Aufzeich­ nungsbedingungen werden bei der Aufnahme und Aufzeichnung eines Bildes generiert und stellen eine Information dar, die später nicht geändert werden muß.
Im Anschluß an die Paketeigenschaft ist eine Audioaufzeichnung vorgesehen, die einen Spei­ cherbereich für Audiodaten bildet. In der Audioaufzeichnung sind ein oder mehrere vollständige Video-Dekodiereinheiten als Audiodaten aufgezeichnet, die nach dem ATRAC2-System kompri­ miert sind. In der derzeit aktuellen Spezifikation wird das ATRAC2-System als Beispiel für ein Kompressionssystem für Audiodaten beschrieben. Das Kompressionssystem ist nicht auf das spezifische Format beschränkt, es kann sich auch um das ATRAC (Warenzeichen), ATRAC 3 (Warenzeichen), MP3 (MPEG1-Audioschicht 3), MPEG-2AAC (Advanced Audio Coding) (Warenzeichen), Odesign Music Kode (Warenzeichen), TwinVO (Transform-Domain Weighted In­ terleave Vector Quantization) (Warenzeichen), MS Audio (Microsoft Audio (WMA: Windows Media Audio)) (Warenzeichen) oder Ogg Vorbis (Warenzeichen) handeln.
Im Anschluß an die Audioaufzeichnung ist eine Videoaufzeichnung vorgesehen, in der Bewegt­ bilddaten aufgezeichnet sind. Die in der Videoaufzeichnung aufgezeichneten Bilddaten sind nach MPEG2 datenkompressionskodiert und bestehen vomKonzept her aus einer Folge von GOPs, wie dies in Fig. 12B dargestellt ist. Als Spezifikation wird z. B. vorgeschlagen, daß diese GOP- Einheit die Videodekodiereinheit ist. Für diesen Fall ist vorgeschrieben, daß eine GOP maximal 30 Videovollbilder enthält, und es wird empfohlen, daß in der Videoaufzeichnung eine GOP 0 bis 255 Videovollbilder enthält. Das Kompressionsformat für die Videodaten ist hier nicht auf MPEG2 beschränkt, vielmehr können auch MPEG1, MPEG4 oder MPEG7 verwendet werden.
6. Prozeß zur Erzeugung von Thumbnail-Bildern
Mit der Videokamera des vorliegenden Ausführungsbeispiels kann ein Thumbnail-Bild erzeugt werden, das in einer Thumbnail-Spur gespeichert werden soll, wie sie in Fig. 10 und 11 darge­ stellt ist. Im folgenden wird der Prozeß zur Erzeugung eines Thumbnail-Bildes beschrieben. Die Beschreibung bezieht sich hier auf den Fall, daß ein Thumbnail-Bild für eine Bilddatei erzeugt wird, die bereits auf einer Platte aufgezeichnet ist.
Die Verwaltungsinformation (das PTOC, RTOC und die Volumen-Indexspur), die z. B. auf der Plat­ te 51 aufgezeichnet ist, wird in einer vorbestimmten Zeitlage, so z. B. beim Laden der Platte, ausgelesen und in dem Pufferspeicher 42 (oder Pufferspeicher 32) gespeichert.
Dann legt die Treibersteuerung 46 z. B. anhand der in dem Pufferspeicher 42 gespeicherten Verwaltungsinformation eine Adresse auf der Platte fest, an der Bilddaten aufgezeichnet sind, die als Thumbnail-Bild einer Datei vorgesehen sind, für die ein Thumbnail-Bild erzeugt werden soll, und greift auf die Adresse zu, um die Platte dort auszulesen und Bilddaten als Quelle für die Erzeugung eines Thumbnail-Bildes zu gewinnen.
Die Bilddaten werden anschließend aus dem Mediumtreiberteil 4 zu dem Videosignal-Verarbei­ tungsschaltungsteil 3 übertragen und der Datenverarbeitungs-/Systemsteuerschaltung 31 zuge­ führt.
Falls keine spezielle Festlegung verfügbar ist, werden durch die Verwaltungsinformation z. B. Bilddaten des vorderen Vollbilds (oder Halbbilds) in der Datei als die Bilddaten festgelegt, die als Quelle für die Herstellung eines Thumbnail-Bilds definiert ist.
Die Datenverarbeitungs-/Systemsteuerschaltung 31 steuert zunächst die MPEG2-Videosignal- Verarbeitungsschaltung 33, um die ihr zugeführten Bildschirmdaten nach dem MPEG2-Format zu dekomprimieren und Daten zu gewinnen, die auf das Niveau von Bilddaten einer Halbbildein­ heit dekodiert sind.
In dem Stadium, in welchem Bilddaten auf das Niveau der Halbbildeinheit dekodiert sind, sind die Bilddaten normalerweise Daten mit der Bildgröße (Pixelzahl), mit der sie im wesentlichen in voller Größe auf dem Anzeigebildschirm angezeigt werden.
Nachdem die Bilddaten der vollen Größe der Halbbildeinheit gewonnen sind, werden die Bildda­ ten der vollen Größe einer Reduzierung unterzogen, um so einen Prozeß auszuführen, mit dem die für ein Thumbnail-Bildtatsächlich erforderliche Größe gewonnen werden kann.
Um diese Reduzierung der Bildgröße durchzuführen, sollte eine Signalverarbeitung stattfinden, bei der z. B. Bilddaten der ursprünglichen vollen Größe mit einem geeigneten Timing abgetastet werden. Mit den durch diese Abtastung gewonnenen Bilddaten werden die Bilddaten rekonstru­ iert.
Dann führt die Videosteuerung 38 z. B. einen Steuervorgang aus, mit dem die (anhand von Fig. 10 beschriebene) Indexinformation zu den auf diese Weise gewonnenen Thumbnail-Bilddaten erzeugt wird, und zeichnet die Thumbnail-Bilddaten zusammen mit der Indexinformation in der Thumbnail-Spur der Platte auf.
Auf diese Weise werden Thumbnail-Bilddaten, die den einzelnen Dateien entsprechen, gewon­ nen und auf der Platte aufgezeichnet.
Wie aus der vorangehenden Beschreibung ersichtlich ist, können in dem vorliegenden Aus­ führungsbeispiel nicht nur Bilddaten (einschließlich Tondaten) sondern auch nur Tondaten, Zei­ cheninformationsdaten usw. als Datei aufgezeichnet werden. Wenn eine Datei keine Bilddaten enthält, die als Quelle für die Erzeugung eines Thumbnail-Bildes dienen können, z. B. eine Datei mit Tondaten oder Zeicheninformationsdaten, werden Bilddaten eines Designmusters, das vi­ suell als Tondaten oder Zeicheninformationsdaten erkennbar ist, vorbereitet (sie sollten z. B. in einem ROM der Videosteuerung 38 oder in einer vorbestimmten Region einer Platte gespeichert sein) und können dann als Thumbnail-Bild benutzt werden.
7. Script
Das vorliegende Ausführungsbeispiel ermöglicht auch eine Editierverarbeitung, wie die Festle­ gung einer Abspielreihenfolge oder die Einfügung eines geforderten Spezialeffekts bei der Wie­ dergabe von Dateien (prinzipiell von aufgezeichneten Bilddateien), die mit der Videokamera auf­ gezeichnet wurden.
Für ein solches Editieren ist in dem vorliegenden Ausführungsbeispiel ein Script als Wiederga­ besteuerinformation vorbereitet, die es ermöglicht, eine aufgezeichnete Bilddatei in einer gefor­ derten Ausgabeform wiederzugeben. In der Videokamera interpretiert z. B. die Videosteuerung 38 das Script, um eine Ausgabeform für die Wiedergabe (z. B. eine Wiedergabereihenfolge) zu gewinnen, die dem Editierergebnis entspricht. Die Videokamera ist außerdem so ausgebildet, daß in dem Editierstadium die Inhalte des Scripts aktualisiert werden, um die Editierverarbeitung auszuführen. Der Ausdruck "Script" bezeichnet hier eine in einer vorbestimmten Programmier­ sprache beschriebene handschriftliche Struktur, um Bewegtbilddaten, Standbilddaten, Tondaten, Dokumentdaten usw. in der gleichen Zeitlage abzuspielen und auszugeben.
Zunächst wird das Script allgemein beschrieben, das in dem vorliegenden Ausführungsbeispiel als Wiedergabesteuerinformation benutzt wird.
Als Script wird in dem vorliegenden Ausführungsbeispiel SMIL (Synchronized Multimedia Inte­ gration Language) benutzt.
SMIL ist eine von W3C (World Wide Web Consortium: eine Standardisierungsorganisation des Internets) standardisiert Sprache, um z. B. Fernsehen, Präsentationen usw. in dem Internet zu realisieren. Sie realisiert zeitserielle Präsentationen usw. auf der Basis der Grammatik von XML (Extensible Markup Language: ein Oberbegriff von HTML (Hyper Text Markup Language)).
Zunächst wird durch zwei Kennzeichen <seq< und <par< eine Liste dargestellt.
<seq< bedeutet "sequentiell", d. h. "seriell", und die zwischen den Kennzeichen angeordnete Information wird in zeitlicher Reihenfolge abgespielt.
<par< bedeutet "parallel", und die zwischen den Kennzeichen angeordnete Information wird synchron zueinander abgespielt.
Wenn Dateien auf einer Platte aufgezeichnet sind und z. B. festgelegt wird, daß Dateien von Vi­ deodaten, die als video1, video2 und video3 bezeichnet werden, in der Reihenfolge video1 → video2 → video3 abgespielt werden sollen, wird dies beschrieben als
Wenn die Dateien video1, video2 und video3 hingegen in der Reihenfolge videol → video2 → video3 abgespielt werden sollen und eine Tondatendatei audio1 als Nachvertonungsspur gleich­ zeitig mit der Datei video1 abgespielt werden soll, wird dies beschrieben als
Es ist auch eine Beschreibung vorbereitet, mit der festgelegt wird, daß eine Datei, die synchron mit einer bestimmten Datei abgespielt werden soll, von der Position aus abgespielt wird, die ei­ nige Sekunden hinter der Position liegt, an der die bestimmte Datei abgespielt wird.
Wenn z. B. ein Titel (z. B. ein Bild als Zeicheninformation) fünf Sekunden später abgespielt wer­ den soll, als die Bilddatei video1 angezeigt (wiedergegeben) wird, wird dies beschrieben als
Wenn weiter festgelegt werden soll, daß z. B. eine Datei picture1 als Standbilddatei fünf Sekun­ den lang abgespielt werden soll, wird dies beschrieben als
<image src = "picture1" dur = "5s"<
Wenn ein als stummes Vollbild bezeichneter Teil einer bestimmten Bewegtbilddatei herausge­ griffen und wiedergegeben werden soll, wird "range" benutzt. Wenn als Zeitkode z. B. die Stan­ dards von SMPTE (Society of Motion Picture and Television) benutzt werden, kann dies be­ schrieben werden als
<video src = "video1"range = "smpte: 10 : 07 : 00-10 : 07 : 33"<
Um eine bestimmte Datei festzulegen und zu wiederholen wird "repeat" benutzt. Wenn z. B. die Datei video1 zehnmal wiederholt werden soll, wird dies beschrieben als
<video src = "video1"repeat = "10"<
Bei dem vorliegenden Ausführungsbeispiel wird ein solches als SMIL bezeichnetes Script, wie es oben beschrieben wurde, in der Weise benutzt, daß eine Anzeigesteuerung zur Erzeugung der erforderlichen Anzeigeform für die Thumbnail-Anzeige durchgeführt wird.
Zu diesem Zweck wird in dem Videokamerasystem des vorliegenden Ausführungsbeispiels z. B. eine Untermenge von XML so vorbereitet, daß eine mit SMIL und der Beschreibung (Erzeugung) eines Scripts konforme Interpretation durchgeführt werden kann. Die Untermenge von XML kann z. B. als ein von der Videosteuerung 38 auszuführendes Programm im voraus z. B. in dem Programmspeicher 39 gespeichert oder in einer Applikationsschicht einer Platte aufgezeichnet werden, so daß sie dort ausgelesen werden kann.
In dem vorliegenden Ausführungsbeispiel wird ein Script, wie es oben beschrieben wurde, von der Videosteuerung 38 in einem Editierstadium (oder in einem Stadium, in welchem ein Bild auf­ gezeichnet wird) erzeugt oder aktualisiert und in einem vorbestimmten Bereich, z. B. des Puffer­ speichers 32, gespeichert.
Das in dem Pufferspeicher 32 gespeicherte Script wird dann bei einer passenden Gelegenheit oder mit einem vorbestimmten Timing auf der Platte aufgezeichnet. Die Daten des Scripts wer­ den als Scriptdatei auf der anhand von Fig. 10 und 11 beschriebenen Hilfsdatenspur gespeichert. Wenn das Script so auf der Platte aufgezeichnet ist, wird es später bei erneutem Laden der Plat­ te ausgelesen und z. B. in dem Pufferspeicher 32 gespeichert, so daß unter Bezugnahme hierauf Editieren, Wiedergabe oder dgl. entsprechend der Wiedergabereihenfolge möglich sind, die durch das vorherige Editieren eingerichtet wurde.
8. Anzeige des Bedienungsbildschirms
In der Videokamera des vorliegenden Ausführungsbeispiels werden beim Suchen einer auf einer Platte aufgezeichneten Datei verschiedene Editieroperationen oder Einstellprozesse ausgeführt, und auf dem Anzeigepanel 67 wird ein Bedienungsbildschirm angezeigt.
Auf dem Bedienungsbildschirm werden verschiedene Arten von Informationen zu einer gelade­ nen Platte, zu den auf der Platte aufgezeichneten Dateien usw. dargestellt. Für ein bestimmtes Objekt werden verschiedene Operationen realisiert und zwar sowohl durch Niederdrücken (im folgenden als Zeigeoperation bezeichnet) des Bedienungsbildschirms als auch durch Betätigen verschiedener Bedienungselemente.
Der Bedienungsbildschirm des Ausführungsbeispiels ermöglicht eine Thumbnail-Anzeige, bei der Thumbnail-Bilder (kleine Bilder) präsentiert werden, die einzelnen auf der geladenen Platte auf­ gezeichneten Dateien entsprechen. Das heißt, der Benutzer kann visuell die Inhalte der auf der Platte aufgezeichneten Dateien (Spuren) feststellen, indem er die auf dem Bedienungsbildschirm angezeigten Thumbnail-Bilder betrachtet. Außerdem kann mit Hilfe der Thumbnail-Bilder eine Datei z. B. gesucht und wiedergegeben werden.
Fig. 13 zeigt eine Anzeigeform des Bedienungsbildschirms, der auf dem Anzeigepanel 67 der Vi­ deokamera des Ausführungsbeispiels angezeigt wird.
Dieser Bedienungsbildschirm wird als Anfangsbildschirm angezeigt, z. B. wenn eine Platte gela­ den ist und ein Wiedergabe-/Editiermodus eingestellt wird.
In Fig. 13 ist in dem oberen Teil der Anzeigeregion ein Informationsanzeigebereich A1 darge­ stellt. In dem Informationsanzeigebereich A1 werden verschiedene Informationen angezeigt, die der Benutzer benötigt. Und zwar befinden sich in dem Informationsanzeigebereich A1: Ein An­ zeigebereich A1-1 für die verbleibende Batterieladung, ein Sportmodus-Anzeigebereich A1-2, ein Wiedergabemodus-Anzeigebereich A1-3, ein Anzeigebereich A1-4 für die restliche Aufnahmezeit und ein Platten-Icon A1-5.
In dem Anzeigebereich A1-1 für die verbleibende Batterieladung wird die restliche Batteriela­ dung durch ein Batterie- und ein Zeitsymbol angezeigt.
Obwohl hier auf eine ausführliche Beschreibung verzichtet wird, kann die Videokamera des vor­ liegenden Ausführungsbeispiels als Wiedergabemodus einen Sportmodus setzen, in dem eine Wiedergabesteuerung Vollbild für Vollbild stattfindet, um Bewegungen in einem von dem Be­ nutzer aufgenommenen Bewegtbildmotiv erkennen zu können. Wenn der Sportmodus gesetzt ist, zeigt der Sportmodus-Anzeigebereich A1-2 z. B. die Buchstaben "SPORT" an, wie dies in der Figur dargestellt ist, und signalisiert damit, daß der Sportmodus gesetzt ist.
In dem Anzeigebereich A1-3 für den Wiedergabemodus werden mit Buchstaben, einem Symbol oder dgl. verschiedene spezielle Wiedergabearten, wie z. B. Shuffle-Wiedergabe, Wiedergabe­ wiederholung und Wiedergabe zwischen A und B dargestellt.
In dem Anzeigebereich A1-4 für die restliche Aufnahmezeit wird die verbleibende Aufzeich­ nungskapazität der Platte in Form einer Zeitangabe angezeigt.
Das Platten-Icon A1-5 wird dann angezeigt, wenn eine Platte geladen ist. Wenn eine Zeigeopera­ tion auf das Platten-Icon A1-5 ausgeübt wird, kann die Bildschirmanzeige von dem in der Figur dargestellten Bedienungsbildschirm umgeschaltet werden auf die Anzeige eines Platteninforma­ tionsbildschirms, auf dem verschiedene Informationen zu der geladenen Platte dargestellt wer­ den.
Unterhalb des Informationsanzeigebereichs A1 befindet sich ein Thumbnail-Anzeigebereich A2. Hier können maximal neun Thumbnail-Bilder (für neun Dateien) angezeigt werden. Es ist ein Zu­ stand dargestellt, in welchem Thumbnail-Bilder SN von A bis I angezeigt sind. Obwohl dies hier nicht dargestellt ist, zeigen die einzelnen Thumbnail-Bilder SN z. B. ein aus der aufgezeichneten Bilddatei extrahiertes Bild als Standbild, wenn die Datei eine aufgezeichnete Bilddatei ist.
Die der Anordnung der Thumbnail-Bilder SN in alphabetischer Reihenfolge von A bis I stimmt hier grundsätzlich mit der Wiedergabereihenfolge überein. Mit anderen Worten, in dem vorlie­ genden Ausführungsbeispiel können Thumbnail-Bilder in einer vorbestimmten Reihenfolge an­ gezeigt werden, die einer durch ein Script festgelegten Wiedergabereihenfolge der Dateien ent­ sprechen. Falls jedoch eine Operation, wie Sortieren ausgeführt wird, werden die Thumbnail-Bil­ der in der sortierten Reihenfolge angezeigt.
Die Zahl der Thumbnail-Bilder, die im vorliegenden Fall gleichzeitig angezeigt werden können, ist z. B. gleich neun. Wenn die Zahl der auf einer Platte aufgezeichneten Spuren (Dateien) und dem­ entsprechend auch die Zahl der Thumbnail-Bilder größer ist als neun, können die in dem Thumb­ nail-Anzeigebereich A2 angezeigten Thumbnail-Bilder gescrollt werden, um alle Thumbnail-Bilder anzuzeigen, indem eine rechts von dem Thumbnail-Anzeigebereich A2 angezeigte Bildlaufleiste A4 durch eine Zeigeoperation gezogen wird.
Auf den Thumbnail-Bildern SN, die in dem Thumbnail-Anzeigebereich A2 angezeigt werden, werden mehrere Arten von Icons überlappend angezeigt.
Diese Icons umfassen ein Bewegtbild-Icon i1, das anzeigt, daß die Datei, die dem Thumbnail- Bild entspricht, auf welchem das Icon überlappend angezeigt wird, eine Datei ist, in der Be­ wegtbilder aufgezeichnet sind. Man sieht, daß in dem Fall von Fig. 13 die Thumbnail-Bilder A, B, C, D und E Bewegtbilddateien sind.
Das Icon, das in dem Thumbnail-Bild 6 angezeigt wird, ist ein Standbild-Icon i2. Das Icon zeigt an, daß die entsprechende Datei eine Standbilddatei ist.
In dem Thumbnail-Bild H wird ein Icon i3 für eine Interviewdatei angezeigt. Das Interviewdatei- Icon i3 zeigt an, daß die entsprechende Datei eine Interviewdatei ist, die in dem oben beschrie­ benen Interviewmodus aufgezeichnet wurde.
Obwohl der Interviewmodus oben bereits beschrieben wurde, sei er hier noch einmal kurz erläu­ tert. Der Interviewmodus ist ein Modus, in welchem grundsätzlich Ton aufgezeichnet wird und zu einer beliebigen Zeit ein Bild, das dann aufgenommen wird, als Standbild aufgezeichnet wird. Die Interviewdatei ist also eine Datei, in der neben Tondaten auch Standbilddaten auftreten. Fer­ ner ist in der Interviewdatei der Ausgabezeitpunkt der Standbilddaten relativ zu der fortschreiten­ den Wiedergabezeit der Tondaten entsprechend den Zeiten bei der Aufzeichnung definiert. Es werden dann z. B. für das Thumbnail-Bild H als Interviewdatei die Daten eines der Standbilder ausgewählt und als verkleinertes Bild angezeigt, die neben den Tondaten aufgezeichnet wurden.
Wenn bei der Aufzeichnung im Interviewmodus keine Standbilder aufgezeichnet wurden, befin­ den sich in der Interviewdatei natürlich keine Standbilddaten. Das heißt, daß die Interviewdatei nur Tondaten enthält.
Wenn das oben beschriebene Thumbnail-Bild H einer solchen Interviewdatei entspricht, die nur Tondaten enthält, wird das Interviewdatei-Icon i3 nicht mit einem verkleinerten Bild des Stand­ bildes sondern entsprechend größer angezeigt.
In dem Thumbnail-Bild I ist ein Gruppen-Icon i4 angezeigt. Die Videokamera des vorliegenden Ausführungsbeispiels kann mehrere Dateien, die in der Wiedergabereihenfolge aufeinanderfol­ gen, kollektiv als Verwaltung der Thumbnail-Anzeige zu einer Gruppe zusammenfassen und diese mehreren Dateien, die so Weise in Gruppen umgewandelt wurden, als einzelnes Thumb­ nail-Bild anzeigen. Das Gruppen-Icon i4 wird überlappend mit dem Thumbnail-Bild angezeigt, das durch diese Gruppierung gewonnen wird.
In dem Thumbnail-Bild F ist ein Memo-Datei-Icon angezeigt. Die Videokamera des Ausführungs­ beispiels kann Inhalte, die von dem Benutzer als Memorandum geschrieben werden, als einzel­ ne unabhängige Datei erzeugen. Wenn eine solche Memo-Datei z. B. vor eine beliebige Datei eingefügt und zusammen mit dieser angezeigt wird, können die Inhalte der Datei, die als Titel betrachtet werden können, durch die Memo-Datei angezeigt werden. Das Memo-Datei-Icon i5 zeigt an, daß die Datei eine Memo-Datei ist.
Ein Icon, das auf den Thumbnail-Bildern C und E angezeigt wird und einen Schreibstift imitiert, ist ein Notiz-Icon i6. Als Editierfunktion der Videokamera kann ein notizartiges Bild zu einer be­ reits aufgezeichneten Bilddatei hinzugefügt werden, indem der Benutzer mit Hilfe des Stifts 320, eines Prägebilds oder dgl. eine Stelle auf dem Anzeigepanel 67 überstrichen hat.
Das Notiz-Icon i6 zeigt an, daß die Datei durch die Notitzfunktion mit einer Notiz versehen wurde.
In den Thumbnail-Bildern B und E wird ein Markierungs-Icon i7 angezeigt. Der Benutzer kann auf dem Bedienungsbildschirm eine bestimmte Operation vornehmen, durch die in eine beliebige Datei eine Marke gesetzt wird. So kann der Benutzer z. B. eine Markierung an einer Datei anbrin­ gen, die für ihn wichtig ist, um sich diese Tatsache durch die Markierung zu merken. Das Mar­ kierungs-Icon i7 zeigt an, daß auf der betreffenden Datei diese Markierung angebracht ist.
Auf den Thumbnail-Bildern A und E wird ein Sperr-Icon i8 angezeigt. Der Benutzer kann eine vorbestimmte Operation für den Bedienungsbildschirm ausführen, um für eine beliebige Datei "Sperrung" zu setzen und dadurch eine Änderung, wie Löschen und Editieren, zu verhindern. Das Sperr-Icon i8 zeigt an, daß diese Datei gesperrt ist.
Unter den Thumbnail-Bildern A und E wird ein Effekt-Icon i9 angezeigt. In dem vorliegenden Ausführungsbeispiel ist es möglich, spezielle Wiedergabeeffekte für Dateien vorzusehen, wie z. B. verschiedene Arten von Szenenübergängen und Mosaik. Das Effekt-Icon i9 zeigt an, daß die Datei mit einem dieser Spezialeffekte versehen wurde.
Das vorliegende Ausführungsbeispiel ermöglicht es durch die mit Thumbnail-Bildern überlap­ pende Anzeige verschiedener Arten von Icons, den Benutzer über verschiedene Attribute, wie Art der Dateien, denen die Thumbnail-Bilder entsprechen, und verschiedene Einstellsituationen, visuell zu informieren.
Wenn der Benutzer z. B. mit Hilfe des Stifts 320 eine Zeigeoperation auf einem anderen Thumb­ nail-Bild ausführt, wird ein Zeiger-Icon i10, das als Umrahmung des Thumbnail-Bilds E dargestellt ist, relativ zu dem Thumbnail-Bild, das Gegenstand der der Zeigeoperation ist, bewegt und ange­ zeigt. Das Thumbnail-Bild, auf dem das Zeiger-Icon i10 angeordnet ist und angezeigt wird, ist das aktuell ausgewählte Thumbnail-Bild.
Auf dem Bedienungsschirm des vorliegenden Ausführungsbeispiels wird kein Icon überlappend mit einem Thumbnail-Bild angezeigt, auf dem das Zeiger-Icon i10 nicht angeordnet ist, und wenn das Zeiger-Icon 110 angeordnet wird, um das betreffende Thumbnail-Bild auszuwählen, wird ein Icon überlappend mit dem Thumbnail-Bild angezeigt.
Wenn der Benutzer die Wiedergabe/Pausentaste 308 betätigt, während das Zeiger-Icon i10 auf einem gewünschten Thumbnail-Bild angeordnet ist, wird die Wiedergabe von der Datei aus ge­ startet, die mit dem darauf angeordneten Zeiger-Icon i10 ausgewählt ist. Wenn auf einem Thumbnail-Bild, auf dem das Zeiger-Icon i10 überlappend angezeigt wird, eine Zeigeoperation ausgeführt wird, beginnt die Wiedergabe von einer Spur aus, auf der das Zeiger-Icon i10 ange­ ordnet ist.
Auf der linken Seite des Thumbnail-Anzeigebereichs A2 ist ein Menütastenbereich A3 vorgese­ hen, in welchem verschiedene Menütasten angezeigt werden.
In dem Menütastenbereich A3 werden von oben nach unten angezeigt: Eine Wiedergabemenü­ taste A3-1, eine Editiermenütaste A3-2, eine Notizeffektmenütaste A3-3, eine Studiomenütaste A3-4, eine Einstellmenütaste A3-5 und eine Menütaste A3-6 für fortgeschrittene Bedienung.
Die Wiedergabemenütaste A3-1 dient als Taste zur Darstellung eines Menüs für verschiedene Wiedergabearten und zur Durchführung von Einstellungen. Es kann z. B. ein Wiedergabemodus eingestellt werden, der dann in dem Wiedergabemodus-Anzeigebereich A1-3 angezeigt wird.
Die Editiermenütaste A3-2 bewirkt eine Darstellung verschiedener Posten, die sich auf das Edi­ tieren mit einer aufgezeichneten Datei als Einheit und erlaubt z. B. das Bewegen, Kopieren oder Löschen einer Spur (Datei), das Teilen der Spur, die Gruppenbildung von Dateien und das Extra­ hieren eines Standbilds (z. B. die Auswahl eines Standbilds, das als Thumbnail-Bild angezeigt werden soll). Mit Hilfe der Editiermenütaste A3-2 lassen sich auch Spurinformationen darstellen, und es kann auf einen Spurinformationsbildschirm umgeschaltet werden, auf dem verschiedene Einstellungen vorgenommen werden können, die die Information der einzelnen Spuren betref­ fen.
Die Notizeffektmenütaste A3-3 dient zur Darstellung eines Menüs zur Ausführung einer Notiz­ funktion und zur Einstellung verschiedener spezieller Wiedergabeeffekte, wie Szenenwechsel (Einblenden, Ausblenden, Wischblende usw.), eines speziellen Toneffekts oder eines speziellen Bildeffekts (Mosaik und Sepiadarstellung).
Die Videokamera besitzt ferner eine Funktion für das einfache und leichte Generieren einer Vi­ deoarbeit durch Bildaufzeichnung und Operationen, die der Benutzer nach einer GUI ausführt. Die Studiomenütaste A3-4 kann für die Darstellung eines Menüs für eine solche einfache Video­ produktion benutzt werden.
Die Einstellmenütaste A3-5 dient zur Darstellung eines Menüs zur Ausführung verschiedener Einstelloperationen, z. B. für die Helligkeit des Bildschirms des Anzeigeteils 6A, die Dichte der Panelfarbe, die Helligkeit des Suchers, die Einstellung des Datums und der Stunde und einer Standbild-Einstellzeit.
Die Menütaste A3-6 für fortgeschrittene Bedienung wird zur Darstellung eines Menü benutzt, das z. B. die Verbindung zu einem externen Gerät, wie einem Personalcomputer, einen Demon­ strationsmodus usw. betrifft.
Im unteren Teil der Anzeigeregion ist ein Spurinformations-Anzeigebereich A5 vorgesehen. In dem Spurinformations-Anzeigebereich A5 werden Informationen angezeigt, die eine Spur betref­ fen, zu der ein ausgewähltes Thumbnail-Bild (auf dem das Zeiger-Icon i10 angeordnet ist) in dem Thumbnail-Anzeigebereich A2 angezeigt wird.
Hier wird in einem Spurnummer-Anzeigebereich A5-1 zunächst eine Spurnummer angezeigt. In einem Datums- und Stunden-/Titel-Anzeigebereich A5-2 werden das Datum und die Stunde der Aufzeichnung und ein der Spur zugeordneter Titel angezeigt, wobei diese Anzeigen jeweils nach einer vorbestimmten Zeit (z. B. einigen Sekunden) abwechseln. In einem Zeitanzeigebereich A5-3 wird die Gesamtzeit der Spur angezeigt.
In einem Verknüpfungs-Icon A5-4 wird eines der oben beschriebenen verschiedenen Icons (z. B. das Bewegtbild-Icon i1, das Standbild-Icon i2, das Interviewdatei-Icon i3, das Gruppen-Icon i4 und das Memo-Datei-Icon i5) in Abhängigkeit von dem Dateityp angezeigt, dem das ausgewählte Thumbnail-Bild entspricht, nämlich ob Gruppierungseinstellung vorhanden ist oder nicht usw.. Wenn auf dem Verknüpfungs-Icon A5-4 eine Zeigeoperation ausgeübt wird, wird ein Spurinfor­ mationsbildschirm umschaltbar angezeigt.
Im folgenden wird anhand von Fig. 14 eine Bedienungsoperation für den Menübereich A3 be­ schrieben, wobei die Wiedergabemenütaste A3-1 als Beispiel herangezogen wird.
Wenn z. B. mit Hilfe des Stifts 320 eine Zeigeoperation für die Wiedergabemenütaste A3-1 aus­ geführt wird, wie dies in Fig. 14 dargestellt ist, wird ein erstes Aufklappmenü angezeigt. In die­ sem Beispiel werden in dem ersten Aufklappmenü die Menüposten "← zurück", "Sportanalyse­ modus", "Wiedergabemodus" und "Sortieren" angezeigt. Wenn die Wählscheibe 303 gedreht wird (oder mit Hilfe eines Stifts eine Drag-Operation auf den Bildschirm ausgeführt wird), wäh­ rend das erste Aufklappmenü angezeigt wird, bewegt sich der auszuwählende Menüposten in Richtung der Drehung. Wenn dann z. B. der "Wiedergabemodus" ausgewählt wird, wie dies in der Figur dargestellt ist, und die Wählscheibe 303 niedergedrückt wird (oder mit Hilfe eines Stifts eine Zeigeoperation ausgeführt wird, deren Dauer eine feste Zeit überschreitet), wird ein zweites Aufklappmenü angezeigt.
In dem zweiten Aufklappmenü werden vier Menüposten angezeigt, nämlich "Normal", "Platte wiederholen", "Shuffle" und "Einführungsabtastung". Wenn der Benutzer mit dem zweiten Aufklappmenü ähnlich verfährt wie mit dem ersten Aufklappmenü, kann ein gewünschtes Ex­ emplar dieser Menüposten ausgewählt und festgelegt werden. Der auf diese Weise gesetzte Wiedergabemodus wird auf die Anzeigeinhalte des Wiedergabemodus-Anzeigebereichs reflek­ tiert, der in Fig. 13 dargestellt ist.
9. Editieren mit Dateiteilung 9-1. Editiervoperation mit Dateiteilung
In der Videokamera des vorliegenden Ausführungsbeispiels kann eine bereits auf einer Platte aufgezeichnete Datei durch eine GUI-Operation für den Bedienungsbildschirm, wie sie oben an­ hand von Fig. 13 beschrieben wurde, an einer beliebigen Position in zwei Dateien (Spuren) ge­ teilt werden. Anhand von Fig. 15 und 16A bis 16D wird eine solche Spurteilungsprozedur be­ schrieben.
Um eine Teilungseditierung vorzunehmen, führt der Benutzer eine Zeigeoperation auf der auf dem Bedienungsbildschirm angezeigten Editiermenütaste A3-2 aus. Daraufhin wird das erste Aufklappmenü angezeigt, in welchem verschiedene Menüposten für das Editieren angezeigt werden, wie dies aus Fig. 15 ersichtlich ist. Wenn der Benutzer dann in dem ersten Auflapp­ menü den Menüposten "Spurteilung" auswählt, wird das zweite Aufklappmenü angezeigt, in dem Menüposten unterhalb der Hierarchie des Menüs "Spurteilung" angeordnet sind. Wenn dann der in dem zweiten Aufklappmenü angezeigte bezeichnete Menüposten "Teilung" ausge­ wählt und festgelegt wird, gelangt die Videokamera in einen Spurteilungsmodus, der ein Teilen der Spur (Datei) ermöglicht.
In dem Spurteilungsmodus wechselt die Anzeige des Displaypanels 67 zunächst von der Bedie­ nungsbildschirmdarstellung in eine Spurauswahlbildschirm, der in Fig. 16A dargestellt ist. Auf dem Spurauswahlbildschirm werden mehrere Thumbnail-Bilder SN von Spuren als Dateien dar­ gestellt. Die Thumbnail-Anzeigeregion, in der die Thumbnail-Bilder SN angezeigt werden, kann z. B. durch Betätigen der Bildlaufleiste A4 nach oben oder unten bewegt werden. Der Benutzer führt dann z. B. eine Zeigeoperation aus, um eine zu teilende Datei auszuwählen. Es sei hier daruf hingewiesen, daß der Spurteilungsmodus gestoppt und wieder der Bedienungsbildschirm dar­ gestellt wird, wenn eine Stopptaste BT1 betätigt wird, die in der rechten unteren Ecke des Bild­ schirms angezeigt wird.
Wenn durch eine Betätigung des in Fig. 16A dargestellten Spurauswahlbildschirms die zu teilen­ de Spur ausgewählt und festgelegt ist, wird die Anzeige auf den der in Fig. 16B dargestellten Bildschirm zur Wiedergabe der ausgewählten Spur umgeschaltet.
Auf dem Bildschirm für dis Wiedergabe der ausgewählten Spur wird die als Teilungsobjekt aus­ gewählte Datei wiederholt abgespielt und angezeigt. Der Benutzer führt durch Betätigen einer Pausentaste BT3, die in dem rechten unteren Teil des Bildschirms dargestellt ist, zu einer belie­ bigen Zeit für die Teilung eine Pause herbei, während er das Bild beobachtet, das dann wieder­ gegeben und angezeigt wird. Wenn der Benutzer die Stopptaste BT2 betätigt, kann z. B. der in Fig. 16A dargestellte Spurauswahlbildschirm wiederhergestellt werden.
Wenn in der oben beschriebenen Weise eine Pause herbeigeführt wird, wechselt die Anzeige des Anzeigepanels 67 zu einem Pausenbildschirm, der in Fig. 16C dargestellt ist. Der Pausen­ bildschirm ist ein Bildschirm, mit dem der Benutzer bestätigen kann, ob die Teilungsposition ge­ eignet ist oder nicht, und der es ihm erlaubt, die Teilungsposition zu justieren, wie dies im fol­ genden beschrieben wird.
Auf dem in Fig. 16C dargestellten Pausenbildschirm wird zunächst das Vollbild weiter stationär angezeigt, das angezeigt wurde, als die Pause herbeigeführt wurde. Dann findet, speziell in der Videokamera des vorliegenden Ausführungsbeispiels, eine überlappende Anzeige mit einem "Verknüpfungs-Glättegrad: 60%" statt. Weiter unten wird beschrieben, was der "Verknüpfungs- Glättegrad" bedeutet, sei hier kurz erwähnt, daß er den Grad der Wartezeit angibt, bis die Wie­ dergabe der durch die Teilung erzeugten Datei beginnt und diese als Bild ausgegeben wird, wenn als Teilungsposition das aktuell angezeigte Vollbild festgelegt wird.
Obwohl weiter unten Einzelheiten beschrieben werden, sei hier schon erwähnt, daß dann, wenn für eine Datei mit Bewegtbilddaten eine Teilungseditierung durchgeführt wird, mitunter eine gewisse Zeit erforderlich ist, bis Wiedergabe und Bildausgabe der durch die Teilung gewonne­ nen letzten Datei im Wiedergabemodus beginnt, wenn die Videokamera eine Datei abspielt, die durch Teilungseditieren erzeugt wurde. Während der Zeit bis zum Beginn des Abspielens und der Ausgabe wird kein Wiedergabebild angezeigt, und diese Zeit bedeutet Wartezeit für den Be­ nutzer.
Diese Wartezeit ist darauf zurückzuführen, daß im vorliegenden Ausführungsbeispiel ein Auf­ zeichnungsformat benutzt wird, wie es in Fig. 12A und 12B als AV-Paket dargestellt ist. Die War­ tezeit variiert in Abhängigkeit von der GOP und in Abhängigkeit davon, an welcher Position eine Videoaufzeichnung in einem AV-Paket die Vollbilddaten liegen, die die festgelegte Teilungsposi­ tion enthalten. Sie variiert auch in Abhängigkeit davon, welches Vollbild in der GOP als Teilungs­ position ausgewählt ist. Deshalb ist die Wartezeit keine feste Zeit.
In der vorliegenden Anmeldung wird diese Wartezeit bis zum Beginn der Wiedergabe und Aus­ gabe einer Datei auch als "Wiedergabewartezeit" bezeichnet.
Wenn in dem vorliegenden Ausführungsbeispiel der Pausenbildschirm dargestellt wird, er­ scheint auf diesem eine Anzeige, die die "Wiedergabewartezeit" angeben kann. Deshalb kann der Benutzer im voraus erkennen, wie lange bei der vom ihm gesetzten Teilungsposition die Wiedergabe und Ausgabe der durch die Teilung erzeugten Datei verzögert werden. Selbst wenn als Ergebnis der Teilungseditierung einer Datei eine gewisse Zeit bis zum Beginn der Wieder­ gabe und der Ausgabe einer Datei erforderlich ist, wird der Benutzer bei der Wiedergabe nicht beunruhigt und empfindet den Streß nicht so sehr, da er dies bereits erkannt und verstanden hat.
In dem vorliegenden Ausführungsbeispiel wird die "Wiedergabewartezeit" als Verhältnis des "Verknüpfungs-Glättungsgrads" angezeigt.
Wenn die Wiedergabe einer bestimmten Datei zu Ende geht und die Wiedergabe der durch die Teilungseditierung erzeugten letzten Datei beginnen soll, tritt zwischen den der "Wiedergabewartezeit" entsprechenden Bildern eine Unterbrechung auf, und der glatte Über­ gang bei der Wiedergabe und Ausgabe zwischen den Dateien wird durch diese Unterbrechung beeinträchtigt. Der "Verknüpfungs-Glättegrad" bezeichnet hier das Ausmaß der Unterbrechung zwischen den Bildern.
Der Verknüpfungs-Glättegrad ist im vorliegenden Fall so eingestellt, daß er auf 100% beträgt, wenn die "Wiedergabewartezeit" minimal ist und Wiedergabe und Ausgabe der durch die Tei­ lung erzeugten letzten Datei am glattesten ablaufen. Das Verhältnis als Glättegrad nimmt gegen­ über 100% allmählich ab, wenn die Wiedergabewartezeit länger ist. Das heißt, wenn die "Wie­ dergabewartezeit" der durch die Teilungseditierung erzeugten letzten Datei kurz ist, ist der Glättegrad hoch, wenn die "Wiedergabewartezeit" jedoch lang ist, ist der Glättegrad niedrig.
Wenn die "Wiedergabewartezeit" in dieser Weise als "Verknüpfungs-Glättegrad" dargestellt wird, kann die tatsächliche Wiedergabewartezeit dem Benutzer besser vermittelt werden als in dem anderen Fall, in dem z. B. bloß die tatsächliche Wiedergabewartezeit angezeigt wird.
Auf dem in Fig. 16C dargestellten Pausenbildschirm kann die Teilungsposition so geändert wer­ den, daß sie von einem z. B. von einem Startpunkt aus, der durch die als laufende Teilungspositi­ on ausgewählten Vollbildposition gegeben ist, in Einheiten eines Vollbilds vor- oder zurückverlegt wird, indem eine "Zurück"-Taste BT4 oder eine "Vorwärts"-Taste BT5 betätigt wird, die in dem unteren Teil des Bildschirms angezeigt werden.
Wenn die Teilungsposition durch diese Operation verändert wird, ändert sich auch der Glätte­ grad, der für die Wiedergabewartezeit kennzeichnend ist und der bei allen solchen Gelegenhei­ ten in Abhängigkeit von der geänderten Teilungsposition angezeigt wird.
Auf diese Weise kann der Benutzer z. B. durch eine Pausenoperation zunächst eine Feinjustie­ rung für die eingestellte Teilungsposition vornehmen. Durch Beobachten der Anzeige des Glät­ tungsgrads ist es dann möglich, ein Vollbild als Teilungsposition auszuwählen, mit dem sich ein von dem Benutzer gewünschter Glättegrad erzielen läßt. Das heißt, wenn die Verknüpfung zwi­ schen der früheren Datei und der durch die Teilung gewonnenen letzten Datei so glatt wie mög­ lich sein soll, kann ein Vollbild ausgewählt werden, bei dem der Glättegrad so nahe wie möglich an 100% liegt.
Wenn der Benutzer dann eine Festlegungstaste BT6 betätigt, die zwischen der "Zurück"-Taste BT4 und der "Vorwärts"-Taste BT5 angezeigt wird, wird die Teilungsposition, die entsprechend dem Vollbild gesetzt ist, das in dem Pausenzustand bei Betätigung der Festlegungstaste BT6 angezeigt wird, als Kandidat für die endgültige Teilungsposition festgelegt. Der Bildschirm wird dann auf einen Teilungsausführungsbildschirm umgeschaltet, der in Fig. 16D dargestellt ist.
Der Teilungsausführungsbildschirm von Fig. 16D dient als Bildschirm für die Bestätigung der endgültigen Teilungsposition. Auf dem Bildschirm zur Ausführung der Teilung wird kontinuierlich das Vollbild angezeigt, das in dem Pausenzustand bei Betätigung der Festlegungstaste BT6 an­ gezeigt wurde. Außerdem werden eine Stopptaste BT7 und eine Ausführungstaste BT8 in dem rechten unteren Teil des Bildschirms angezeigt, wie dies in der Figur dargestellt ist.
Wenn die Stopptaste BT7 betätigt wird, beendet die Videokamera den Spurteilungsmodus. Wenn hingegen die Ausführungstaste BT8 betätigt wird, wird die Teilungseditierung mit der der­ zeit ausgewählten Teilungsposition ausgeführt. Das heißt, die Teilungsposition wird endgültig festgelegt.
9-2. Wiedergabe
Wie oben beschrieben wurde, wird in der Videokamera bei der Wiedergabe und bei dem Editie­ ren einer auf einer Platte aufgezeichneten Datei ein Script für die Wiedergabesteuerung und die Wiedergabeverwaltung benutzt.
Auch wenn in der oben beschriebenen Weise eine Teilungseditierung für eine Datei vorgenom­ men wird, wird als Ergebnis des Editierens ein Script beschrieben. Die Analyse des Scripts er­ möglicht es dann bei späterem Abspielen oder Editieren, geteilte Dateien, die ursprünglich in Form einer einzigen Datei vorlagen, z. B. als zwei unabhängige Dateien zu behandeln.
Als Beispiel für ein Script für Teilungseditieren wird im folgenden ein Fall betrachtet, in dem drei Bewegtbilddaten A, B und C auf einer Platte aufgezeichnet sind und für die Bewegtbilddatei C eine Teilungseditierung durchgeführt wird.
Zunächst sei angenommen, daß die beschriebenen Inhalte des Scripts vor dem Teilungseditie­ ren folgendermaßen lauten:
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C<
Dieses definiert, daß durch eine Analyse der ersten Zeile des Script die Bewegtbilddatei A abge­ spielt wird und dann durch eine Analyse der zweiten Zeile die Bewegtbilddatei B abgespielt wird und schließlich durch eine Analyse der folgenden dritten Zeile die Bewegtbilddatei C abgespielt wird. Das heißt, es wird definiert, daß die drei Bewegtbilddateien A, B und C als eine einzige un­ abhängige Spur verwaltet und in der Wiedergabereihenfolge der Bewegtbilddateien A → B → C abgespielt werden.
Es werde dann angenommen, daß dann, wenn die Daten aufgezeichnet sind und das Script be­ schrieben ist, für die Bewegtbilddatei C eine Teilungseditierung nach der oben beschriebenen Prozedur vorgenommen wird. Durch die Teilungseditierung werden die Inhalte des geschriebe­ nen Scripts z. B. in der folgenden Weise neu geschrieben:
<VIDEO SRC = A<
<VIDEO SRC = B<
<VIDEO SRC = C ENDFRAME = 149<
<VIDEO SRC = C BEGINFRAME = 150<
Die dritte und vierte Zeile des Scripts beschreiben, daß die Bewegtbilddatei C, die ursprünglich eine einzige Datei ist, entsprechend der bei der Teilungseditierung erfolgenden Festlegung des 150. Vollbilds der Bewegtbilddatei C als Teilungsposition, in zwei Dateien geteilt und als zwei Dateien verwaltet wird, bestehend aus einer vorderen Datei (Spur), die die Bilder von dem er­ sten Vollbild bis zu dem 149. Vollbild der Bewegtbilddatei C enthält, und einer nachfolgenden Datei (Spur), die die Bilder von dem 150. Vollbild bis zu dem letzten Vollbild enthält. Dies hat zur Folge, daß die Bewegtbilddateien A, B und C nun als vier Dateien verwaltet werden, deren Wiedergabereihenfolge folgendermaßen festgelegt ist: Bewegtbilddatei A → Bewegt­ bilddatei B → erster Teil der Bewegtbilddatei C (bis zu dem 149. Vollbild) → nachfolgender Teil der Bewegtbilddatei C (beginnend mit dem 150. Vollbild).
Das als Teilungsposition festgelegte Vollbild beindet sich nicht notwendigerweise am Anfang ei­ ner in der Videoaufzeichnung eines AV-Paket angeordneten GOP. Mit anderen Worten, das Voll­ bild kann aus beliebigen Vollbilddaten innerhalb einer GOP in einer bestimmten Videoaufzeich­ nung bestehen.
Auf diese Weise erhält man bei dem vorliegenden Ausführungsbeispiel durch Festlegung einer Teilungsposition in einer Datei durch Beschreiben eines Scripts ein Ergebnis der Teilungseditie­ rung, und eine Datenverarbeitung von tatsächlich geteilten Daten, die auf einer Platte aufge­ zeichnet sind, wird nicht vorgenommen. Dadurch wird z. B. die Verarbeitungsbelastung bei der Teilungseditierung reduziert, und es wird verhindert, daß auf der Platte aufgezeichneten Haupt­ daten beeinträchtigt werden.
Es ist darauf hinzuweisen, daß in dem Beispiel des oben beschriebenen Scripts bei der Festle­ gung einer Teilungsposition die Nummer eines Vollbilds (Vollbildnummer) einer Bewegtbilddatei vor der Teilung festgelegt wird, und auch die folgende Beschreibung geht davon aus, daß eine Teilungsposition durch eine Vollbildnummer festgelegt wird. Die Festlegung einer Teilungsposi­ tion ist jedoch nicht hierauf beschränkt, in der Praxis kann eine Teilungsposition vielmehr auch z. B. durch einen Zeitkode festgelegt werden.
Fig. 17 veranschaulicht die Verarbeitung der durch die Teilungseditierung gewonnenen letzten Datei als Wiedergabeprozeß entsprechend der Interpretierung eines Scripts. Der Wiedergabe­ prozeß ist z. B. ein Wiedergabeprozeß, wenn die vierte Zeile (<VIDEO SRC = C BEGINFRAME = 150<) des Scripts nach der Teilungseditierung interpretiert wird. Der in dieser Figur dargestellte Prozeß wird z. B. realisiert, wenn die Videosteuerung 38 als Hauptsteuerung arbeitet und, falls erforderlich, die Datenverarbeitungs-/Systemsteuerschaltung 31, die Treibersteuerung 46 oder dgl. die Steuerung ausführt.
Wenn die Videosteuerung 38 das Script einliest und interpretiert, das die Wiedergabe der durch die Teilung gewonnenen letzten Datei angibt, geht die Verarbeitung weiter zu dem Schritt S101.
In dem Schritt S101 wird auf ein AV-Paket zugegriffen, das eine Wiedergabestartposition einer wiederzugebenden Datei, d. h. eine Teilungsfestlegungsposition, enthält. In dem nächsten Schritt S102 wird dann die Paketeigenschaft des AV-Pakets eingelesen, und der Inhalt der Paketeigen­ schaft wird analysiert.
Obwohl dies hier nicht ausführlich beschrieben wird, kann aus dem Inhalt der Paketeigenschaft in der Videoaufzeichnung eine GOP identifiziert werden, die die Wiedergabestartposition in dem AV-Paket enthält. So wird in dem Schritt S103 die Position der GOP, die die Wiedergabestartpo­ sition in dem Paket enthält, auf der Basis des Ergebnisses der Analyse der Paketeigenschaft de­ tektiert.
In dem nächsten Schritt S104 wird auch das Cluster (Zuordnungseinheit) detektiert, das die Wiedergabestartposition enthält. Das Cluster ist eine Dateneinheit, die als kleinste Einheit für das Einschreiben von physikalischen Daten auf einer Platte in dem Plattenformat des vorliegen­ den Ausführungsbeispiels vorgeschrieben ist. Im vorliegenden Fall wird z. B. eine PCA (physika­ lische Clusteradresse) des Clusters detektiert, das den Wiedergabestartpunkt enthält.
Wenn die beschriebene Verarbeitung beendet ist, berechnet die Videosteuerung 38 in dem Schritt S105 einen Byte-Offset bis zu der GOP, die die Wiedergabestartposition in dem AV-Paket enthält.
Der Byte-Offset wird hier durch die Zahl der Bytes von der Startposition bis zu der GOP des lau­ fenden AV-Pakets repräsentiert, wie dies in Fig. 18 dargestellt ist. Der Byte-Offset kann auf der Basis der Inhalte der Paketeigenschaft bestimmt werden durch Addieren der Größe der Paketei­ genschaft, der Größe der Audioaufzeichnung und der Zahl der Bytes bis zu der Position der GOP, die die Wiedergabestartposition in der Videoaufzeichnung enthält.
In dem nächsten Schritt S106 wird das AV-Paket bis zu der GOP, die die Wiedergabestartpositi­ on enthält, auf der Basis des in dem Schritt S105 gewonnenen Wertes des Byte-Offsets bis zu der GOP, die die Wiedergabestartposition enthält, eingelesen. Wenn das Einlesen bis zu der GOP der Wiedergabestartposition beendet ist, geht die Verarbeitung weiter zu dem Schritt S107.
In dem Schritt S107 wird die Dekodierung der GOP gestartet, die die Wiedergabestartposition enthält. Wenn bei der GOP-Dekodierung der GOP-Daten (Vollbilddaten) dekodiert werden, die in dem Cluster der Wiedergabestartposition liegen, wird die Wiedergabe und Ausgabe eines Bil­ des, wie in dem Schritt S108 dargestellt, von den Vollbilddaten aus gestartet, das durch Deko­ dieren der dekodierten GOP-Daten gewonnen wird. Das heißt die Anzeige des Bewegtbilds auf dem Anzeigepanel 67 wird gestartet.
Im vorliegenden Ausführungsbeispiel werden die Daten bis zu einer GOP, die eine Wiedergabe­ startposition enthält, entsprechend dem Wert des Byte-Offsets eingelesen. Alternativ kann der optische Kopf 53 auf der Basis des Clusters auch direkt auf den Cluster auf der Platte zugreifen, der die Wiedergabestartposition enthält. In diesem Fall wird die Wiedergabewartezeit berechnet aus der Zeit für das Auslesen des AV-Pakets, der Kopf-Clusteradresse der GOP, die die Wieder­ gabestartposition enthält und aus dem AV-Paket detektiert wird, der Zugriffszeit, die der opti­ sche Kopf benötigt, um auf die Kopf-Clusteradresse zuzugreifen, und die Zeit, die für das Ausl­ esen der betreffenden GOP benötigt wird.
9-3. Wiedergabewartezeit
Daß die Prozedur für die Wiedergabe der durch die Teilung gewonnenen letzten Datei in der in Fig. 17 dargestellten Weise abläuft, ist darauf zurückzuführen, daß Bewegtbilddaten dadurch gebildet werden, daß GOPs in einem AV-Paket angeordnet werden.
Bei einem solchen Wiedergabeprozeß kann es vorkommen, daß einige Zeit erforderlich ist, be­ vor eine Wiedergabeanforderung gewonnen und die Wiedergabe und die Ausgabe einer Datei als Bild endgültig gestartet wird. Das heißt es kann möglicherweise eine "Wiedergabewartezeit" entstehen.
In dem vorliegenden Ausführungsbeispiel wird bei der Teilungseditierung einer Datei eine Anzei­ ge erzeugt, die die Wiedergabewartezeit repräsentieren kann, wie dies in Fig. 16C dargestellt ist. Zu diesem Zweck muß die Wiedergabewartezeit in Abhängigkeit von einer festgelegten Tei­ lungsposition berechnet werden. Im Ausführungsbeispiel kann die Berechnung der Wiederga­ bewartezeit z. B. folgendermaßen ablaufen.
Die Wiedergabewartezeit vor der Wiedergabe und Ausgabe der durch die Teilungseditierung er­ zeugten letzten Datei kann hier begrifflich aus zwei Faktoren zusammengesetzt sein.
Einer dieser Faktoren ist die Zeitspanne, die benötigt wird, um ein AV-Paket bis zu einer GOP einzulesen, die die Teilungsfestlegungsposition (Wiedergabestartposition) enthält. Mit anderen Worten, diese Zeit ist die Zeit, die für die Beendigung der Verarbeitung in den Schritten S101 bis S106 benötigt wird. Die für das Einlesen der Daten benötigte Zeit wird als "Daten-Einlesezeit" bezeichnet.
Da bei der normalen Wiedergabe der Spur die Wiedergabestartposition des Vollbilds, wie in Fig. 19 dargestellt, der Anfang der Videoaufzeichnung ist, ist die Zeit, die vergeht, bis das AV-Paket eingelesen ist und auf die am Anfang der Videoaufzeichnung liegende GOP zugegriffen werden kann, d. h. die Daten-Einlesezeit, gleich Tf, die die kürzeste Zeit ist.
Wenn hingegen die GOP, die die GOP-Daten (Vollbild) als Teilungsfestlegungsposition enthält, z. B. die vierte und damit die letzte GOP der Videoaufzeichnung ist, wie dies durch eine Pfeil­ marke A in Fig. 19 angedeutet ist, wird die Daten-Einlesezeit mit Td bezeichnet. Mit anderen Worten, die Zeit Td ist länger als die Zeit Tf.
So wird die Daten-Einlesezeit Td lang, wenn die GOP, die die Teilungsfestlegungsposition ent­ hält, an einer Position liegt, die von dem Anfang des AV-Pakets weiter entfernt ist.
Die Wiedergabewartezeit umfaßt zusätzlich zu der Daten-Einlesezeit Td die Zeit, die benötigt wird, um die die Teilungsfestlegungsposition enthaltende GOP zu dekodieren, bis die Vollbildda­ ten (GOP-Daten), die der Teilungsfestlegungsposition entsprechen, endgültig dekodiert sind. Das heißt es handelt sich um die Zeit, die für die Verarbeitung in Schritt S107 → Schritt S108 in dem in Fig. 17 dargestellten Wiedergabeprozeß benötigt wird. Die für das Dekodieren einer GOP-Einheit benötigte Zeit wird als "GOP-Datenanalysezeit" bezeichnet.
Die GOP ist bekanntlich die kleinste Editiereinheit von Daten, die nach dem MPEG-System ko­ diert sind. Im vorliegenden Ausführungsbeispiel ist die GOP z. B. eine Gruppe von insgesamt 15 Vollbildern, die zumindest Vollbilddaten eines für die Wiedergabe benötigten Referenzbilds (I- Bild) enthalten. GOPs sind unabhängig voneinander und können einen geschlossenen Bitstrom bilden. Eine GOP kann aus drei Arten von Vollbilddaten bestehen, nämlich einem I-Bild (Intra- Bild: intraframe-kodiertes Bild), einem P-Bild (prädiktives Bild: interframe-vorwärtsprädiktiv ko­ diertes Bild) und einem B-Bild (bidirektionales Bild: bidirektional prädiktiv kodiertes Bild).
Das I-Bild stellt Vollbilddaten dar, die als Referenz dienen. Jede GOP enthält ein oder mehrere fehlerfreie I-Bilder. Das I-Bild erlaubt prädiktive Kodierung in dem Vollbild. Das Vorhandensein des Vollbilds sichert die Unabhängigkeit der GOP, und die Vollbilddaten werden vorzugsweise zuerst verarbeitet.
Das P-Bild stellt Vollbilddaten dar, für die eine prädiktive Kodierung durchgeführt wird, wobei ein Vorwärts-I-Bild oder -P-Bild als Referenz dient. Es wird nach einem I-Bild oder einem P-Bild ver­ arbeitet, das vor ihm liegt.
Das B-Bild stellt Vollbilddaten dar, die zwischen einem I-Bild und einem P-Bild oder zwischen I- Bildern oder P-Bildern liegen, und werden verarbeitet, nachdem ein I-Bild oder I-Bilder bzw. ein P-Bild oder P-Bilder, die vor ihnen liegen, und ein I-Bild oder ein P-Bild, die hinter ihnen liegen, alle verarbeitet sind.
Ein Beispiel für die Struktur der Interframe-Prädiktion in einer GOP ist in Fig. 20 dargestellt. In dieser Figur besteht eine GOP z. B. aus 15 Vollbildern und ist so mit der vorliegenden Erfin­ dung konform. Da in diesem Fall wahlfreier Zugriff in einer GOP erforderlich ist, muß in einer GOP wenigstens ein Vollbild des I-Bildes vorhanden sein. Deshalb enthält eine GOP ein Vollbild des I-Bildes, vier Vollbilder des P-Bildes, das Prädiktion aus einem I-Bild oder einem P-Bild erfor­ dert, die zeitlich früher liegen, sowie die übrigen 10 Vollbilder des B-Bildes, das eine Prädiktion aus einem I-Bild oder I-Bildern und/oder einem P-Bild oder aus P-Bildern erfordert, die in entge­ gensetzten Zeitrichtungen liegen.
Das I-Bild I1 wird nur innerhalb des Vollbilds prädiktiv kodiert.
Das P-Bild P1 wird, mit dem I-Bild I1 als Referenz, interframe-prädiktiv kodiert, und das P-Bild P2 wird, mit dem P-Bild P1 als Referenz, interframe-prädiktiv kodiert. Das P-Bild P3 wird, mit dem P- Bild P2 als Referenz, interframe-prädiktiv kodiert, und das P-Bild P4 wird, mit dem Bild P3 als Re­ ferenz, interframe-prädiktiv kodiert.
Die B-Bilder B3 und B4 werden, mit dem I-Bild I1 und dem P-Bild P1 als Referenz, interframe- prädiktiv kodiert, und die B-Bilder B4 und B5 werden, mit dem P-Bild P1 und dem P-Bild P2 als Referenz, interframe-prädiktiv kodiert. Anschließend wird die prädiktive Kodierung in ähnlicher Weise fortgeführt, wie dies durch die Pfeilmarken angedeutet ist, und die folgenden Bilder (Vollbilddaten) werden dekodiert.
Die außerhalb des Rahmenwerks der Figur angebrachten Nummern 1 bis 15 zeigen die Ausga­ bereihenfolge der Vollbilder der originalen Bilder an.
Die Dekodierung der individuellen Vollbilddaten in der GOP läuft in der beschriebenen Weise ab. Um bestimmte Vollbilddaten zu dekodieren, müssen Vollbilddaten, die vor diesen bestimmten Vollbilddaten zu dekodieren sind, in einer vorbestimmten Reihenfolge verarbeitet werden. Des­ halb ist in Abhängigkeit von der Art und der Position der Vollbilddaten, die als Teilungsfestle­ gungsposition festgelegt werden, eine erhebliche Zeit nach dem Beginn der Dekodierung der GOP erforderlich, bis die Vollbilddaten an der Teilungsfestlegungsposition dekodiert werden. Dies ist die "GOP-Datenanalysezeit". Im folgenden wird ein Beispiel beschrieben.
Fig. 21A bis 21C zeigen GOP-Datenanalysezeiten entsprechend der Differenz in der Teilungs­ festlegungsposition. Die in dieser Figur in O angegebenen Zahlen geben die Reihenfolge der Dekodierung an.
Es sei angenommen, daß die Daten einer GOP so angeordnet sind, wie dies z. B. in Fig. 21A dargestellt ist. Das I-Bild I1, das in der Dekodier-Ausgabereihenfolge an dritter Stelle liegt, ist als Teilungsfestlegungsposition festgelegt.
Dieses I-Bild I1 dient als I-Bild, das in der GOP dem Anfang am nächsten liegt. Es handelt sich um die Vollbilddaten (GOP-Daten), die zuerst dekodiert werden. Wenn die für das Dekodieren des einzelnen I-Bildes benötigte Zeit mit Ti bezeichnet wird und die GOP-Datenanalysezeit mit Tg bezeichnet ist, kann die Zeit Tg für den in Fig. 21A dargestellten Fall ausgedrückt werden als
Tg = Ti
Wenn das P-Bild P2, das in der Dekodier-Ausgabenreihenfolge an neunter Stelle liegt, als Tei­ lungsfestlegungsposition festgelegt wird, wie dies in Fig. 21B dargestellt ist, wird nach dem De­ kodiergesetz für eine GOP zuerst das I-Bild I1 dekodiert. Als zweites wird das P-Bild P1 deko­ diert, und anschließend wird als drittes das P-Bild P2 dekodiert. Das heißt es werden ein I-Bild und zwei P-Bilder dekodiert.
Wenn die für das Dekodieren eines I-Bildes benötigte Zeit, ähnlich wie oben beschrieben, mit Ti und die zum Dekodieren eines P-Bildes benötigte Zeit mit Tp bezeichnet wird, ist die GOP-Da­ tenanalysezeit Tg in diesem Fall gleich
Tg = Ti + 2 × Tp
und damit länger als die Zeit, die in Fig. 21A dargestellt ist.
Wenn das B-Bild B8, das in der Dekodier-Ausgabenreihenfolge an vierzehnter Stelle liegt, als Teilungsfestlegungsposition festgelegt wird, wie in Fig. 21 C dargestellt, muß die Dekodierung der Vollbilddaten in einer Reihenfolge durchgeführt werden, die in der Figur durch die in O ange­ gebenen Zahlen gegeben ist, und die Dekodierung des B-Bildes B8 endet schließlich an drei­ zehnter Stelle in der Dekodierungsreihenfolge.
Wenn die für das Dekodieren eines I-Bildes benötigte Zeit mit Ti und die für das Dekodieren ei­ nes P-Bildes mit Tp bezeichnet wird, und wenn ferner die für das Dekodieren eines B-Bildes be­ nötigte Zeit mit Tb bezeichnet wird, ist die GOP-Datenanalysezeit Tg gleich
Tg = Ti + 2 × T p + 8 × Tb
und damit noch mal länger als in dem Fall von Fig. 21B.
Die vorangehende Beschreibung zeigt, daß die "Wiedergabewartezeit" in dem vorliegenden Ausführungsbeispiel von der Daten-Einlesezeit Td und der GOP-Datenanalysezeit Tg abhängt. Wenn die Wiedergabewartezeit mit Ts bezeichnet wird, läßt sie sich darstellen als
Ts = Td + Tg
In dem vorliegenden Ausführungsbeispiel wird bei der anhand von Fig. 16A bis 16D beschrie­ benen Teilungseditierung die Wiedergabewartezeit Ts entsprechend der vorangehenden Be­ schreibung in Abhängigkeit von der auf dem Pausenbildschirm gesetzten Teilungsfestlegungs­ position berechnet. Auf der Basis der Wiedergabewartezeit Ts wird dann der Glättegrad für die Durchführung der Anzeige bestimmt.
Es ist darauf hinzuweisen, daß z. B. in Abhängigkeit von der tatsächlichen Wiedergabeverarbei­ tung die Zeit einer Daten-Einleseoperation, die als Daten-Einlesezeit Td berechnet wird, und die Zeit für eine GOP-Datendekodieroperation, die als GOP-Datenanalysezeit Tg berechnet wird, einander möglicherweise überlappen können. Die Wiedergabewartezeit wird jedoch durch den relativen Ausdruck repräsentiert, der zur Vereinfachung der Beschriebung oben angegeben wurde. Deshalb kann in der Praxis eine kompliziertere Funktion oder ein komplizierterer Aus­ druck verwendet werden.
9-4. Teilungseditierprozeß
Auf der Basis der vorangehenden Beschreibung und unter Bezugnahme auf die Flußdiagramme von Fig. 22 und 23 wird im folgenden eine Verarbeitungsprozedur für die überlappende Anzeige des Glättungsgrads erläutert, wenn der in Fig. 16B oder 16C dargestellte Pausenbildschirm angezeigt wird.
Es ist darauf hinzuweisen, daß auch dieser Prozeß durchgeführt wird, wenn die Videosteuerung 38 als Hauptsteuerung arbeitet und die die passende Steuerung in der Datenverarbeitungs- /Systemsteuerschaltung 31, in der Treibersteuerung 46 oder dgl. ausgeführt werden.
Wenn z. B. auf der Basis des in Fig. 16B dargestellten Wiedergabebildschirms für die Spuraus­ wahl eine Pause geschaltet wird, während die Spur wiedergegeben wird, wie dies oben anhand von Fig. 16A bis 16D beschrieben wurde, geht die Videosteuerung 38 zu dem Verarbeitungs­ schritt S201 von Fig. 22 über, so daß der in Fig. 16C dargestellte Pausenbildschirm angezeigt wird.
In dem Schritt S201 läuft ein Steuervorgang ab, um GOP-Daten anzuzeigen und auszugeben, die der zu dieser Zeit gesetzten Pausenposition entsprechen, d. h. einer Teilungsfestlegungsposition, d. h. den Vollbilddaten in der Anzeigeregion des Anzeigepanels. Es ist darauf hinzuweisen, daß dann, wenn diese Verarbeitung als Reaktion auf eine Pausenschaltung zuerst ausgeführt wird, die Vollbilddaten, die in dieser Pause angezeigt und ausgegeben werden, kontinuierlich als Standbild ausgegeben werden und die Datenposition der Vollbilddaten als Teilungsfestlegungs­ position betrachtet wird. In diesem Fall werden auch die in Fig. 16C dargestellte "Zurück"-Taste BT4, die "Vorwärts"-Taste BT5 und die "Festlegungs"-Taste BT6 an den vorbestimmten Posi­ tionen auf dem Pausenbildschirm angezeigt.
In dem nächsten Schritt S202 wird dann die Wiedergabewartezeit Ts berechnet, die für den Fall gilt, daß die Wiedergabe von der aktuell gesetzten Teilungsfestlegungsposition aus beginnt. Die­ ser Rechenprozeß ist in Fig. 23 dargestellt.
Wie Fig. 23 zeigt, wird bei der Berechnung der Wiedergabewartezeit Ts in dem Schritt S301 die Paketeigenschaft des AV-Pakets, das die aktuell gesetzte Teilungsfestlegungsposition enthält, eingelesen, und der Inhalt der der Paketeigenschaft wird analysiert. In dem nächsten Schritt S302 wird eine GOP, die die aktuell gesetzte Teilungsfestlegungsposition enthält, auf der Basis der analysierten Inhalte der Paketeigenschaft detektiert.
Wenn eine GOP detektiert ist, wird dann in dem nächsten Schritt S303 die Daten-Einlesezeit Td (Fig. 19) bis zu der GOP, die die Teilungsfestlegungsposition enthält berechnet. Zu diesem Zweck wird der Byte-Offset (Fig. 18) bis zu der GOP bestimmt, die die Teilungsfestlegungsposi­ tion enthält, und zur Durchführung einer arithmetischen Operation nach einem vorbestimmten Ausdruck wird die Datenverarbeitungsgeschwindigkeit usw. verwendet, wenn Daten der Daten­ menge, die dem Byte-Offset entspricht, eingelesen werden.
Die Zeit, bis die betroffene GOP von der Anfangsposition des AV-Pakets eingelesen ist, d. h. die für eine vorbestimmte Einheitsdatenmenge erforderliche Zeit hängt hier z. B. auch davon ab, in welcher Weise die Daten gelesen werden. Es ist z. B. möglich, über eine dem Byte-Oftset ent­ sprechende Datenmenge bis zu der betroffenen GOP zu springen, um auf die betroffene GOP zuzugreifen, oder die Daten tatsächlich sukzessiv von der Anfangsposition des AV-Pakets aus zu lesen. Auf jeden Fall ist es möglich, die Daten-Einlesezeit Td zu bestimmen, indem man eine entsprechende Berechnung auf der Basis der bis zum Einlesen der betroffenen Daten benötig­ ten Verarbeitungszeit und der dem Byte-Offset entsprechenden Datenmenge durchführt.
In dem nächsten Schritt S304 wird dann detektiert, welche Vollbilddaten in der GOP die GOP- Daten (Vollbilddaten) sind, die der Teilungsfestlegungsposition entsprechen. Dies geschieht auf der Basis des Inhalts der Paketeigenschaft, die in dem früheren Schritt S301 analysiert wurde.
Wenn die Detektierung ausgeführt ist, wird dann in dem nächsten Schritt S305 das Dekodieren der GOP-Einheit gestartet. Dies geschieht auf der Basis der Information über die detektierte Po­ sition der GOP, des Bildtyps, der tatsächlichen Verarbeitungsgeschwindigkeit bei der GOP-De­ kodierung usw. Es wird die Zeit berechnet, bis die Vollbilddaten, die der Teilungsfestlegungs­ position entsprechen, detektiert sind und wiedergegeben, angezeigt und endgültig ausgegeben werden können, d. h. die GOP-Datenanalysezeit Tg.
Durch die bisherige Verarbeitung werden die Daten-Einlesezeit Td und die GOP-Datenanalyse­ zeit Tg gewonnen, die Bestandteile der Wiedergabewartezeit Ts sind. So wird in dem Schritt S306 die Wiedergabewartezeit Ts auf der Basis der Daten-Einlesezeit Td und der GOP- Datenanalysezeit Tg berechnet. Die Wiedergabewartezeit Ts kann, wie oben beschrieben, z. B. durch eine einfache arithmetische Operation berechnet werden, die durch Ts = Td + Tg darge­ stellt wird.
Nachdem die Berechnung der Wiedergabewartezeit Ts ausgeführt ist, geht die Videosteuerung 38 mit ihrer Verarbeitung zu dem Schritt S203 von Fig. 22 über.
In dem Schritt S203 bestimmt die Videosteuerung 38 auf der Basis der in dem Schritt S202 be­ rechneten Wiedergabewartezeit Ts den Wert des Glättegrads, der auf dem Pausenbildschirm (Fig. 16C) überlappend dargestellt werden soll. Da die entsprechende Verarbeitung auf unter­ schiedliche Weise erfolgen kann, wird hier auf eine ausführliche Beschreibung verzichtet. Die Wiedergabewartezeit Ts kann z. B. auf eine bestimmte Funktion angewendet werden, um den Wert des Glättegrads zu bestimmen. Wenn für individuelle Werte in gewissen vorbestimmten Abständen stufenweise Werte für den Glättegrad verwendet werden, kann z. B. eine Tabelle be­ nutzt werden, in der Werte des Glättegrads und Bereiche der Wiedergabewartezeit in Beziehung zueinander gesetzt sind, und auf diese Tabelle wird zurückgegriffen, um den Wert des Glätte­ grads zu bestimmen.
In dem nächsten Schritt S204 wird eine Steuerung durchgeführt, um den Wert des Glättegrads, der durch die Verarbeitung in dem Schritt S203 gewonnen wurde, auf dem Pausenbildschirm überlappend anzuzeigen, wie dies z. B. in Fig. 16C dargestellt ist.
Wie Fig. 16C ebenfalls zeigt, werden auf dem Pausenbildschirm auch die "Zurück"-Taste BT4, die "Vorwärts"-Taste BT5 und die "Festlegungs"-Taste BT6 angezeigt und können von dem Benutzer betätigt werden.
So wird z. B. in dem auf dem Schritt S 204 folgenden Schritt S205 festgestellt, ob die "Zurück"- Taste BT4 betätigt ist. Wenn das Ergebnis affirmativ ist, geht die Verarbeitung weiter zu dem Schritt S207. Wenn das Ergebnis hingegen negativ ist, geht die Verarbeitung weiter zu dem Schritt S206, in dem festgestellt wird, ob die "Vorwärts"-Taste BT5 betätigt ist oder nicht. Wenn auch das Ergebnis in dem Schritt S206 affirmativ ist, geht die Verarbeitung weiter zu dem Schritt S207. Wenn das Ergebnis hingegen negativ ist, geht die Verarbeitung weiter zu dem Schritt S208.
Wenn bei der vorangehend beschriebenen Verarbeitung die "Zurück"-Taste BT4 oder die "Vorwärts"-Taste BT5 betätigt wird, während der Pausenbildschirm angezeigt wird, geht die Verarbeitung weiter zu dem Schritt S207.
In dem Schritt S207 wird die Teilungsfestlegungsposition z. B. in einer Vollbild-Dateneinheit in Abhängigkeit von der Betätigung der "Zurück"-Taste BT4 oder der "Vorwärts"-Taste BT5 verän­ dert und neu gesetzt. Die Verarbeitung kehrt dann zu dem Schritt S201 zurück. Wenn die Verar­ beitung von dem Schritt S207 zu dem Schritt S201 zurückkehrt, werden in dem Schritt S201 nach Maßgabe der durch die Verarbeitung in dem Schritt S207 geänderten Teilungsfestlegungs­ position (Pausenposition) eine Bildsignalverarbeitung zur Änderung der anzuzeigenden und als Standbild auszugebenden Vollbilddaten (GOP-Daten) und eine entsprechende Anzeigesteuerung ausgeführt.
Wenn weder die "Zurück"-Taste BT4 noch die "Vorwärts"-Taste BT5 noch die "Festlegungs"- Taste BT6 betätigt werden, während der Pausenbildschirm angezeigt wird, liefert der Schritt S208 ein negatives Ergebnis, und die Verarbeitung kehrt zu dem Schritt S204 zurück. Während der Pausenanzeige der Vollbilddaten, die der aktuell gesetzten Teilungsfestlegungsposition ent­ sprechen, wird in Abhängigkeit von der Verarbeitungsprozedur der "Verknüpfungs-Glättegrad" für die aktuell gesetzte Teilungsfestlegungsposition überlappend angezeigt.
Wenn dann die "Festiegungs"-Taste BT6 betätigt wird, liefert der Schritt S208 ein affirmatives Ergebnis. In diesem Fall wird ein nicht dargestellter Prozeß für einen Funktionsmodus zur Anzei­ ge des in Fig. 16D dargestellten Bildschirms für die Ausführung der Teilung durchgeführt. Mit anderen Worten, während die Vollbilddaten, die bei der Betätigung der "Festlegungs"-Taste BT6 angezeigt wurden, kontinuierlich weiter angezeigt werden, wird die "Stopp"-Taste BT8 überlap­ pend angezeigt, so daß der Bildschirm für die Ausführung der Teilung dargestellt wird, und die Vollbilddaten, die dann angezeigt werden, werden als endgültiger Kandidat für die Teilungsfest­ legungsposition gesetzt. Anschließend läuft ein Prozeß ab, der der Betätigung der "Stopp"-Ta­ ste BT7 oder der "Ausführen"-Taste BT8 entspricht. Wenn z. B. die "Ausführen"-Taste BT8 be­ tätigt wird, werden die Beschreibungsinhalte des Scripts neu geschrieben, so daß die Datei an des betreffenden Teilungsfestlegungsposition geteilt werden kann, wie dies oben beispielhaft beschrieben wurde.
Es ist darauf hinzuweisen, daß die Erfindung nicht auf die oben beschriebene Konstruktion be­ schränkt ist und daß zahlreiche Modifizierungen möglich sind.
So ist z. B. das Kompressionsformat für Bewegtbilddaten nicht auf das MPEG-System, ein­ schließlich MPEG2, beschränkt, es kann vielmehr auch ein Kompressionsverfahren nach einem anderen System benutzt werden. Auch das Aufzeichnungsformat ist nicht auf das beschriebene Beispiel beschränkt. Außerdem ist die vorliegende Erfindung nicht nur auf Bewegtbilddaten an­ wendbar sondern auch dann, wenn z. B. eine Teilungseditierung von Audiodaten oder dgl. durchgeführt wird. Während in dem Ausführungsbeispiel die Wiedergabewartezeit als Bewer­ tung des Wiedergabezustands einer durch Teilung gewonnenen Datei bewertet wird, ist es auch möglich, z. B. einen Wiedergabezustand zu bewerten, dessen Meldung an den Benutzer vorteil­ haft ist, und den Benutzer von dem Ergebnis der durch eine Anzeige oder dgl. zu informieren.
Das mit der vorliegenden Erfindung konforme Aufzeichnungsmedium kann auch bei einer Video­ kamera angewendet werden, die für ein anderes Aufzeichnungsmedium ausgelegt ist, z. B. für ein anderes plattenförmiges Aufzeichnungsmedium als eine Minidisc (MD) oder ein Speicher­ element, wie einen Flash-Speicher. Das Aufzeichnungsmedium kann auch bei einer Videoka­ mera angewendet werden, die für ein bandförmiges Medium ausgelegt ist.
Außerdem kann die vorliegende Erfindung nicht nur bei einem Videogerät angewendet werden, sondern auch bei verschiedenen anderen Audio- und Videogeräten, die eine vorbestimmte Art von Aufzeichnungsmedien aufzeichnen und abspielen können.
Vorangehend wurde ein bevorzugtes Ausführungsbeispiel der Erfindung unter Verwendung spezifischer Ausdrücke beschrieben. Diese Beschreibung dient lediglich zur Erläuterung, und es sind selbstverständlich Änderungen und Variationen möglich, ohne daß damit der Bereich der folgenden Ansprüche verlassen wird.

Claims (17)

1. Editiergerät zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem Speichermedium gespeichert werden sollen, mit
einer Festlegungseinrichtung zum Festlegen einer Editierposition für die kodierten Daten,
einer Bewertungseinrichtung zum Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festlegungseinrichtung festgelegten Editierposition aus wiedergegeben werden,
und einer Hinweiseinrichtung zum Hinweisen des Benutzers des Editiergeräts auf das Be­ wertungsergebnis der Bewertungseinrichtung.
2. Editiergerät nach Anspruch 1, bei dem die Bewertungseinrichtung als Bewertungsergebnis eine Wiedergabewartezeit ausgibt, die erforderlich ist, um die Wiedergabe nach einem Befehl, die kodierten Daten von der Editierposi­ tion aus wiederzugeben und auszugeben, zu starten.
3. Editiergerät nach Anspruch 2, bei dem
die Bewertungseinrichtung den Wiedergabekontinuitätsgrad ausgibt, der für Kontinuität der Wiedergabe repräsentativ ist und auf der auszugebenden Wiedergabewartezeit basiert, und
die Hinweiseinrichtung veranlaßt, daß der von der Bewertungseinrichtung ausgegebene Wiedergabekontinuitätsgrad auf einem Anzeigeteil angezeigt wird.
4. Editiergerät nach Anspruch 2, bei dem die Bewertungseinrichtung als Wiedergabewartezeit zumindest die Datenauslesezeit arith­ metisch ermittelt, die erforderlich ist, um Paketdaten, die eine Mehrzahl von kodierten Datenein­ heiten enthalten, vom Anfang der Paketdaten bis zu derjenigen der kodierten Dateneinheiten auszulesen, die die Editierposition enthält.
5. Editiergerät nach Anspruch 2, bei dem
das Speichermedium eine Platte ist,
das Editiergerät ferner eine Leseeinrichtung für den Zugriff auf eine vorbestimmte Position der Platte aufweist, um die an dieser vorbestimmten Position der Platte aufgezeichneten Daten auszulesen,
die Bewertungseinrichtung als Wiedergabewartezeit zumindest die Zeit arithmetisch ermit­ telt, die benötigt wird, um die Headerinformation der eine Mehrzahl von kodierten Dateneinhei­ ten enthaltenden Paketdaten auszulesen, sowie die Zugriffszeit, die die Leseeinrichtung benö­ tigt, um auf die Platte nach Maßgabe der physikalischen Kopfadresse einer der kodierten Daten­ einheiten zuzugreifen, die die aus der Headerinformation detektierte Editierposition enthält.
6. Editiergerät nach Anspruch 4, bei dem
die Bewertungseinrichtung als Wiedergabewartezeit die Dekodierzeit arithmetisch ermittelt, die benötigt wird, um die kodierte Dateneinheit, die die Editierposition enthält, bis zu den die Editierposition enthaltenden kodierten Daten zu dekodieren,
wobei die Wiedergabewartezeit durch Addieren der Dekodierzeit zu der Datenauslesezeit arithmetisch ermittelt wird.
7. Editiergerät nach Anspruch 1, das ferner aufweist:
eine Festlegungseinrichtung zum Festlegen der Editierposition und
eine Aktualisierungseinrichtung zum Aktualisieren eines Scripts für die Steuerung der auf dem Aufzeichnungsmedium aufgezeichneten kodierten Daten nach Maßgabe der durch die Festlegungseinrichtung festgelegten Editierposition,
wobei das Script in dem Speichermedium in einer korrespondierenden Relation zu den ko­ dierten Daten gespeichert ist.
8. Editiergerät nach Anspruch 7, bei dem
in dem Aufzeichnungsmedium eine Mehrzahl von kodierten Daten gespeichert wird,
und das Editiergerät ferner aufweist:
eine Auswahleinrichtung zum Auswählen eines Exemplars aus der Mehrzahl von kodierten Daten,
eine Dekodiereinrichtung zum Dekodieren der von der Auswahleinrichtung ausgewählten kodierten Daten und zum Ausgeben der resultierenden dekodierten Daten und
eine Ausgabeeinrichtung zum Ausgeben der dekodierten Daten in einer vorbestimmten Einheit,
wobei die Aktualisierungseinrichtung die letzte Einheit in dem Script aufzeichnet, wenn die ersten kodierten Daten in der vorbestimmten Einheit, die durch das Teilen der kodierten Daten auf der Basis der Editierposition gewonnen werden sollen, sowie die Kopfeinheit der auf die er­ sten kodierten Daten folgenden zweiten kodierten Daten von der Ausgabeeinrichtung ausgege­ ben werden,
wobei die Auswahleinrichtung so betrieben werden kann, daß sie von den ersten kodierten Daten und den zweiten kodierten Daten eine auswählt,
und wobei die Dekodiereinrichtung und die Auswahleinrichtung so betrieben werden kön­ nen, daß sie von den dem Script entsprechend auswählten ersten kodierten Daten und den zweiten kodierten Daten nur eine ausgeben.
9. Editiergerät zum Editieren von kodierten Bilddaten, die eine Mehrzahl von Bildergruppen (GOPs) umfassen,
mit einem Dekodierteil zum Dekodieren der kodierten Bilddaten und zum Ausgeben von dekodierten Bilddaten,
mit einem Anzeigeteil zum Anzeigen der von dem Dekodierteil ausgegebenen dekodierten Bilddaten,
mit einem Anzeigesteuerteil zum Steuern des Anzeigeteils in der Weise, daß sie die Anzei­ ge mit einem Vollbild oder Halbbild an der gewünschten Position der dekodierten Bilddaten, die von dem Anzeigeteil angezeigt werden, nach Maßgabe eines Benutzerbefehls temporär stoppt,
und mit einem Bewertungsteil zum Bewerten des Wiedergabezustands der zweiten Bildda­ ten, wenn die dekodierten Bilddaten nach Maßgabe des genannten Benutzerbefehls in erste Bilddaten und in zweite Bilddaten geteilt sind,
wobei der Anzeigesteuerteil den Anzeigeteil so steuert, daß das Bewertungsergebnis des Bewertungsteils angezeigt wird.
10. Editiergerät nach Anspruch 9, bei dem der Bewertungsteil
auf Paketdaten zugreift, die eine Bildergruppe enthalten, welche einer gewünschten Positi­ on der dekodierten Bilddaten entspricht, um die Paketdaten auszulesen,
die ausgelesenen Paketdaten analysiert,
die der gewünschten Position entsprechende Position in der Bildergruppe nach Maßgabe des Ergebnisses der Analyse detektiert und
die Datenauslesezeit auf der Basis der Position der Bildergruppe arithmetisch ermittelt.
11. Editiergerät nach Anspruch 10, bei dem der Bewertungsteil
die kodierten Daten detektiert, die der gewünschten Position in der Bildergruppe entspre­ chen,
die Bilddaten analysiert, um die der Dekodierzeit der kodierten Bilddaten entsprechende Da­ tendekodierzeit arithmetisch zu ermitteln und
die Datenauslesezeit und die Datendekodierzeit addiert, um die Wiedergabewartezeit arith­ metisch zu ermitteln.
12. Editiergerät nach Anspruch 9, ferner mit einem Ausleseteil zum Auslesen von Daten von ei­ ner Platte, auf der die kodierten Daten aufgezeichnet sind.
13. Editiergerät nach Anspruch 12, bei dem die Platte eine optische Platte ist
mit ersten Spuren, die eine gewobbelte Spur und eine nicht gewobbelte Spur aufweisen, die jeweils entweder durch ein Land oder eine Rille implementiert sind, wobei eine gewobbelte Spur eine Spur ist, deren beiden Seitenflächen gewobbelt sind, während eine nicht gewobbelte Spur eine Spur ist, die keine gewobbelte Seitenfläche besitzt,
sowie mit zweiten Spuren, die jeweils zwischen den ersten Spuren eingefaßt sind und zum Aufzeichnen von Daten benutzt werden,
wobei dann, wenn die erste Spur durch eine Rille implementiert ist, die zweite Spur durch ein Land implementiert ist, und wenn die erste Spur durch ein Land implementiert ist, die zweite Spur durch eine Rille implementiert ist.
14. Editiergerät nach Anspruch 13, ferner mit
einem Bildaufnahmeteil zum fotoelektrischen Umwandeln des von einem Aufnahmegegen­ stand reflektierten Lichts in Bilddaten,
einem Komprimiererteil zum Komprimieren der Bilddaten in kodierte Bilddaten nach dem MPEG-System und
einem Aufzeichnungsteil zum Aufzeichnen der kodierten Bilddaten auf der Platte.
15. Editiergerät nach Anspruch 12, bei kodierte Audiodaten auf der Platte aufgezeichnet werden.
16. Verfahren zum Editieren von in einer vorbestimmten Einheit kodierten Daten, die in einem Speichermedium gespeichert werden sollen, mit den Verfahrensschritten:
Festlegen einer Editierposition für die kodierten Daten,
Bewerten des Wiedergabezustands, wenn die kodierten Daten von der durch die Festle­ gungseinrichtung festgelegten Editierposition aus wiedergegeben werden, und Hinweisen des Benutzers auf das Bewertungsergebnis.
17. Verfahren zum Editieren von kodierten Bilddaten mit einer Mehrzahl von Bildergruppen, mit den Verfahrensschritten:
Dekodieren der kodierten Bilddaten und Ausgeben der dekodierten Bilddaten,
Anzeigen der ausgegebenen dekodierten Bilddaten auf einem Anzeigeteil,
temporäres Stoppen der Anzeige mit einem Vollbild oder Halbbild der an einer gewünschten Position angezeigten dekodierten Bilddaten nach Maßgabe eines Benutzerbefehls,
wenn die dekodierten Bilddaten an der gewünschten Position in ersten Bilddaten und zwei­ te Bilddaten geteilt werden, Bewerten des Wiedergabezustands der zweiten Bilddaten und
Anzeigen des Bewertungsergebnisses auf dem Anzeigeteil.
DE10115084A 2000-03-27 2001-03-27 Editiergerät und Editierverfahren Withdrawn DE10115084A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000090721A JP4348821B2 (ja) 2000-03-27 2000-03-27 編集装置、編集方法

Publications (1)

Publication Number Publication Date
DE10115084A1 true DE10115084A1 (de) 2001-10-04

Family

ID=18606292

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10115084A Withdrawn DE10115084A1 (de) 2000-03-27 2001-03-27 Editiergerät und Editierverfahren

Country Status (4)

Country Link
US (1) US7236684B2 (de)
JP (1) JP4348821B2 (de)
DE (1) DE10115084A1 (de)
GB (1) GB2364428B (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3795382B2 (ja) * 2001-11-21 2006-07-12 松下電器産業株式会社 情報記録装置および方法ならびに情報再生装置および方法
KR100584176B1 (ko) * 2002-02-22 2006-05-26 엘지전자 주식회사 재기록 가능 고밀도 기록매체의 정지영상 관리방법
KR100467603B1 (ko) * 2002-08-08 2005-01-24 삼성전자주식회사 태스크 기반의 비선형 하이퍼비디오 편집방법 및 그 장치
US7557838B2 (en) * 2002-11-15 2009-07-07 Sony Corporation Imaging method and imaging apparatus
EP1435619A3 (de) * 2003-01-02 2007-07-18 Samsung Electronics Co., Ltd. Multimediagerät mit Diavorführung und zugehörigen Tonsignalen
JP4331488B2 (ja) * 2003-02-20 2009-09-16 パナソニック株式会社 集積回路及びそれを用いた電子機器
JP2004355794A (ja) * 2003-05-07 2004-12-16 Matsushita Electric Ind Co Ltd 記録再生装置及び記録再生方法
CN1784745A (zh) * 2003-05-07 2006-06-07 松下电器产业株式会社 记录再生装置和记录再生方法
JP2005142853A (ja) * 2003-11-06 2005-06-02 Toshiba Corp 映像編集装置及び映像編集方法
JP4314980B2 (ja) * 2003-12-01 2009-08-19 ソニー株式会社 撮像装置
KR100585668B1 (ko) * 2004-03-22 2006-06-07 엘지전자 주식회사 가상 미디어파일 시스템을 이용한 멀티미디어 편집 방법및 장치와 멀티미디어 파일 구조
US20060034536A1 (en) * 2004-06-23 2006-02-16 Ogren Wayne E Systems and methods relating to magnitude enhancement analysis suitable for high bit level displays on low bit level systems, determining the material thickness, and 3D visualization of color space dimensions
JP2006148731A (ja) * 2004-11-24 2006-06-08 Sony Corp 記録装置および方法、再生装置および方法、プログラム、並びに記録媒体
JP2006186420A (ja) * 2004-12-24 2006-07-13 Canon Inc 撮像装置及び撮像装置の制御方法
JP2006191301A (ja) * 2005-01-05 2006-07-20 Toshiba Corp デジタルカメラ及び電子機器
JP2006191300A (ja) * 2005-01-05 2006-07-20 Toshiba Corp デジタルカメラ及び電子機器
JP4636887B2 (ja) * 2005-01-11 2011-02-23 キヤノン株式会社 光学機器
JP4471882B2 (ja) * 2005-03-31 2010-06-02 三洋電機株式会社 表示装置および表示方法
EP1718065A1 (de) * 2005-04-30 2006-11-02 STMicroelectronics (Research & Development) Limited Verfahren und Vorrichtung zur Bilddatenverarbeitung
KR100736076B1 (ko) * 2005-10-24 2007-07-06 삼성전자주식회사 화면 캡처 기능을 제공하는 휴대용 장치 및 그 방법
JP4285512B2 (ja) * 2006-07-31 2009-06-24 ソニー株式会社 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法
JP4838659B2 (ja) * 2006-08-01 2011-12-14 キヤノン株式会社 再生装置及び再生装置の制御方法
JP4659714B2 (ja) * 2006-09-29 2011-03-30 ソニー株式会社 記録再生装置及びコンテンツ管理方法
JP4967572B2 (ja) * 2006-09-29 2012-07-04 ソニー株式会社 記録再生装置及び記録再生方法
JP4946426B2 (ja) * 2006-12-27 2012-06-06 株式会社日立製作所 記録方法
JP4807250B2 (ja) * 2006-12-27 2011-11-02 株式会社日立製作所 記録方法
US20090251311A1 (en) * 2008-04-06 2009-10-08 Smith Patrick W Systems And Methods For Cooperative Stimulus Control
US8837901B2 (en) * 2008-04-06 2014-09-16 Taser International, Inc. Systems and methods for a recorder user interface
US10354689B2 (en) 2008-04-06 2019-07-16 Taser International, Inc. Systems and methods for event recorder logging
JP5208057B2 (ja) * 2009-06-16 2013-06-12 キヤノン株式会社 画像処理装置およびその制御方法
KR20120058763A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 영상 장치에서 영상 데이터를 송신하기 위한 장치 및 방법
JP2018093412A (ja) * 2016-12-06 2018-06-14 株式会社日立製作所 演算装置、送信プログラム、送信方法
JP6898667B2 (ja) * 2019-06-24 2021-07-07 株式会社インタラクティブソリューションズ プレゼンテーションマネジメントシステム
US12340299B2 (en) * 2021-03-05 2025-06-24 Qualcomm Incorporated Sparsity-based neural network mapping to computing units in a system-on-chip

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0764951B1 (de) * 1995-04-08 2002-09-18 Sony Corporation Schnittsystem
JP3277787B2 (ja) * 1995-12-21 2002-04-22 ソニー株式会社 音声・映像データ記録・再生装置
JP3325464B2 (ja) * 1996-07-18 2002-09-17 沖電気工業株式会社 動画像処理装置
US6064793A (en) * 1996-09-18 2000-05-16 Canon Kabushiki Kaisha Reproducing apparatus having editing function
DE69832544T2 (de) 1997-02-19 2006-08-10 Canon K.K. Anordnung und Verfahren zur Bildbearbeitung und Medium mit darauf gespeicherten Programmen
GB2328550B (en) 1997-08-01 2000-02-09 Discreet Logic Inc Editing image data
JPH1169301A (ja) * 1997-08-08 1999-03-09 Sony Corp 復号方法及び復号再生装置、並びに記録媒体
GB2336022A (en) 1998-04-03 1999-10-06 Discreet Logic Inc Edit processing audio-visual data
JP4207099B2 (ja) 1998-09-29 2009-01-14 ソニー株式会社 画像編集装置及びその方法

Also Published As

Publication number Publication date
US20020012522A1 (en) 2002-01-31
JP4348821B2 (ja) 2009-10-21
GB2364428B (en) 2004-01-21
GB0107534D0 (en) 2001-05-16
US7236684B2 (en) 2007-06-26
JP2001275083A (ja) 2001-10-05
GB2364428A (en) 2002-01-23

Similar Documents

Publication Publication Date Title
DE10115084A1 (de) Editiergerät und Editierverfahren
DE69621982T2 (de) Aufnahmeträger und Wiedergabevorrichtung für Playbackdaten
DE60023560T2 (de) Multimedia-fotoalben
DE69603769T2 (de) Aufzeichnungsmedium, Datenaufzeichnungsverfahren und -vorrichtung
DE60002732T2 (de) Digitales videoverarbeitungs- und speichersystem für video-, audio- und zusatzdaten
DE69632894T2 (de) Informationsaufzeichnungsmedium und -wiedergabegerät
DE69914111T2 (de) Informationsaufzeichnungsmedium, Vorrichtung und Verfahren zur Wiedergabe von Daten davon
DE69623756T2 (de) Kombiniertes editier-und aufzeichnungssystem für digitale,bewegte bilder
DE69812258T2 (de) Videodatenschnittgerät, optische Platte zur Verwendung als Aufzeichnungsmedium dafür und rechnerlesbares Aufzeichnungsmedium
DE60007876T2 (de) Digitales videoverarbeitungs- und schnittstellensystem für video-, audio- und zusatzdaten
DE60000052T2 (de) Optische Platte, Aufzeichnungs- und Wiedergabeanordnung
DE69805256T2 (de) Videodatenschnittgerät und rechnerlesbares Aufzeichnungsmedium zur Speicherung eines Schnittprogramms
US6052508A (en) User interface for managing track assignment for portable digital moving picture recording and editing system
DE60009337T2 (de) Verfahren zur bearbeitung von quellenvideomaterial für zeitlupe und schnellwiedergabe auf dem aufnahmemedium
DE60032105T2 (de) Reihenfolge von titeln in einer echtzeit dvd videoaufzeichnung
DE60020872T2 (de) Bildgenauer schnitt ohne dekodierung und neukodierung eines mpeg-bitstroms für einschreibare dvd
JP3951778B2 (ja) 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,プログラム,映像コンテンツ編集支援方法
DE60130104T2 (de) System und verfahren zur sofortigen wiederholung mit mehreren perspektiven
JP4269465B2 (ja) 画像表示システム、及び画像表示方法
JP2004180279A (ja) コンテンツ編集支援システム,映像処理装置,再生装置,編集装置,コンピュータプログラム,およびコンテンツ処理方法
JP4178679B2 (ja) 記録再生装置、画像表示方法
JP2012147288A (ja) 放送システム
JP4820485B2 (ja) 画像処理装置
JP2001069387A (ja) 記録装置、記録方法
JP4110817B2 (ja) 映像コンテンツ編集支援システム,記録再生装置,編集者端末装置,コンピュータプログラム,記憶媒体,映像コンテンツ編集支援方法

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee