[go: up one dir, main page]

JP2024099141A - Video recording device, video recording device control method, and program - Google Patents

Video recording device, video recording device control method, and program Download PDF

Info

Publication number
JP2024099141A
JP2024099141A JP2023002857A JP2023002857A JP2024099141A JP 2024099141 A JP2024099141 A JP 2024099141A JP 2023002857 A JP2023002857 A JP 2023002857A JP 2023002857 A JP2023002857 A JP 2023002857A JP 2024099141 A JP2024099141 A JP 2024099141A
Authority
JP
Japan
Prior art keywords
metadata
recording
video
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023002857A
Other languages
Japanese (ja)
Inventor
良太 八木
Ryota Yagi
智章 小宮山
Tomoaki Komiyama
晃一 村田
Koichi Murata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023002857A priority Critical patent/JP2024099141A/en
Publication of JP2024099141A publication Critical patent/JP2024099141A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

To restore metadata in a more suitable manner even in a situation where the metadata associated with a video image is lost.SOLUTION: A control unit 10 acquires one piece of planning data from multiple pieces of planning data. The control unit 10 extracts camera recording information from a video file. The control unit 10 generates an XML file on the basis of the acquired planning data and the extracted camera recording information, and records the XML file in association with the video. The control unit 10 records location information of the planning data in association with the video. When the XML file associated with the video is lost, the control unit 10 reads out the planning data on the basis of the location information, and generates an XML file on the basis of the planning data and the camera recording information.SELECTED DRAWING: Figure 1

Description

本開示は、動画像記録装置、動画像記録装置の制御方法、及びプログラムに関する。 This disclosure relates to a video recording device, a control method for a video recording device, and a program.

放送局や通信社等における報道ワークフローにおいて、取材時に撮像された動画像のコンテンツに付帯される付帯情報(以下、メタデータとも称する)を活用することで、撮像された動画像のコンテンツ編集作業やコンテンツ管理の効率化が行われている。 In the news workflow at broadcasting stations and news agencies, the content editing and management of captured video is made more efficient by utilizing additional information (hereinafter referred to as metadata) that is attached to the video content captured during reporting.

一方で、上記メタデータは、ビデオカメラ等のような動画像記録装置(換言すると、撮像装置)にて撮像時に生成されるが、ユーザの誤操作による削除や、ソフトウェアの不具合等により消失する場合がある。このような状況を鑑み、特許文献1には、メタデータであるコンテンツ属性ファイルを予め外部の記憶装置にバックアップを記録しておき、要求に応じてコンテンツ属性ファイルを再取得することで復元する方法が開示されている。 On the other hand, the above metadata is generated when a moving image recording device (in other words, an imaging device) such as a video camera captures an image, but it may be deleted by a user's mistake or lost due to a software malfunction. In view of this situation, Patent Document 1 discloses a method of restoring the metadata by recording a backup of a content attribute file, which is metadata, in advance in an external storage device and reacquiring the content attribute file upon request.

特開2005-107770号公報JP 2005-107770 A

一方で、ビデオカメラ等のような動画像記録装置は、バックアップを取るための外部記憶装置と接続されていない状況で使用されることが多い。このような場合には、メタデータのバックアップの記録が行われる前に、当該メタデータが消失するような状況も想定され、このような状況下では、消失したメタデータを復元することが困難となり、ひいてはコンテンツ管理に影響を及ぼす場合がある。 On the other hand, video recording devices such as video cameras are often used in situations where they are not connected to an external storage device for taking backups. In such cases, it is conceivable that metadata may be lost before a backup of the metadata is recorded. In such a situation, it may be difficult to restore the lost metadata, which may affect content management.

本発明は上記の問題を鑑み、動画像に関連付けられたメタデータが失われた状況下においても、当該メタデータの復旧をより好適な態様で実現可能とすることを目的とする。 In consideration of the above problems, the present invention aims to make it possible to recover metadata associated with a video in a more suitable manner even in a situation where the metadata has been lost.

本発明に係る動画像記録装置は、複数の第一メタデータの中から1つの第一メタデータを取得する取得手段と、動画像から記録内容に係る情報を抽出する抽出手段と、前記取得手段により取得された第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成手段と、前記動画像と、前記第二メタデータとを関連付けて記録する第一記録手段と、前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録手段と、を有し、前記第一生成手段は、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成することを特徴とする。 The video recording device according to the present invention includes an acquisition means for acquiring one first metadata from among a plurality of first metadata, an extraction means for extracting information related to the recorded contents from the video, a first generation means for generating second metadata from the first metadata acquired by the acquisition means and the information related to the recorded contents extracted by the extraction means, a first recording means for recording the video and the second metadata in association with each other, and a second recording means for recording location information indicating a location where the first metadata used to generate the second metadata is stored in association with the video with which the second metadata is associated, and is characterized in that, when the second metadata associated with the video is lost, the first generation means reads out the first metadata based on the location information and generates the second metadata from the first metadata and the information related to the recorded contents extracted by the extraction means.

本発明によれば、動画像に関連付けられたメタデータが失われた状況下においても、当該メタデータの復旧をより好適な態様で実現することが可能となる。 According to the present invention, even in a situation where metadata associated with a video image is lost, it is possible to restore the metadata in a more suitable manner.

撮像装置の構成の一例を示した図である。FIG. 1 is a diagram illustrating an example of a configuration of an imaging device. プランニングデータの管理に係るフォルダ構成の一例を示した図である。FIG. 2 is a diagram showing an example of a folder configuration related to management of planning data. 動画像の及び付加情報の管理に係るフォルダ構成の一例を示した図である。FIG. 2 is a diagram showing an example of a folder configuration relating to management of moving images and additional information. 動画像のファイルの構成の一例を示した図である。FIG. 2 is a diagram showing an example of the configuration of a moving image file. メタデータの一例を示した図である。FIG. 11 is a diagram illustrating an example of metadata. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. メニュー画面の一例を示した図である。FIG. 11 is a diagram showing an example of a menu screen. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. 情報の報知に使用される画面の一例を示した図である。FIG. 13 is a diagram showing an example of a screen used for notifying information. 携帯端末の構成の一例を示した図である。FIG. 2 is a diagram illustrating an example of a configuration of a mobile terminal. 撮像装置及び携帯端末の処理の一例を示したシーケンス図である。FIG. 11 is a sequence diagram showing an example of processing performed by the imaging device and the mobile terminal. 携帯端末の処理の一例を示したフローチャートである。10 is a flowchart showing an example of a process of a mobile terminal. 操作画面の一例を示した図である。FIG. 13 is a diagram showing an example of an operation screen. 操作画面の一例を示した図である。FIG. 13 is a diagram showing an example of an operation screen. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. メタデータの一例を示した図である。FIG. 11 is a diagram illustrating an example of metadata. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. 撮像装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing performed by the imaging device. 携帯端末の処理の一例を示したフローチャートである。11 is a flowchart showing an example of a process of a mobile terminal. 情報の報知に使用される画面の一例を示した図である。FIG. 13 is a diagram showing an example of a screen used for notifying information.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the attached drawings. Note that in this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

<第1の実施形態>
本開示の第1の実施形態について以下に説明する。まず、図1を参照して、本実施形態に係る撮像装置の構成の一例について説明する。本実施形態に係る撮像装置100は、カムコーダ等のような所謂デジタルカメラにより実現される。
撮像装置100は、制御部10と、ROM(Read Only Memory)17と、RAM(Random Access Memory)18と、画像圧縮/伸長部11と、撮像部12と、画像処理部13とを含む。また、撮像装置100は、無線通信部14と、表示部15と、操作部16と、着脱可能記録媒体I/F19とを含む。制御部10と、上記に例示した制御部10以外の各構成部とは、バス等を介して互いにデータを送受信可能に接続されている。
First Embodiment
A first embodiment of the present disclosure will be described below. First, an example of the configuration of an image capture device according to the present embodiment will be described with reference to Fig. 1. The image capture device 100 according to the present embodiment is realized by a so-called digital camera such as a camcorder.
The imaging device 100 includes a control unit 10, a ROM (Read Only Memory) 17, a RAM (Random Access Memory) 18, an image compression/expansion unit 11, an imaging unit 12, and an image processing unit 13. The imaging device 100 also includes a wireless communication unit 14, a display unit 15, an operation unit 16, and a removable recording medium I/F 19. The control unit 10 and each of the components other than the control unit 10 exemplified above are connected to each other via a bus or the like so as to be able to transmit and receive data to and from each other.

制御部10は、撮像装置100のシステム全般を制御するシステム制御部である。また、制御部10は、各構成部の動作を制御する。制御部10は、例えば、CPU(Central Processing Unit)により実現され得る。ROM17は、不揮発性の記録媒体であり、制御部10が実行するプログラムを記憶している。RAM18は制御部10のワークメモリとして用いられる揮発性の記録媒体である。図3A~図3C、図5、図8、図9D、図11、図12Aを参照して後述する処理は、例えば、ROM17に記録されたプログラムがRAM18に展開されて制御部10により実行されることで実現される。
また、RAM18は、撮像部12にて撮像されて画像処理部13により画像処理された画像データや、着脱可能記録媒体20から読み出された画像データに対して、画像圧縮/伸長部11が圧縮処理または伸長処理を施す際の、一時的な記憶領域として用いられる。また、RAM18は、上記に例示した画像データが示す画像が表示部15に表示されるに、当該画像データを保持するための一時的な記憶領域としても用いられる。
The control unit 10 is a system control unit that controls the entire system of the imaging device 100. The control unit 10 also controls the operation of each component. The control unit 10 can be realized, for example, by a CPU (Central Processing Unit). The ROM 17 is a non-volatile recording medium that stores a program executed by the control unit 10. The RAM 18 is a volatile recording medium used as a work memory for the control unit 10. The processing described later with reference to Figures 3A to 3C, 5, 8, 9D, 11, and 12A is realized, for example, by a program recorded in the ROM 17 being expanded in the RAM 18 and executed by the control unit 10.
The RAM 18 is also used as a temporary storage area when the image compression/expansion unit 11 performs compression or expansion processing on image data captured by the imaging unit 12 and processed by the image processing unit 13, or image data read from the removable recording medium 20. The RAM 18 is also used as a temporary storage area for holding image data such as those exemplified above when an image represented by the image data is displayed on the display unit 15.

着脱可能記録媒体I/F19は、種々のデータを記録するための記録媒体を撮像装置100に接続させるためのインタフェースである。例えば、当該記録媒体が、画像データを記録するために用いられてもよい。着脱可能記録媒体I/F19は、例えば、メモリカード等の着脱可能な記録媒体を挿入可能なスロットとして実現されてもよい。なお、図1に示す例では、着脱可能記録媒体I/F19に対して着脱可能記録媒体20が装着されているものとする。なお、画像データの記録に利用する記録媒体については、必ずしも撮像装置100に対して着脱可能な記録媒体のみには限定されない。例えば、撮像装置100に内蔵された記録媒体(例えば、メモリ等)に画像デーが記録されてもよい。 The removable recording medium I/F 19 is an interface for connecting a recording medium for recording various data to the imaging device 100. For example, the recording medium may be used to record image data. The removable recording medium I/F 19 may be realized as a slot into which a removable recording medium such as a memory card can be inserted. In the example shown in FIG. 1, it is assumed that a removable recording medium 20 is attached to the removable recording medium I/F 19. The recording medium used to record image data is not necessarily limited to a recording medium that is removable from the imaging device 100. For example, image data may be recorded on a recording medium (e.g., a memory) built into the imaging device 100.

画像処理部13は、撮像部12による撮像結果に応じた画像データに対して、所定の画素補間処理、リサイズ処理、及び色変換処理等の種々の画像処理を施す。また、画像処理部13は、撮像結果に応じた画像データを用いて所定の演算処理を実行して、当該演算処理の結果を制御部10に通知してもよい。これにより、例えば、制御部10は、画像処理部13による上記演算処理の結果に基づいて、撮像部12による撮像に関する各種制御(例えば、露光制御、オートホワイトバランス制御等)を行うことが可能となる。
画像圧縮/伸長部11は、画像処理部13により画像処理が施された画像データに対して、所定のフォーマットで圧縮処理を施す。また、画像圧縮/伸長部11は、圧縮処理が施された画像データに対して、所定のフォーマットに従い伸長処理を施してもよい。具体的な一例として、画像圧縮/伸長部11は、着脱可能記録媒体20から読み出された画像データ(圧縮処理が施された画像データ)に対して伸長処理を施してもよい。
The image processing unit 13 performs various image processing such as predetermined pixel interpolation processing, resizing processing, and color conversion processing on image data corresponding to the imaging result by the imaging unit 12. The image processing unit 13 may also execute predetermined arithmetic processing using image data corresponding to the imaging result and notify the control unit 10 of the result of the arithmetic processing. This allows the control unit 10 to perform various controls (e.g., exposure control, auto white balance control, etc.) related to imaging by the imaging unit 12 based on the result of the arithmetic processing by the image processing unit 13, for example.
The image compression/expansion unit 11 performs compression processing in a predetermined format on the image data that has been subjected to image processing by the image processing unit 13. The image compression/expansion unit 11 may also perform expansion processing on the compressed image data in accordance with a predetermined format. As a specific example, the image compression/expansion unit 11 may perform expansion processing on image data (compressed image data) read from the removable recording medium 20.

撮像部12は、撮像レンズ(例えば、ズームレンズとフォーカスレンズとを含む)と、撮像素子とを有し、制御部10による制御に基づき被写体を撮像し、当該撮像結果に基づき静止画像や動画像の画像データを生成する。なお、以降では、静止画像と動画像とを特に区別しない場合には、単に画像と称する場合がある。 The imaging unit 12 has an imaging lens (including, for example, a zoom lens and a focus lens) and an imaging element, captures an image of a subject based on the control of the control unit 10, and generates image data of a still image or a moving image based on the imaging result. In the following description, when there is no particular distinction between a still image and a moving image, they may simply be referred to as images.

表示部15は、制御部10による制御に基づき、種々の情報を画像として表示することで、当該情報をユーザに提示する出力インタフェースである。具体的な一例として、表示部15は、各種設定状態、撮像部12による撮像結果に応じた画像、着脱可能記録媒体から読み出された画像データに基づき再生された画像等を表示してもよい。表示部15は、例えば、覗き込み形のファインダー内のディスプレイや、バリアングルの液晶モニタ等により実現され得る。 The display unit 15 is an output interface that presents various information to the user by displaying the information as an image based on the control of the control unit 10. As a specific example, the display unit 15 may display various setting states, an image corresponding to the image capture result by the imaging unit 12, an image reproduced based on image data read from a removable recording medium, etc. The display unit 15 may be realized, for example, by a display inside a peer-type viewfinder, a vari-angle LCD monitor, etc.

操作部16は、撮像装置100に対する各種操作をユーザから受け付ける入力インタフェースである。操作部16は、例えば、撮像装置100に電源を供給するための電源スイッチ、撮影開始ボタン、カメラモード(撮影モード)や再生モード等の動作モードへの切り替えのためのモード切り替えボタン等を含み得る。
また、操作部16にタッチパネルが含まれてもよい。この場合には、制御部10は、以下に例示するタッチパネルに対する操作を検出してもよい。具体的には、制御部10は、タッチパネルに対して指やペン等の操作体が触れたこと(以下、タッチダウンとも称する)や、タッチパネルを操作体で触れている状態(以下、ダッチオンとも称する)を検出してもよい。また、制御部10は、操作体がタッチパネルに触れた状態で移動していること(以下、ムーブとも称する)を検出してもよい。また、制御部10は、タッチパネルから操作体が離間すること(以下、タッチアップとも称する)や、タッチパネルに操作体等が触れていない状態(以下、タッチオフとも称する)を検出してもよい。制御部10は、これらの操作と、操作体が触れているタッチパネル上の位置座標とに基づき、当該タッチパネルを介してどのような操作が行われたかを判定する。また、制御部10は、ムーブの検出に際して、タッチパネル上で移動する操作体の移動方向を、当該操作体が触れているタッチパネル上の位置座標の変化に基づいて、タッチパネル上の垂直成分及び水平成分それぞれについて判定してもよい。
また、制御部10は、タッチパネル上においてタッチダウンから一定のムーブを経てタッチアップがなされた場合に、ストロークが描かれたものと認識してもよい。なお、素早くストロークを描く操作をフリックとも称する。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。例えば、制御部10は、所定距離以上を、所定速度以上でムーブしたことを検出し、そのままタッチアップを検出した場合に、フリックが行われたと判定してもよい。
また、制御部10は、所定距離以上を、所定速度未満でムーブしたこと検出した場合に、ドラッグが行われたと判定してもよい。
タッチパネルとしては、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等のような、多様な方式のタッチパネルを適用することが可能である。
The operation unit 16 is an input interface that accepts various operations from a user for the imaging device 100. The operation unit 16 may include, for example, a power switch for supplying power to the imaging device 100, a shooting start button, and a mode switching button for switching to an operation mode such as a camera mode (shooting mode) or a playback mode.
The operation unit 16 may also include a touch panel. In this case, the control unit 10 may detect operations on the touch panel, as exemplified below. Specifically, the control unit 10 may detect that an operating object such as a finger or a pen has touched the touch panel (hereinafter also referred to as touch down) or that the operating object is touching the touch panel (hereinafter also referred to as touch on). The control unit 10 may also detect that the operating object is moving while touching the touch panel (hereinafter also referred to as move). The control unit 10 may also detect that the operating object is moving away from the touch panel (hereinafter also referred to as touch up) or that the operating object is not touching the touch panel (hereinafter also referred to as touch off). The control unit 10 determines what kind of operation has been performed via the touch panel based on these operations and the position coordinates on the touch panel that the operating object is touching. In addition, when detecting a move, the control unit 10 may determine the moving direction of the operating object moving on the touch panel for each of the vertical component and horizontal component on the touch panel based on the change in the position coordinates on the touch panel that the operating object is touching.
Furthermore, the control unit 10 may recognize that a stroke has been drawn when a touch-up is performed on the touch panel after a certain amount of movement from touch-down. The operation of quickly drawing a stroke is also called a flick. A flick is an operation of quickly moving a finger on the touch panel for a certain distance while keeping the finger in contact with the touch panel, and then releasing the finger; in other words, an operation of quickly tracing the touch panel with the finger as if flicking the finger. For example, the control unit 10 may determine that a flick has been performed when it detects a movement of a certain distance or more at a certain speed or more, and then detects a touch-up.
Furthermore, the control unit 10 may determine that a drag has been performed when it detects that a move has been made over a predetermined distance or more at less than a predetermined speed.
As the touch panel, various types of touch panels can be applied, such as a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, and the like.

無線通信部14は、制御部10の制御に基づき、外部カメラやパーソナルコンピュータといった外部機器とデータの送受信を、無線の通信経路を介して行う。具体的な一例として、無線通信部14は、撮像装置100の設定情報や操作情報等を含むデータを外部装置に送信し、種々のコマンドや画像データに紐付けて記録される付加情報等を外部装置から受信する。もちろん、無線通信部14が外部装置との間で送受信されるデータは特に限定されない。例えば、無線通信部14が外部装置との間で送受信されるデータに、デジタル画像データ、アナログ映像信号、付加情報等が含まれてもよい。また、付加情報については、外部装置から取得されてもよい。なお、本実施形態では、便宜上、上記付加情報が、マークアップ言語であるXML(ExtensibleMarkupLanguage)により記述されたファイル(以下、XMLファイルとも称する)により管理されるものとする。もちろん、付加情報の管理方法については、XMLファイルを利用する方法に限定されず、種々の方法を適用することが可能である。 The wireless communication unit 14 transmits and receives data to and from external devices such as an external camera or a personal computer via a wireless communication path under the control of the control unit 10. As a specific example, the wireless communication unit 14 transmits data including setting information and operation information of the imaging device 100 to the external device, and receives additional information linked to various commands and image data from the external device. Of course, the data transmitted and received by the wireless communication unit 14 between the external device is not particularly limited. For example, the data transmitted and received by the wireless communication unit 14 between the external device may include digital image data, analog video signals, additional information, etc. Also, the additional information may be acquired from the external device. In this embodiment, for convenience, the additional information is managed by a file (hereinafter also referred to as an XML file) written in XML (Extensible Markup Language), which is a markup language. Of course, the method of managing the additional information is not limited to the method of using an XML file, and various methods can be applied.

次いで、図2Aを参照して、本実施形態に係る撮像装置100がプランニングデータのファイルを管理するためのフォルダ構成の一例について説明する。
本実施形態においてプランニングデータとは、撮像装置100による撮像結果に応じた動画像に付加され、当該動画像の管理に使用される付加情報の管理に使用されるデータである。プランニングデータにて管理される付加情報には、例えば、クリップタイトル、撮影情報、撮影者、キーワード、カテゴリ、ジャンル、言語情報、貢献者、権利情報等のように、ユーザにより設定される付加情報が含まれ得る。プランニングデータについては、複数生成することが可能であり、その時々の状況に応じて適用されるプランニングデータを適宜切り替えて使用することも可能である。なお、プランニングデータが、「第一メタデータ」の一例に相当する。
Next, an example of a folder configuration for managing planning data files by the imaging device 100 according to this embodiment will be described with reference to FIG. 2A.
In this embodiment, planning data is data that is added to a moving image according to the imaging result by the imaging device 100 and is used to manage additional information used to manage the moving image. The additional information managed by the planning data may include additional information set by the user, such as clip title, shooting information, photographer, keywords, category, genre, language information, contributors, rights information, etc. It is possible to generate multiple pieces of planning data, and it is also possible to appropriately switch between the planning data to be applied depending on the situation at hand. The planning data corresponds to an example of "first metadata."

本実施形態では、着脱可能記録媒体I/F19を介して接続される着脱可能記録媒体20に管理用のフォルダが生成され、当該フォルダにプランニングデータのファイルが格納される。図2Aに示す例では、ROOTフォルダの直下にXMLTAGフォルダ271が生成されており、当該XMLTAGフォルダにおいて個々のプランニングデータに対応するファイル(以下、プランニングデータファイルとも称する)272~275が格納されている。 In this embodiment, a management folder is generated on the removable recording medium 20 connected via the removable recording medium I/F 19, and planning data files are stored in this folder. In the example shown in FIG. 2A, an XMLTAG folder 271 is generated directly under the ROOT folder, and files 272 to 275 corresponding to individual planning data (hereinafter also referred to as planning data files) are stored in this XMLTAG folder.

次いで、図2Bを参照して、本実施形態に係る撮像装置100が撮像結果に応じた動画像のファイルと、当該動画像に付加される付加情報のファイルとを管理するためのフォルダ構成の一例について説明する。
なお、本実施形態では、圧縮されたビデオフレームが、タイムコード等の管理情報や音声データをMP4(MPEG-4 Part14またはISO/IEC14496-14:2003)というコンテナ構造で記録される場合を例に、説明を行うものとする。一方で、動画像の記録に利用されるフォーマットは、MP4に限定されず、種々のフォーマットを適用することが可能である。同フォーマットとしては、例えば、AVCHD(Advanced Video Codec High Definition)やMXF(Material eXchange Format)等が挙げられる。
Next, referring to FIG. 2B, an example of a folder configuration for managing moving image files corresponding to the imaging results and files of additional information added to the moving images by the imaging device 100 according to this embodiment will be described.
In this embodiment, the case where compressed video frames, management information such as time codes and audio data are recorded in a container structure called MP4 (MPEG-4 Part 14 or ISO/IEC 14496-14:2003) will be described as an example. On the other hand, the format used to record moving images is not limited to MP4, and various formats can be applied. Examples of such formats include AVCHD (Advanced Video Codec High Definition) and MXF (Material eXchange Format).

制御部10は、操作部16を介したユーザからの指示等に基づき着脱可能記録媒体20の初期化を行うと、当該着脱可能記録媒体20に、動画像のファイルや付加情報のファイルの管理に利用するDCIMフォルダ201を生成する。また、制御部10は、動画像の記録が開始されると、当該動画像のファイルの管理単位ごとにフォルダを生成し、撮像結果に応じた動画像のファイルや付加情報のファイルを当該フォルダに格納する。例えば、図2Bに示す例における、「100_0218」の名称で示されたフォルダ202が、動画像のファイルの管理単位ごとに生成されるフォルダの一例を示している。この場合には、フォルダ名の100がディレクトリ番号を表しており、100から順番に割り振られ、最大で999まで増加していく。また、フォルダ名の0128は、対象となるフォルダが作成された月日を示しており、1月28日に同フォルダが作成されたことを示している。すなわち、図2Bに示す例では、動画像の記録が行われた日付単位で、動画像のファイルや付加情報のファイルが管理されている。また、図2Bに示す例では、フォルダ202には、MVI_0001.MP4として示された動画像のストリームファイル203や、MVI_0001.XMLとして示された付加情報ファイル204が記録されている。
複数の動画像ファイルが記録される場合には、MP4ファイル及びXMLファイルそれぞれのファイル名が、番号を増加させる等のように逐次調整される。
フレーム単位に設定されるタイムコード等についてはMP4ファイル(例えば、MPV_0001.MP4)に記録される。また、タグ情報等についてはXMLファイル(例えば、MVI_0001.XML)に記録される。
When the control unit 10 initializes the removable recording medium 20 based on an instruction from the user via the operation unit 16, the control unit 10 generates a DCIM folder 201 in the removable recording medium 20 to be used for managing files of moving images and files of additional information. When the recording of a moving image is started, the control unit 10 generates a folder for each management unit of the files of the moving images, and stores the files of the moving images and files of additional information according to the imaging results in the folder. For example, the folder 202 named "100_0218" in the example shown in FIG. 2B shows an example of a folder generated for each management unit of the files of the moving images. In this case, the 100 in the folder name represents a directory number, which is assigned in order from 100 and increases up to a maximum of 999. In addition, the 0128 in the folder name indicates the date on which the target folder was created, and indicates that the folder was created on January 28th. That is, in the example shown in FIG. 2B, the files of the moving images and the files of additional information are managed by the date on which the moving images were recorded. In the example shown in FIG. 2B, the folder 202 stores a video stream file 203 indicated as MVI_0001.MP4 and an additional information file 204 indicated as MVI_0001.XML.
When a plurality of video files are recorded, the file names of the MP4 files and XML files are successively adjusted, for example by incrementing the numbers.
The time code set for each frame and the like are recorded in an MP4 file (for example, MPV_0001.MP4), while the tag information and the like are recorded in an XML file (for example, MVI_0001.XML).

次いで、図2Cを参照して、本実施形態に係る動画像のファイルの構成について一例を説明する。
ftypボックス210は、ファイル形式の互換を示す情報である。
moovボックス211は、再生に必要な管理情報やサムネイル画像が格納される。
XMPボックス212は、XMP(Extensibile Metadata Platform)が格納され、任意のメタデータを設定することが可能である。
uuidボックス213は、任意の情報を追加することが可能である。uuidボックス213には、例えば、プレビュー用の画像が格納され得る。
mdatボックス214は、符号化された映像データと、音声データと、タイムコードデータと、フレーム単位のメタデータとが格納される。
Next, an example of the configuration of a moving image file according to this embodiment will be described with reference to FIG. 2C.
The ftype box 210 is information indicating compatibility of the file format.
The moov box 211 stores management information and thumbnail images necessary for playback.
The XMP box 212 stores XMP (Extensible Metadata Platform) and allows any metadata to be set.
Any information can be added to the uuid box 213. For example, a preview image can be stored in the uuid box 213.
The mdat box 214 stores encoded video data, audio data, time code data, and metadata for each frame.

続いて、moovボックス211の構成の一例について説明する。
uuidボックス221は、任意の情報を追加ですることが可能であり、再生時に表示されるサムネイル画像225や、再生時に使用される管理情報226が格納され得る。
trackボックス215~217は、映像データ、音声データ、タイムコードデータに関わる管理情報が格納される。
stszボックス218~220は、映像データ、音声データ、タイムコードデータ、フレーム単位のメタデータの符号化単位ごとのデータサイズが格納される。
stcoボックス222~224は、trackボックスに格納され、映像データ、音声データ、タイムコードデータ、フレーム単位のメタデータのmdat214の格納位置を示す情報が格納される。
各データは、1つ以上の符号化単位で構成されるチャンクと呼ばれる単位でmdatボックス214に格納される。
Next, an example of the configuration of the moov box 211 will be described.
Any information can be added to the uuid box 221, and a thumbnail image 225 that is displayed during playback and management information 226 that is used during playback can be stored therein.
The track boxes 215 to 217 store management information relating to video data, audio data, and time code data.
The stsz boxes 218 to 220 store the data sizes of the video data, audio data, time code data, and metadata in units of frames for each coding unit.
The stco boxes 222 to 224 are stored in a track box, and store information indicating the storage positions of the video data, audio data, time code data, and mdat 214, which is metadata in frame units.
Each piece of data is stored in the mdat box 214 in units called chunks, each chunk being made up of one or more coding units.

続いて、mdatボックス214の構成の一例について説明する。
データ230~238は、mdatボックス214に格納された、映像データ、音声データ、タイムコードデータ、フレーム単位のメタデータを示している。
各データは、stcoボックスに記載されている値により、チャンク単位でアクセス可能である。例えば、データ230(CV1)は、stcoボックス222の値250から辿ることが可能である。
Next, an example of the configuration of the mdat box 214 will be described.
Data 230 to 238 indicate video data, audio data, time code data, and metadata for each frame stored in the mdat box 214 .
Each piece of data can be accessed in chunk units by the value written in the stco box. For example, data 230 (CV1) can be traced back to the value 250 in the stco box 222.

次いで、図2Dを参照して、本実施形態に係る動画像のファイルと付加情報のファイルとのそれぞれのメタデータの内容の一例について説明する。
メタデータ260は、動画ファイル内のメタデータの内容の一例を示しており、これらは管理情報226に格納される。
管理情報226には、撮像装置100による撮像時の情報であるシャッタースピード、レンズの明るさを示すF値、記録フレームレート、再生フレームレート、記録時間、プランニングデータ在処情報が記録されている。また、管理情報226には、動画像のファイルと関連付けて付加情報ファイルであるXMLファイルが記録されており、さらにXMLファイルの種別情報を含んだ情報も記録され得る。なお、管理情報226が、動画像の付加情報領域の一例に相当する。
種別情報261は、メタデータ260に記載されているXMLファイル種別情報の内容の一例を示しており、これらは管理情報226に格納される。種別情報261としては、例えば、XMLファイルが記録されているか否かを示す情報、XMLファイルが撮像装置100固有のタグ情報を持つオリジナルフォーマットを示す情報、報道用に特化したフォーマットである報道用メタデータを示す情報等が記録される。
メタデータ262は、XMLファイルが撮像装置100固有のタグ情報を持つオリジナルフォーマットで記録された場合のメタデータの内容の一例を示している。メタデータ262としては、例えば、タイトル、撮影者、撮影情報、撮像装置100の製品名やファームウェアバージョン情報やシリアル番号、レンズ名等が記録される。
メタデータ263は、XMLファイルが報道用途としてオリジナルフォーマットで記録された場合の報道用メタデータの内容の一例を示している。メタデータ263としては、タイトル、撮影者、撮影情報、キーワード、カテゴリ、ジャンル、日時情報、言語情報、貢献者、権利情報、動画ファイルに関する情報(ファイル名、記録時間、識別情報、ファイルフォーマット、オーディオ情報)等が記録される。
プランニングデータ在処情報264は、メタデータ260に記載されているプランニングデータ在処情報の内容の一例を示しており、これらは管理情報226に格納される。プランニングデータ在処情報264には、プランニングデータのファイルパス、スロット情報が記録されている。このように、プランニングデータ在所情報は、対象となるプランニングデータが保持された位置を示す情報である。すなわち、プランニングデータ在所情報が、第一メタデータが保持された位置を示す在所情報の一例に相当する。
Next, an example of the contents of metadata in each of the video file and the additional information file according to this embodiment will be described with reference to FIG. 2D.
Metadata 260 shows an example of the contents of metadata in a moving image file, which are stored in management information 226 .
The management information 226 records information such as the shutter speed when the imaging device 100 captures an image, the F-number indicating the lens brightness, the recording frame rate, the playback frame rate, the recording time, and planning data location information. The management information 226 also records an XML file, which is an additional information file, in association with the moving image file, and may also record information including type information of the XML file. The management information 226 corresponds to an example of an additional information area for a moving image.
The type information 261 indicates an example of the contents of the XML file type information described in the metadata 260, and is stored in the management information 226. As the type information 261, for example, information indicating whether or not an XML file has been recorded, information indicating an original format in which the XML file has tag information specific to the imaging device 100, information indicating news metadata which is a format specialized for news reporting, and the like are recorded.
Metadata 262 shows an example of the contents of the metadata when the XML file is recorded in an original format having tag information specific to the imaging device 100. As the metadata 262, for example, the title, photographer, shooting information, the product name of the imaging device 100, firmware version information, serial number, lens name, etc. are recorded.
Metadata 263 shows an example of the contents of news metadata when the XML file is recorded in the original format for news reporting purposes. The metadata 263 includes the title, photographer, shooting information, keywords, category, genre, date and time information, language information, contributors, rights information, information about the video file (file name, recording time, identification information, file format, audio information), etc.
The planning data location information 264 indicates an example of the contents of the planning data location information described in the metadata 260, and these are stored in the management information 226. The planning data location information 264 records the file path and slot information of the planning data. In this way, the planning data location information is information that indicates the location where the target planning data is held. In other words, the planning data location information corresponds to an example of location information that indicates the location where the first metadata is held.

続いて、図3~図6を参照して、本実施形態に係る撮像装置100の処理の一例について説明する。
まず、図3Aを参照して、操作部16を介した指示に基づき、制御部10が動画像の記録に際して適用するプランニングデータを選択する処理の一例について説明する。
S330において、制御部10は、操作部16を介して選択されたXMLファイル種別が報道用メタデータとなっているか否かを判定する。
制御部10は、S330において選択されたXMLファイル種別が報道用メタデータとなっていると判定した場合には、処理をS331に進める。
一方で、制御部10は、S330において選択されたXMLファイル種別が報道用メタデータとなっていないと判定した場合には、図3Aに示す一連の処理を終了する。
Next, an example of processing by the imaging device 100 according to this embodiment will be described with reference to FIGS.
First, an example of a process in which the control unit 10 selects planning data to be applied when recording a moving image based on an instruction via the operation unit 16 will be described with reference to FIG. 3A.
In S330, the control unit 10 determines whether the XML file type selected via the operation unit 16 is news metadata.
If the control unit 10 determines in S330 that the selected XML file type is news metadata, the control unit 10 advances the process to S331.
On the other hand, if the control unit 10 determines in S330 that the XML file type selected is not news metadata, the control unit 10 ends the series of processes shown in FIG. 3A.

S331において、制御部10は、SDカード(着脱可能記録媒体20)にプランニングデータのファイルが格納されているか否かを判定する。
制御部10は、S331においてSDカードにプランニングデータのファイルが格納されていると判定した場合には、処理をS332に進める。
一方で、制御部10は、S331においてSDカードにプランニングデータのファイルが格納されていないと判定した場合には、図3Aに示す一連の処理を終了する。
In S331, the control unit 10 determines whether or not a planning data file is stored in the SD card (removable recording medium 20).
If the control unit 10 determines in S331 that a planning data file is stored in the SD card, the control unit 10 advances the process to S332.
On the other hand, if the control unit 10 determines in S331 that no planning data file is stored in the SD card, the control unit 10 ends the series of processes shown in FIG. 3A.

S332において、制御部10は、操作部16を介してプランニングデータの選択を受け付ける。具体的な一例として、操作部16に含まれるメニューボタンが操作されると、図4(a)に示すメニュー404が表示され、ユーザは、メニュー項目の中から記録に使用されるプランニングデータ405を選択することが可能となる。 In S332, the control unit 10 accepts the selection of planning data via the operation unit 16. As a specific example, when a menu button included in the operation unit 16 is operated, the menu 404 shown in FIG. 4(a) is displayed, and the user can select the planning data 405 to be used for recording from among the menu items.

S333において、制御部10は、S332にて選択された項目に紐付いたSDカード内のプランニングデータファイルからプランニングデータを読み出し、当該プランニングデータをRAM18に保持する。 In S333, the control unit 10 reads planning data from the planning data file in the SD card associated with the item selected in S332, and stores the planning data in RAM 18.

次いで、図3Bを参照して、制御部10が操作部16を介した記録開始要求を受け付けて、動画像の記録を開始する処理の一例について説明する。
S300において、制御部10は、着脱可能記録媒体20への動画像の記録に際して使用するメタデータの生成を行い、当該メタデータをRAM18に保持する。具体的な一例として、制御部10は、図2Dを参照して例示した、動画像のファイル内のメタデータ260、オリジナルのメタデータ262、報道用のメタデータ263等を、動画像の記録に際して使用するメタデータとして生成する。なお、この際に制御部10は、動画像の撮像の完了後(換言すると、クリップ作成完了後)に確定する記録時間や更新日時等の情報については、S300の時点では暫定的な値を設定してもよい。なお、メタデータ260及び262が、動画像の記録内容に関する情報の一例に相当し、以降では当該情報をカメラ記録情報とも称する。制御部10は、動画像のファイル内から生成したカメラ記録情報を抽出し、当該カメラ記録情報をRAM18に保持する。
Next, an example of a process in which the control unit 10 accepts a recording start request via the operation unit 16 and starts recording of a moving image will be described with reference to FIG. 3B.
In S300, the control unit 10 generates metadata to be used when recording a moving image on the removable recording medium 20, and stores the metadata in the RAM 18. As a specific example, the control unit 10 generates metadata 260 in the moving image file, original metadata 262, and news metadata 263, as shown in FIG. 2D, as metadata to be used when recording the moving image. At this time, the control unit 10 may set provisional values at the time of S300 for information such as recording time and update date and time that are determined after the moving image is captured (in other words, after the clip is created). The metadata 260 and 262 correspond to an example of information on the recorded contents of the moving image, and the information is hereinafter also referred to as camera recording information. The control unit 10 extracts the generated camera recording information from the moving image file, and stores the camera recording information in the RAM 18.

S301において、制御部10は、操作部16を介して指定されたXMLファイル記録設定が入になっているか否か(すなわち、XMLファイルの記録が有効になっているか否か)を判定する。なお、XMLファイル記録設定については、例えば、図4(b)に示すメニュー400を介して指定された項目に応じて設定される。図4(b)に示す例の場合には、項目401が選択された場合に、XMLファイル記録設定が入に設定される。
制御部10は、S301においてXMLファイル記録設定が入になっていると判定した場合には、処理をS302に進める。
一方で、制御部10は、S301においてXMLファイル記録設定が入になっていないと判定した場合には、処理をS305に進める。
In S301, the control unit 10 judges whether or not the XML file recording setting specified via the operation unit 16 is ON (i.e., whether or not recording of XML files is enabled). The XML file recording setting is set according to an item specified via the menu 400 shown in Fig. 4(b), for example. In the example shown in Fig. 4(b), when the item 401 is selected, the XML file recording setting is set to ON.
If the control unit 10 determines in S301 that the XML file recording setting is ON, the control unit 10 advances the process to S302.
On the other hand, if the control unit 10 determines in S301 that the XML file recording setting is not ON, the control unit 10 advances the process to S305.

S302において、制御部10は、操作部16を介して指定されたXMLファイル種別設定が報道用メタデータになっているか否かを判定する。なお、XMLファイル種別設定については、例えば、図4(c)に示すメニュー400を介して指定された項目に応じて設定される。図4(c)に示す例の場合には、項目403が指定された場合に、XMLファイル種別設定が報道用メタデータに設定される。
制御部10は、S302においてXMLファイル種別設定が報道用メタデータになっていると判定した場合には、処理をS303に進める。
一方で、制御部10は、S302においてXMLファイル種別設定が報道用メタデータになっていないと判定した場合には、処理をS304に進める。
In S302, the control unit 10 determines whether the XML file type setting specified via the operation unit 16 is news report metadata. The XML file type setting is set according to an item specified via the menu 400 shown in Fig. 4(c), for example. In the example shown in Fig. 4(c), when the item 403 is specified, the XML file type setting is set to news report metadata.
If the control unit 10 determines in S302 that the XML file type setting is news metadata, the control unit 10 advances the process to S303.
On the other hand, if the control unit 10 determines in S302 that the XML file type setting is not news metadata, the control unit 10 advances the process to S304.

S303において、制御部10は、S300にてRAM18に保持されたメタデータを読み出し、着脱可能記録媒体I/F19に当該メタデータの記録を指示する。これにより、報道用のメタデータ263がXMLファイル(メタデータを保持するファイル)に記録され、当該XMLファイルが着脱可能記録媒体20に書き込まれる。 In S303, the control unit 10 reads the metadata stored in the RAM 18 in S300, and instructs the removable recording medium I/F 19 to record the metadata. As a result, the news metadata 263 is recorded in an XML file (a file that stores metadata), and the XML file is written to the removable recording medium 20.

S304において、制御部10は、S300にてRAM18に保持されたメタデータを読み出し、着脱可能記録媒体I/F19に当該メタデータの記録を指示する。これにより、標準化されていないオリジナルのメタデータ262がXMLファイル(メタデータを保持するファイル)に記録され、当該XMLファイルが着脱可能記録媒体20に書き込まれる。 In S304, the control unit 10 reads the metadata stored in the RAM 18 in S300, and instructs the removable recording medium I/F 19 to record the metadata. As a result, the original, non-standardized metadata 262 is recorded in an XML file (a file that stores metadata), and the XML file is written to the removable recording medium 20.

S305において、制御部10は、動画像のファイルの管理情報226に書き込まれるXMLファイル種別情報をRAM10に書き込む。
S306において、制御部10は、S300及びS305にてRAM18に保持されたメタデータを読み出し、動画像のファイルの管理情報226の形式にして、着脱可能記録媒体I/F19に当該メタデータの記録を指示する。これにより、動画像のファイルの管理情報としてメタデータ260が記録され、当該動画像のファイルが着脱可能記録媒体20に保持される。そのうえで、制御部10は、プランニングデータが保持された場所を示すプランニングデータ在処情報(図2Dに示すプランニングデータ在処情報264)をRAM18に書き込む。
In S305, the control unit 10 writes, in the RAM 10, the XML file type information to be written in the management information 226 of the video file.
In S306, the control unit 10 reads out the metadata stored in the RAM 18 in S300 and S305, converts it into the format of management information 226 for the video file, and instructs the removable recording medium I/F 19 to record the metadata. As a result, the metadata 260 is recorded as management information for the video file, and the video file is stored in the removable recording medium 20. Then, the control unit 10 writes planning data location information (planning data location information 264 shown in FIG. 2D) indicating the location where the planning data is stored into the RAM 18.

S307において、制御部10は、RAM18に保持された動画データ、音声データ、及びタイムコードデータを図2Cに例示した形式にして、着脱可能記録媒体I/F19に当該メタデータの記録を指示する。これにより、動画データ、音声データ、タイムコードデータが動画像のファイルとして着脱可能記録媒体20に書き込まれる。 In S307, the control unit 10 converts the video data, audio data, and time code data stored in the RAM 18 into the format illustrated in FIG. 2C, and instructs the removable recording medium I/F 19 to record the metadata. As a result, the video data, audio data, and time code data are written to the removable recording medium 20 as a video file.

次いで、図3Cを参照して、制御部10が操作部16を介した記録停止要求を受け付けて、動画像の記録を停止する処理の一例について説明する。
S320において、制御部10は、着脱可能記録媒体20への動画像の記録の停止に際して使用するメタデータの生成を行い、当該メタデータをRAM18に保持する。
Next, an example of a process in which the control unit 10 accepts a recording stop request via the operation unit 16 and stops recording of a moving image will be described with reference to FIG. 3C.
In S<b>320 , the control unit 10 generates metadata to be used when stopping recording of a moving image on the removable recording medium 20 , and stores the generated metadata in the RAM 18 .

S321において、制御部10は、操作部16を介して指定されたXMLファイル記録設定が入になっているか否か(すなわち、XMLファイルの記録が有効になっているか否か)を判定する。
制御部10は、S321においてXMLファイル記録設定が入になっていると判定した場合には、処理をS322に進める。
一方で、制御部10は、S321においてXMLファイル記録設定が入になっていないと判定した場合には、処理をS324に進める。
In S321, the control unit 10 determines whether or not the XML file recording setting specified via the operation unit 16 is ON (that is, whether or not recording of the XML file is enabled).
If the control unit 10 determines in S321 that the XML file recording setting is ON, the control unit 10 advances the process to S322.
On the other hand, if the control unit 10 determines in S321 that the XML file recording setting is not ON, the control unit 10 advances the process to S324.

S322において、制御部10は、操作部16を介して指定されたXMLファイル種別設定が報道用メタデータになっているか否かを判定する。
制御部10は、S322においてXMLファイル種別設定が報道用メタデータになっていると判定した場合には、処理をS323に進める。
一方で、制御部10は、S322においてXMLファイル種別設定が報道用メタデータになっていないと判定した場合には、処理をS324に進める。
In S322, the control unit 10 determines whether the XML file type setting specified via the operation unit 16 is news metadata.
If the control unit 10 determines in S322 that the XML file type setting is news metadata, the control unit 10 advances the process to S323.
On the other hand, if the control unit 10 determines in S322 that the XML file type setting is not news metadata, the control unit 10 advances the process to S324.

S323において、制御部10は、着脱可能記録媒体I/F19に指示を出すことで、着脱可能記録媒体20から記録開始時に書き込まれたXMLファイルをRAM18に読み出す。そして、制御部10は、S320ひて生成した動画ファイルの記録時間や更新日時情報を、RAM18に読み出されたXMLファイルに反映することで、当該XMLファイルを更新する。その後、制御部10は、着脱可能記録媒体I/F19に更新されたXMLファイルの記録を指示する。これにより、更新後のXMLファイルが着脱可能記録媒体20に書き込まれる。 In S323, the control unit 10 issues an instruction to the removable recording medium I/F 19 to read out the XML file that was written from the removable recording medium 20 at the start of recording into the RAM 18. The control unit 10 then updates the XML file by reflecting the recording time and update date and time information of the video file generated in S320 in the XML file read out to the RAM 18. The control unit 10 then instructs the removable recording medium I/F 19 to record the updated XML file. As a result, the updated XML file is written to the removable recording medium 20.

S324において、制御部10は、記録停止要求を受け付けた時点までのRAM18に保持された動画データ、音声データ、及びタイムコードデータを図2(c)の形式にして、着脱可能記録媒体I/F19にこれらのデータの記録を指示する。これにより、動画データ、音声データ、タイムコードデータが動画像のファイルとして着脱可能記録媒体20に書き込まれ、図3Cに示す一連の処理が終了する。 In S324, the control unit 10 puts the video data, audio data, and time code data held in the RAM 18 up until the time the recording stop request was received into the format shown in FIG. 2(c), and instructs the removable recording medium I/F 19 to record this data. As a result, the video data, audio data, and time code data are written to the removable recording medium 20 as a video file, and the series of processes shown in FIG. 3C ends.

図5を参照して、メタデータが誤消去や紛失等により失われた状態において、当該メタデータを再度生成することで復旧する処理の一例について説明する。
S501において、制御部10は、SDカード内のクリップに紐付けられたXMLファイルが損壊しているか否か(例えば、誤消去等により失われているか否か)を判定する。
制御部10は、S501においてXMLファイルが損壊していると判定した場合には、処理をS502に進める。
一方で、制御部10は、S501においてXMLファイルが損壊していないと判定した場合には、図5に示す一連の処理を終了する。
With reference to FIG. 5, an example of a process for recovering metadata by regenerating the metadata when the metadata has been lost due to erroneous erasure or loss will be described.
In S501, the control unit 10 determines whether or not the XML file associated with the clip in the SD card is damaged (for example, whether or not it has been lost due to erroneous erasure or the like).
If the control unit 10 determines in S501 that the XML file is damaged, the process proceeds to S502.
On the other hand, if the control unit 10 determines in S501 that the XML file is not damaged, the control unit 10 ends the series of processes shown in FIG.

S502において、制御部10は、警告を示す情報を表示部15に表示させることで、当該情報をユーザに通知する。例えば、図6(a)は、警告を示す情報の報知方法の一例を示した図である。図6(a)に示す例では、XMLファイルが損壊していると判定されたコンテンツのサムネイルに重畳させる形式で、警告を示すエクスクラメーションマークが表示されている。 In S502, the control unit 10 notifies the user of the information by displaying information indicating a warning on the display unit 15. For example, FIG. 6(a) is a diagram showing an example of a method of notifying the user of the information indicating a warning. In the example shown in FIG. 6(a), an exclamation mark indicating a warning is displayed in a format superimposed on a thumbnail of the content whose XML file has been determined to be damaged.

S503において、制御部10は、動画像のファイルの管理情報226にプランニングデータ在処情報が入っているか否かを判定する。
制御部10は、S503において動画像のファイルの管理情報226にプランニングデータ在処情報が入っていると判定した場合には、処理をS504に進める。
一方で、制御部10は、S503において動画像のファイルの管理情報226にプランニングデータ在処情報が入っていないと判定した場合には、図5に示す一連の処理を終了する。なお、この場合には、制御部10は、図6(c)に示すようなメッセージを表示部15に表示させることで、ユーザに復旧作業の実行を促してもよい。
In S503, the control unit 10 determines whether or not planning data location information is included in the management information 226 of the moving image file.
If the control unit 10 determines in S503 that planning data location information is included in the management information 226 of the moving image file, it advances the process to S504.
On the other hand, if the control unit 10 determines in S503 that the management information 226 of the video file does not contain planning data location information, the control unit 10 ends the series of processes shown in Fig. 5. In this case, the control unit 10 may prompt the user to perform a recovery operation by displaying a message such as that shown in Fig. 6(c) on the display unit 15.

S504において、制御部10は、失われたメタデータの復旧を行うか否かをユーザに確認する。具体的な一例として、制御部10は、図6(b)に示すようなダイアログボックスを表示部15に表示させたうえで、当該ダイアログボックスを介してユーザからのメタデータの復旧を行うか否かの指示を受け付けてもよい。
制御部10は、S504においてユーザからメタデータの復旧を指示されたと判定した場合には、処理をS505に進める。
一方で、制御部10は、S504においてユーザからメタデータの復旧を指示されていないと判定した場合には、図5に示す一連の処理を終了する。
In S504, the control unit 10 confirms with the user whether or not to restore the lost metadata. As a specific example, the control unit 10 may display a dialog box as shown in Fig. 6B on the display unit 15 and then accept an instruction from the user via the dialog box as to whether or not to restore the metadata.
If the control unit 10 determines in S504 that the user has instructed to restore the metadata, the control unit 10 advances the process to S505.
On the other hand, if the control unit 10 determines in S504 that the user has not instructed to restore the metadata, the control unit 10 ends the series of processes shown in FIG.

S505において、制御部10は、プランニングデータ在処情報から復元したプランニングデータをRAM18に保持する。
S506において、制御部10は、カメラ記録情報を動画像のファイルから復元し、当該カメラ記録情報をRAM18に保持する。
S508において、制御部10は、RAM18に保持されたプランニングデータとカメラ記録情報とに基づき、XMLファイルを復元する。制御部10は、XMLファイルの復元が完了すると、XMLファイルの復元が完了したことを示すメッセージを表示部15に表示させることで当該メッセージをユーザに提示し、図5に示す一連の処理を終了する。例えば、図6(d)は、XMLファイルの復元が完了した場合に表示されるメッセージの一例を示している。
In S505, the control unit 10 stores in the RAM 18 the planning data restored from the planning data location information.
In S<b>506 , the control unit 10 restores the camera record information from the moving image file, and stores the camera record information in the RAM 18 .
In S508, the control unit 10 restores the XML file based on the planning data and camera recording information stored in the RAM 18. When the restoration of the XML file is completed, the control unit 10 presents a message indicating that the restoration of the XML file has been completed to the user by displaying the message on the display unit 15, and ends the series of processes shown in Fig. 5. For example, Fig. 6(d) shows an example of a message displayed when the restoration of the XML file is completed.

以上のような制御が適用されることで、動画像のファイルに紐付けられたXMLファイル(メタデータ)が損壊等により失われた場合においても、プランニングデータ在処情報とカメラ記録情報とに基づき当該XMLファイルを復元することが可能となる。
なお、本実施形態において、復元対象となるXMLファイル(メタデータ)が、第二メタデータの一例に相当する。また、当該XMLファイルの復元に使用されるプランニングデータが、第一メタデータの一例に相当する。すなわち、第一メタデータに相当するプランニングデータが保持された場所を示すプランニングデータ在処情報が、第一メタデータが保持された場所を示す在処情報の一例に相当することとなる。
また、上述した実施形態では、動画像のファイル内にプランニングデータ在処情報が記録される場合の一例について説明したが、動画像と関連付けてプランニングデータ在処情報を管理することが可能であれば、その方法は特に限定はされない。具体的な一例として、動画像に付加される付加データファイルにプランニングデータ在処情報を記録することで、当該プランニングデータ在処情報が管理されてもよい。
By applying the above-described control, even if the XML file (metadata) linked to a video file is lost due to damage or the like, it is possible to restore the XML file based on the planning data location information and camera recording information.
In this embodiment, the XML file (metadata) to be restored corresponds to an example of the second metadata. Also, the planning data used to restore the XML file corresponds to an example of the first metadata. That is, the planning data location information indicating the location where the planning data corresponding to the first metadata is stored corresponds to an example of the location information indicating the location where the first metadata is stored.
In the above embodiment, an example of the case where the planning data location information is recorded in a video file has been described, but the method is not particularly limited as long as it is possible to manage the planning data location information in association with the video. As a specific example, the planning data location information may be managed by recording the planning data location information in an additional data file added to the video.

<第2の実施形態>
本開示の第2の実施形態について以下に説明する。前述した実施形態では、XMLファイル(メタデータ)が損壊等により失われた場合に、撮像装置100に保持されたプランニングデータを利用して当該XMLファイルの復旧が行われる場合の一例について説明した。これに対して、本実施形態では、撮像装置100とは異なる外部装置にプランニングデータを保持しておき、当該プランニングデータを利用してXMLファイルの復旧が行われる場合の一例について説明する。
Second Embodiment
A second embodiment of the present disclosure will be described below. In the above-described embodiment, an example of a case where an XML file (metadata) is lost due to damage or the like and the XML file is restored using planning data stored in the imaging device 100. In contrast, in the present embodiment, an example of a case where planning data is stored in an external device different from the imaging device 100 and the XML file is restored using the planning data will be described.

まず、図7を参照して、外部装置である携帯端末700とのそれぞれの構成の一例について説明する。なお、撮像装置100の構成については、図1に示す例と実質的に同様のため、詳細な説明は省略するものとする。
携帯端末700は、制御部71と、表示部72と、操作部73と、無線通信部74と、ROM75と、RAM76と、ファイル制御部77とを含む。制御部70と、上記に例示した制御部70以外の各構成部とは、バス等を介して互いにデータを送受信可能に接続されている。
First, an example of the configuration of the imaging device 100 and a portable terminal 700, which is an external device, will be described with reference to Fig. 7. Note that the configuration of the imaging device 100 is substantially similar to the example shown in Fig. 1, and therefore detailed description thereof will be omitted.
The portable terminal 700 includes a control unit 71, a display unit 72, an operation unit 73, a wireless communication unit 74, a ROM 75, a RAM 76, and a file control unit 77. The control unit 70 and each of the components other than the control unit 70 exemplified above are connected to each other via a bus or the like so as to be able to transmit and receive data to and from each other.

制御部71は、携帯端末700のシステム全般を制御するシステム制御部である。また、制御部71は、各構成部の動作を制御する。制御部71は、例えば、CPUにより実現され得る。ROM75は、不揮発性の記録媒体であり、制御部71が実行するプログラムを記憶している。RAM76は制御部71のワークメモリとして用いられる揮発性の記録媒体である。図9A、図12Bを参照して後述する処理は、例えば、ROM75に記録されたプログラムがRAM76に展開されて制御部71により実行されることで実現される。 The control unit 71 is a system control unit that controls the overall system of the mobile terminal 700. The control unit 71 also controls the operation of each component. The control unit 71 can be realized, for example, by a CPU. The ROM 75 is a non-volatile recording medium that stores the program executed by the control unit 71. The RAM 76 is a volatile recording medium used as a work memory for the control unit 71. The processing described below with reference to Figures 9A and 12B is realized, for example, by a program recorded in the ROM 75 being expanded into the RAM 76 and executed by the control unit 71.

表示部72は、制御部71による制御に基づき、種々の情報を画像として表示することで、当該情報をユーザに提示する出力インタフェースである。具体的な一例として、表示部72は、各種設定状態や、無線通信部74が受信したデータ(例えば、デジタル画像データ、アナログ映像信号、付加情報を含む)等を表示してもよい。表示部72は、例えば、ディスプレイ等により実現され得る。 The display unit 72 is an output interface that displays various information as images based on the control of the control unit 71, thereby presenting the information to the user. As a specific example, the display unit 72 may display various setting states, data received by the wireless communication unit 74 (including, for example, digital image data, analog video signals, and additional information), and the like. The display unit 72 may be realized, for example, by a display or the like.

操作部73は、携帯端末700に対する各種操作をユーザから受け付ける入力インタフェースである。操作部73は、例えば、携帯端末700に電源を供給するための電源スイッチ等を含み得る。また、操作部73は、撮像装置100の操作部16と同様に、タッチパネルが含まれてもよい。 The operation unit 73 is an input interface that accepts various operations for the mobile terminal 700 from the user. The operation unit 73 may include, for example, a power switch for supplying power to the mobile terminal 700. The operation unit 73 may also include a touch panel, similar to the operation unit 16 of the imaging device 100.

無線通信部74は、制御部71の制御に基づき、外部カメラやパーソナルコンピュータといった外部機器とデータの送受信を、無線の通信経路を介して行う。具体的な一例として、無線通信部74は、撮像装置100から設定情報や操作情報等を受信し、撮像装置100を操作するためのコマンドや画像データに紐付けて記録される付加情報等を撮像装置100に送信する。無線通信部74が送受信の対象とするデータには、例えば、デジタル画像データ、アナログ映像信号、付加情報等が含まれ得る。 Based on the control of the control unit 71, the wireless communication unit 74 transmits and receives data to and from external devices such as an external camera or a personal computer via a wireless communication path. As a specific example, the wireless communication unit 74 receives setting information, operation information, and the like from the imaging device 100, and transmits to the imaging device 100 commands for operating the imaging device 100 and additional information that is linked to and recorded with image data. Data that is the subject of transmission and reception by the wireless communication unit 74 may include, for example, digital image data, analog video signals, additional information, and the like.

ファイル制御部77は、無線通信部74が受信した動画像のファイルや付加情報等のデータの解析や、サムネイル画像の生成等の制御を行うことが可能である。 The file control unit 77 can analyze data such as video files and additional information received by the wireless communication unit 74, and control the generation of thumbnail images, etc.

次いで、図8を参照して、撮像装置100(例えば、カムコーダ)と携帯端末700との間の無線の通信経路を介した接続時のシーケンスの一例について説明する。
S801において、撮像装置100の制御部10は、操作部16を介して携帯端末700との無線接続の指示を受け付けると、無線通信部14に対して携帯端末700との無線接続の確立を指示する。
S802において、携帯端末700の制御部71は、操作部73を介して撮像装置100との無線接続の指示を受け付けると、無線通信部74に対して撮像装置100との無線接続の確立を指示する。
Next, an example of a sequence when imaging device 100 (for example, a camcorder) and portable terminal 700 are connected via a wireless communication path will be described with reference to FIG.
In S801, when the control unit 10 of the imaging device 100 receives an instruction for wireless connection with the portable terminal 700 via the operation unit 16, the control unit 10 instructs the wireless communication unit 14 to establish a wireless connection with the portable terminal 700.
In S<b>802 , when the control unit 71 of the portable terminal 700 receives an instruction to establish a wireless connection with the imaging device 100 via the operation unit 73 , the control unit 71 instructs the wireless communication unit 74 to establish a wireless connection with the imaging device 100 .

S803において、撮像装置100の無線通信部14と、携帯端末700の無線通信部74とは、相互に所定の通信シーケンスを実行することで、撮像装置100と携帯端末700との間の無線接続を確立する。
この際に、撮像装置100の制御部10は、携帯端末700のIPアドレスを基に、ARP(Address Resolution Protocol)を用いて、携帯端末700のMacアドレスを、無線通信部14を介して取得する。制御部10は、取得したMacアドレスをRAM18に保持する。無線接続が確立された後は、当該無線接続を利用することで、撮像装置100と携帯端末700との間において、制御コマンド、設定情報、デジタル画像データ、アナログ映像信号、及び付加情報等を相互に送受信することが可能となる。なお、本実施形態では、撮像装置100の制御部10が、携帯端末700を識別するための情報としてMacアドレスを取得する場合の一例について説明したが、携帯端末700を識別することが可能であれば、そのために利用される情報は特に限定されない。具体的な一例として、シリアルナンバー等が携帯端末700の識別に利用されてもよい。
In S803, the wireless communication unit 14 of the imaging device 100 and the wireless communication unit 74 of the portable terminal 700 execute a predetermined communication sequence with each other, thereby establishing a wireless connection between the imaging device 100 and the portable terminal 700.
At this time, the control unit 10 of the imaging device 100 acquires the MAC address of the portable terminal 700 through the wireless communication unit 14 using ARP (Address Resolution Protocol) based on the IP address of the portable terminal 700. The control unit 10 holds the acquired MAC address in the RAM 18. After the wireless connection is established, the imaging device 100 and the portable terminal 700 can transmit and receive control commands, setting information, digital image data, analog video signals, additional information, and the like between them by using the wireless connection. In this embodiment, an example of the case where the control unit 10 of the imaging device 100 acquires a MAC address as information for identifying the portable terminal 700 has been described, but as long as it is possible to identify the portable terminal 700, the information used for this purpose is not particularly limited. As a specific example, a serial number or the like may be used to identify the portable terminal 700.

次いで、図9Aを参照して、携帯端末700が、ユーザからの指示に応じてプランニングデータを撮像装置100に送信する処理の一例について説明する。
S901において、制御部71は、操作部73を介してユーザからプランニングデータの選択を受け付けたか否かを判定する。具体的な一例として、制御部71は、図9Bに示すメニュー画面を表示部72に表示させることで、当該メニュー画面を介してユーザからプランニングデータの選択を受け付けてもよい。
制御部71は、S901においてプランニングデータの選択を受け付けたと判定した場合には、対象となるプランニングデータをRAM76に保持したうえで、処理をS902に進める。
一方で、制御部71は、S901においてプランニングデータの選択を受け付けていないと判定した場合(例えば、メニュー画面にてキャンセルボタンが押下された場合)には、図9Aに示す一連の処理を終了する。
Next, an example of a process in which the portable terminal 700 transmits planning data to the imaging device 100 in response to an instruction from a user will be described with reference to FIG. 9A.
In S901, the control unit 71 determines whether or not a selection of planning data has been received from the user via the operation unit 73. As a specific example, the control unit 71 may display a menu screen shown in Fig. 9B on the display unit 72, and receive the selection of planning data from the user via the menu screen.
When the control unit 71 determines in S901 that the selection of planning data has been accepted, the control unit 71 stores the target planning data in the RAM 76 and then advances the process to S902.
On the other hand, if the control unit 71 determines in S901 that the selection of planning data has not been accepted (for example, if the cancel button is pressed on the menu screen), it ends the series of processes shown in FIG. 9A.

S902において、制御部71は、操作部73を介したユーザからの指示に基づき、プランニングデータを撮像装置100に送信するか否かを判定する。具体的な一例として、制御部71は、図9Cに示すメニュー画面を表示部72に表示させることで、当該メニュー画面を介してユーザからプランニングデータを送信するか否かに関する指示を受け付けてもよい。
制御部71は、S902においてプランニングデータを撮像装置100に送信する旨の指示を受け付けたと判定した場合には、処理をS903に進める。
一方で、制御部71は、S902においてプランニングデータを撮像装置100に送信しない旨の指示を受け付けたと判定した場合には、図9Aに示す一連の処理を終了する。
In S902, the control unit 71 determines whether or not to transmit the planning data to the imaging device 100, based on an instruction from the user via the operation unit 73. As a specific example, the control unit 71 may display a menu screen shown in Fig. 9C on the display unit 72, and receive an instruction from the user regarding whether or not to transmit the planning data via the menu screen.
If the control unit 71 determines in S902 that an instruction to transmit the planning data to the imaging device 100 has been received, the control unit 71 advances the process to S903.
On the other hand, if the control unit 71 determines in S902 that an instruction not to transmit the planning data to the imaging device 100 has been received, the control unit 71 ends the series of processes shown in FIG. 9A.

S903は、制御部71は、無線通信部74を介して、S901にてRAM76に保持したプランニングデータと、当該プランニングデータが保持されている場所を示す在処情報(例えば、ディレクトリ名及びファイル名)とを撮像装置100に送信する。 In S903, the control unit 71 transmits, via the wireless communication unit 74, to the imaging device 100 the planning data stored in the RAM 76 in S901 and location information indicating where the planning data is stored (e.g., directory name and file name).

次いで、図9Dを参照して、撮像装置100が携帯端末700からプランニングデータ及びプランニングデータ在処情報を受信した場合における当該撮像装置100の処理の一例について説明する。
S911において、制御部10は、携帯端末700からのプランニングデータ及び当該プランニングデータの在処情報の送信を待ち受ける。そして、制御部10は、無線通信部14を介して携帯端末700からのプランニングデータ及び当該プランニングデータの在処情報を受信したと判定した場合には、処理をS912に進める。
S912において、制御部10は、携帯端末700から受信したプランニングデータをRAM18に保持する。また、制御部10は、携帯端末700から受信した当該プランニングデータの在処情報(例えば、ディレクトリ名及びファイル名)を、既にRAM18に保持されている当該携帯端末700のMacアドレスと関連付けてRAM18に保持する。
Next, an example of processing by the imaging device 100 when the imaging device 100 receives planning data and planning data location information from the mobile terminal 700 will be described with reference to FIG. 9D.
In S911, the control unit 10 waits for transmission of the planning data and the location information of the planning data from the mobile terminal 700. Then, when the control unit 10 determines that the planning data and the location information of the planning data have been received from the mobile terminal 700 via the wireless communication unit 14, the control unit 10 proceeds to the process of S912.
In S912, the control unit 10 stores in the RAM 18 the planning data received from the portable terminal 700. In addition, the control unit 10 stores in the RAM 18 location information (e.g., directory name and file name) of the planning data received from the portable terminal 700 in association with the Mac address of the portable terminal 700 already stored in the RAM 18.

次いで、図10を参照して、動画像のファイルと付加情報との管理に係るフォルダ構成の一例について説明する。本実施形態では、プランニングデータ在処情報1040の内容が、前述した第1の実施形態におけるプランニングデータ在処情報264の内容と異なる。
本実施形態では、XMLファイルの復旧に際して、当該復旧に使用されるプランニングデータが携帯端末700側に保持されている。そのため、プランニングデータ在処情報1040には、携帯端末700に固有の携帯電話個体情報(Macアドレスやシリアル番号等)と、プランニングデータが保持された携帯端末700内の場所を示す情報(ディレクトリ名及びファイル名)が格納される。
Next, an example of a folder configuration related to management of video files and additional information will be described with reference to Fig. 10. In this embodiment, the contents of planning data location information 1040 are different from the contents of planning data location information 264 in the first embodiment described above.
In this embodiment, when restoring an XML file, the planning data used for the restoration is held on the mobile terminal 700. Therefore, the planning data location information 1040 stores mobile phone individual information (such as a Mac address or serial number) unique to the mobile terminal 700, and information indicating the location in the mobile terminal 700 where the planning data is held (directory name and file name).

次いで、図11を参照して、制御部10が操作部16を介した記録開始要求を受け付けて、動画像の記録を開始する処理の一例について説明する。図11に示す例は、S1151の処理が、図3Bに示す例と異なる。すなわち、S1151においては、制御部10は、RAM18に書き込むプランニングデータ在処情報として、図10を参照して説明したプランニングデータ在処情報1040を適用する。なお、その他の処理については、図3Bに示す例と実質的に同様のため、詳細な説明は省略する。 Next, referring to FIG. 11, an example of the process in which the control unit 10 accepts a recording start request via the operation unit 16 and starts recording of a moving image will be described. In the example shown in FIG. 11, the process of S1151 differs from the example shown in FIG. 3B. That is, in S1151, the control unit 10 applies the planning data location information 1040 described with reference to FIG. 10 as the planning data location information to be written to RAM 18. Note that other processes are substantially similar to the example shown in FIG. 3B, and therefore detailed description will be omitted.

次いで、図12Aを参照して、メタデータが誤消去や紛失等により失われた状態において、当該メタデータを再度生成することで復旧する処理の一例について説明する。なお、本実施形態では、前述したように、メタデータの復旧に使用されるプランニングデータが、携帯端末700側に保持されている。すなわち、撮像装置100は、携帯端末700からプランニングデータを受信したうえで、当該プランニングデータを利用してメタデータの復旧を行う。そのため、図12Aに示す例では、S1204~S1206、S1209の処理が、図5に示す例と異なり、その他の処理については図5に示す例と実質的に同様である。そこで、以降では、図5に示例と異なる部分に着目して説明を行い、図5に示す例と実質的に同様の部分については詳細な説明は省略する。 Next, referring to FIG. 12A, an example of a process for recovering metadata by regenerating the metadata when the metadata has been lost due to erroneous deletion, loss, or the like will be described. Note that in this embodiment, as described above, the planning data used to recover the metadata is held on the mobile terminal 700 side. That is, the imaging device 100 receives the planning data from the mobile terminal 700 and then recovers the metadata using the planning data. Therefore, in the example shown in FIG. 12A, the processes of S1204 to S1206 and S1209 are different from the example shown in FIG. 5, but the other processes are substantially similar to the example shown in FIG. 5. Therefore, hereinafter, the description will focus on the parts that are different from the example shown in FIG. 5, and detailed descriptions of the parts that are substantially similar to the example shown in FIG. 5 will be omitted.

S1204において、制御部10は、接続中の携帯端末700のMacアドレスと、復旧対象となるXMLファイル(メタデータ)に対応する動画ファイル内のプランニングデータ在処情報に示されたMacアドレスとが一致しているか否かを判定する。
具体的には、接続中の携帯端末700のMacアドレスについては、撮像装置100と当該携帯端末700との間の無線接続の確立時に、RAM18に保持される。また、制御部10は、動画像のファイル内に記録されたプランニングデータ在処情報を、着脱可能記録媒体20から読み出してRAM18に展開する。そのうえで、制御部10は、RAM18に保持された接続中の携帯端末700のMacアドレスと、RAM18に展開されたプランニングデータ在処情報に含まれるMacアドレスとを比較すればよい。
制御部10は、S1204において接続中の携帯端末700のMacアドレスと、対象となるプランニングデータ在処情報に示されたMacアドレスとが一致していると判定した場合には、処理をS1205に進める。
一方で、制御部10は、S1204において接続中の携帯端末700のMacアドレスと、対象となるプランニングデータ在処情報に示されたMacアドレスとが一致していないと判定した場合には、処理をS1209に進める。
In S1204, the control unit 10 determines whether the Mac address of the connected mobile terminal 700 matches the Mac address indicated in the planning data location information in the video file corresponding to the XML file (metadata) to be restored.
Specifically, the Mac address of the connected portable terminal 700 is held in RAM 18 when a wireless connection is established between the imaging device 100 and the portable terminal 700. Furthermore, the control unit 10 reads out the planning data location information recorded in the moving image file from the removable recording medium 20 and loads it in RAM 18. Then, the control unit 10 compares the Mac address of the connected portable terminal 700 held in RAM 18 with the Mac address included in the planning data location information loaded in RAM 18.
If the control unit 10 determines in S1204 that the Mac address of the connected mobile terminal 700 matches the Mac address indicated in the target planning data location information, the control unit 10 advances the process to S1205.
On the other hand, if the control unit 10 determines in S1204 that the Mac address of the connected mobile terminal 700 does not match the Mac address indicated in the target planning data location information, the control unit 10 advances the process to S1209.

S1205は、制御部10は、無線通信部14を介して、復旧対象となるXMLファイルに対応する動画像のファイル内に保存されたプランニングデータ在処情報(ディレクトリ名及びファイル名)を、接続されている携帯端末700に送信する。そのうえで、制御部10は、当該携帯端末700に、プランニングデータの送信を要求する。 In S1205, the control unit 10 transmits, via the wireless communication unit 14, to the connected mobile terminal 700, the planning data location information (directory name and file name) stored in the video file corresponding to the XML file to be restored. The control unit 10 then requests the mobile terminal 700 to transmit the planning data.

S1206において、制御部10は、無線通信部14を介して携帯端末700から復旧用のプランニングデータを受信したか否かを判定する。
制御部10は、S1206において携帯端末700から復旧用のプランニングデータを受信したと判定した場合には、処理をS506に進める。
一方で、制御部10は、S1206において携帯端末700から復旧用のプランニングデータを受信できなかったと判定した場合には、処理をS1209に進める。
In S<b>1206 , the control unit 10 determines whether or not recovery planning data has been received from the mobile terminal 700 via the wireless communication unit 14 .
If the control unit 10 determines in S1206 that the planning data for recovery has been received from the mobile terminal 700, the control unit 10 advances the process to S506.
On the other hand, if the control unit 10 determines in S1206 that the recovery planning data has not been received from the mobile terminal 700, the control unit 10 advances the process to S1209.

S1209において、制御部10は、図13に示すような画面を表示部15に表示させることで、XMLファイルの復旧に使用されるプランニングデータの再配置をユーザに促す。具体的には、図13に示す画面では、復旧用のファイルが必要である旨を示すメッセージと、プランニングデータを再配置する位置を示す情報と、復旧作業をユーザに促すメッセージとが表示されている。 In S1209, the control unit 10 prompts the user to rearrange the planning data used to recover the XML file by displaying a screen such as that shown in FIG. 13 on the display unit 15. Specifically, the screen shown in FIG. 13 displays a message indicating that a recovery file is required, information indicating the location to which the planning data will be rearranged, and a message prompting the user to perform recovery work.

次いで、図12Bを参照して、携帯端末700が撮像装置100からプランニングデータの送信要求を受け付けた場合における、当該携帯端末700の処理の一例について説明する。
S1211において、制御部71は、撮像装置100からのプランニングデータの送信要求を待ち受ける。そして、制御部71は、無線通信部74を介して撮像装置100からプランニングデータの送信要求を受信したと判定した場合に、あわせて送信されるプランニングデータ在処情報をRAM76に展開したうえで、処理をS1212に進める。なお、この際に、制御部71は、プランニングデータ在処情報が送信されなかった場合には、対応するプランニングデータの送信要求については無効と判定してもよい。
Next, with reference to FIG. 12B, an example of processing performed by the portable terminal 700 when the portable terminal 700 receives a transmission request for planning data from the imaging device 100 will be described.
In S1211, the control unit 71 waits for a transmission request for planning data from the imaging device 100. Then, when the control unit 71 determines that a transmission request for planning data has been received from the imaging device 100 via the wireless communication unit 74, it loads the planning data location information transmitted together in the RAM 76, and proceeds to the process of S1212. At this time, if the planning data location information has not been transmitted, the control unit 71 may determine that the transmission request for the corresponding planning data is invalid.

S1212において、制御部71は、RAM76に展開したプランニングデータ在処情報(ディレクトリ名及びファイル名)が示す場所にプランニングデータが保持されているか否かを判定する。
制御部71が、プランニングデータ在処情報が示す場所にプランニングデータが保持されていると判定した場合には、処理をS1213に進める。
一方で、制御部71が、プランニングデータ在処情報が示す場所にプランニングデータが保持されていないと判定した場合には、処理をS1214に進める。
In S1212, the control unit 71 determines whether or not the planning data is held in the location indicated by the planning data location information (directory name and file name) expanded in the RAM 76.
If the control unit 71 determines that the planning data is stored in the location indicated by the planning data location information, the control unit 71 advances the process to S1213.
On the other hand, if the control unit 71 determines that the planning data is not stored in the location indicated by the planning data location information, the control unit 71 advances the process to S1214.

S1213において、制御部71は、無線通信部14を介して、プランニングデータ在処情報が示す場所に保持されたプランニングデータを撮像装置100に送信する。
これに対して、S1214においては、制御部71は、無線通信部14を介して、対象となるプランニングデータが存在しないことを示す情報を撮像装置100に通知する。
In S1213, the control unit 71 transmits the planning data held in the location indicated by the planning data location information to the imaging device 100 via the wireless communication unit 14.
On the other hand, in S1214, the control unit 71 notifies the imaging device 100 via the wireless communication unit 14 of information indicating that the target planning data does not exist.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
<Other embodiments>
Although the present invention has been described in detail above based on the preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the present invention are also included in the present invention. Parts of the above-described embodiments may be combined as appropriate.
The present invention also includes cases where a software program that realizes the functions of the above-described embodiments is supplied to a system or device having a computer capable of executing the program directly from a recording medium or via wired/wireless communication, and the program is executed.
Therefore, the program code itself that is supplied to and installed in a computer to realize the functional processing of the present invention also realizes the present invention. In other words, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.
In this case, so long as the program has the functions of a program, the program may be in any form, such as object code, a program executed by an interpreter, or script data supplied to an OS.
The recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, an optical/magneto-optical storage medium, or a non-volatile semiconductor memory.
As a method for supplying the program, a method is also conceivable in which the computer program forming the present invention is stored in a server on a computer network, and a connected client computer downloads the computer program.

また、上述した各実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、必ずしも本発明の適用対象を限定するものではない。すなわち、本発明は、撮像素子が付随したあらゆるデバイスに適用してもよい。すなわち携帯電話端末や携帯型の画像ビューワ、カメラを備えるテレビ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなど、画像を撮像可能な装置であれば、本発明は適用可能である。また、上述した各実施形態において動画を再生する構成に関する発明については、画像を撮像する機能を持たない画像処理装置に対しても適用可能である。 In addition, in each of the above-mentioned embodiments, the present invention has been described as being applied to a digital camera, but this does not necessarily limit the scope of application of the present invention. In other words, the present invention may be applied to any device equipped with an image sensor. In other words, the present invention is applicable to any device capable of capturing images, such as a mobile phone terminal, a portable image viewer, a television equipped with a camera, a digital photo frame, a music player, a game console, or an e-book reader. Furthermore, the invention relating to the configuration for playing video in each of the above-mentioned embodiments can also be applied to image processing devices that do not have the function of capturing images.

また、本実施形態の開示は、以下の構成、方法、及びプログラムを含む。
(構成1)複数の第一メタデータの中から1つの第一メタデータを取得する取得手段と、動画像から記録内容に係る情報を抽出する抽出手段と、前記取得手段により取得された第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成手段と、前記動画像と、前記第二メタデータとを関連付けて記録する第一記録手段と、前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録手段と、を有し、前記第一生成手段は、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成することを特徴とする、動画像記録装置。
(構成2)前記第二記録手段は、前記在処情報を、前記動画像の付加情報領域に記録することを特徴とする、構成1に記載の動画像記録装置。
(構成3)前記動画像に付加される付加データを生成する第二生成手段を有し、前記第二記録手段は、前記第二生成手段により生成された前記付加データに前記在処情報を記録することを特徴とする、構成1に記載の動画像記録装置。
(構成4)前記取得手段は、外部装置に保持された前記複数の第一メタデータのうちの1つの第一メタデータと、前記外部装置において当該第一メタデータが保持された場所を示す在所情報と、前記外部装置から取得し、前記第二記録手段は、前記取得手段により前記外部装置から取得された前記在処情報を記録することを特徴とする、構成1乃至3のいずれか1項に記載の動画像記録装置。
(構成5)前記第二メタデータの生成の指示を受け付ける第一受付手段を有し、前記第一生成手段は、前記第一受付手段が前記指示を受け付けた場合に、前記第二メタデータを生成することを特徴とする、構成1乃至4のいずれか1項に記載の動画像記録装置。
(構成6)前記動画像を再生する再生手段を有し、前記第一生成手段は、前記第一受付手段が前記指示を受け付けた場合に、前記再生手段が再生の対象としている前記動画像を対象として、前記第二メタデータを生成することを特徴とする、構成5に記載の動画像記録装置。
(構成7)前記在処情報が示す場所に前記第一メタデータが保持されていない場合に、適用対象とする第一メタデータの指定を受け付ける第二受付手段を有し、前記第一生成手段は、前記第二受付手段が第一メタデータの指定を受け付けた場合に、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成することを特徴とする、構成1乃至6のいずれか1項に記載の動画像記録装置。
(構成8)前記第二記録手段は、動画像の記録が開始された場合に、当該動画像に関連付けられる前記第二メタデータの生成に用いられた前記第一メタデータが保持された場所を示す前記在処情報を記録することを特徴とする、構成1乃至7のいずれか1項に記載の動画像記録装置。
(方法1)動画像記録装置の制御方法であって、複数の第一メタデータの中から1つの第一メタデータを取得する取得ステップと、動画像から記録内容に係る情報を抽出する抽出ステップと、前記取得ステップにおいて取得された第一メタデータと、前記抽出ステップにおいて抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成ステップと、前記動画像と、前記第二メタデータとを関連付けて記録する第一記録ステップと、前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録ステップと、を有し、前記第一生成ステップは、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出ステップにおいて抽出された前記記録内容に係る情報と、から第二メタデータを生成することを特徴とする、動画像記録装置の制御方法。
(プログラム1)コンピュータを、複数の第一メタデータの中から1つの第一メタデータを取得する取得手段と、動画像から記録内容に係る情報を抽出する抽出手段と、前記取得手段により取得された第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成手段と、前記動画像と、前記第二メタデータとを関連付けて記録する第一記録手段と、前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録手段と、を有し、前記第一生成手段は、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成することを特徴とする動画像記録装置として機能させるためのプログラム。
The disclosure of this embodiment also includes the following configurations, methods, and programs.
(Configuration 1) A video recording device comprising: an acquisition means for acquiring one first metadata from a plurality of first metadata; an extraction means for extracting information related to recorded contents from a video; a first generation means for generating second metadata from the first metadata acquired by the acquisition means and the information related to the recorded contents extracted by the extraction means; a first recording means for recording the video and the second metadata in association with each other; and a second recording means for recording location information indicating a location where the first metadata used to generate the second metadata was stored in association with the video with which the second metadata is associated, wherein when the second metadata associated with the video is lost, the first generation means reads out the first metadata based on the location information, and generates the second metadata from the first metadata and the information related to the recorded contents extracted by the extraction means.
(Configuration 2) The moving image recording device according to configuration 1, wherein the second recording means records the location information in an additional information area of the moving image.
(Configuration 3) The moving image recording device described in Configuration 1, further comprising a second generating means for generating additional data to be added to the moving image, and the second recording means for recording the location information in the additional data generated by the second generating means.
(Configuration 4) The video recording device described in any one of configurations 1 to 3, characterized in that the acquisition means acquires from the external device one first metadata among the multiple first metadata stored in the external device and location information indicating a location where the first metadata is stored in the external device, and the second recording means records the location information acquired from the external device by the acquisition means.
(Configuration 5) A video recording device as described in any one of configurations 1 to 4, further comprising a first receiving means for receiving an instruction to generate the second metadata, wherein the first generating means generates the second metadata when the first receiving means receives the instruction.
(Configuration 6) The moving image recording device described in Configuration 5, further comprising a playback means for playing back the moving image, wherein the first generation means generates the second metadata for the moving image that is to be played back by the playback means when the first reception means receives the instruction.
(Configuration 7) A video recording device as described in any one of configurations 1 to 6, further comprising a second receiving means for receiving designation of first metadata to be applied when the first metadata is not stored in the location indicated by the location information, and the first generation means, when the second receiving means receives designation of first metadata, generates second metadata from the first metadata and information relating to the recorded content extracted by the extraction means.
(Configuration 8) A moving image recording device as described in any one of configurations 1 to 7, characterized in that the second recording means records the location information indicating the location where the first metadata used to generate the second metadata associated with the moving image is stored when recording of the moving image is started.
(Method 1) A control method for a video recording device, comprising: an acquisition step of acquiring one first metadata from a plurality of first metadata; an extraction step of extracting information related to the recorded contents from a video; a first generation step of generating second metadata from the first metadata acquired in the acquisition step and the information related to the recorded contents extracted in the extraction step; a first recording step of recording the video and the second metadata in association with each other; and a second recording step of recording location information indicating a location where the first metadata used to generate the second metadata was stored in association with the video with which the second metadata is associated, wherein the first generation step reads out the first metadata based on the location information when the second metadata associated with the video is lost, and generates the second metadata from the first metadata and the information related to the recorded contents extracted in the extraction step.
(Program 1) A program for causing a computer to function as a video recording device comprising: an acquisition means for acquiring one first metadata from a plurality of first metadata; an extraction means for extracting information related to the recorded contents from a video; a first generation means for generating second metadata from the first metadata acquired by the acquisition means and the information related to the recorded contents extracted by the extraction means; a first recording means for recording the video and the second metadata in association with each other; and a second recording means for recording location information indicating a location where the first metadata used to generate the second metadata was stored in association with the video with which the second metadata is associated, wherein the first generation means reads out the first metadata based on the location information when the second metadata associated with the video is lost, and generates the second metadata from the first metadata and the information related to the recorded contents extracted by the extraction means.

100 撮像装置
10 制御部
100 Imaging device 10 Control unit

Claims (10)

複数の第一メタデータの中から1つの第一メタデータを取得する取得手段と、
動画像から記録内容に係る情報を抽出する抽出手段と、
前記取得手段により取得された第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成手段と、
前記動画像と、前記第二メタデータとを関連付けて記録する第一記録手段と、
前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録手段と、
を有し、
前記第一生成手段は、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する
ことを特徴とする、動画像記録装置。
An acquisition means for acquiring one piece of first metadata from among the plurality of first metadata;
An extraction means for extracting information relating to the recorded contents from the moving image;
a first generating means for generating second metadata from the first metadata acquired by the acquiring means and information related to the recording content extracted by the extracting means;
a first recording means for recording the video and the second metadata in association with each other;
a second recording means for recording location information indicating a location where the first metadata used to generate the second metadata is stored, in association with the video image with which the second metadata is associated;
having
said first generating means, when the second metadata associated with the video is lost, reads out the first metadata based on the location information, and generates second metadata from the first metadata and information relating to the recorded content extracted by said extracting means.
前記第二記録手段は、前記在処情報を、前記動画像の付加情報領域に記録することを特徴とする、請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the second recording means records the location information in an additional information area of the video. 前記動画像に付加される付加データを生成する第二生成手段を有し、
前記第二記録手段は、前記第二生成手段により生成された前記付加データに前記在処情報を記録する
ことを特徴とする、請求項1に記載の動画像記録装置。
a second generating means for generating additional data to be added to the moving image;
The video image recording device according to claim 1 , wherein the second recording means records the location information in the additional data generated by the second generating means.
前記取得手段は、外部装置に保持された前記複数の第一メタデータのうちの1つの第一メタデータと、前記外部装置において当該第一メタデータが保持された場所を示す在所情報と、前記外部装置から取得し、
前記第二記録手段は、前記取得手段により前記外部装置から取得された前記在処情報を記録する
ことを特徴とする、請求項1に記載の動画像記録装置。
the acquiring means acquires, from the external device, one first metadata among the plurality of first metadata stored in the external device, and location information indicating a location where the first metadata is stored in the external device;
2. The video recording device according to claim 1, wherein the second recording means records the location information acquired from the external device by the acquisition means.
前記第二メタデータの生成の指示を受け付ける第一受付手段を有し、
前記第一生成手段は、前記第一受付手段が前記指示を受け付けた場合に、前記第二メタデータを生成する
ことを特徴とする、請求項1に記載の動画像記録装置。
a first reception means for receiving an instruction to generate the second metadata,
The video recording device according to claim 1 , wherein the first generating means generates the second metadata when the first accepting means accepts the instruction.
前記動画像を再生する再生手段を有し、
前記第一生成手段は、前記第一受付手段が前記指示を受け付けた場合に、前記再生手段が再生の対象としている前記動画像を対象として、前記第二メタデータを生成する
ことを特徴とする、請求項5に記載の動画像記録装置。
a playback means for playing back the moving image,
6. The video recording device according to claim 5, wherein the first generating means generates the second metadata for the video being played back by the playback means when the first receiving means receives the instruction.
前記在処情報が示す場所に前記第一メタデータが保持されていない場合に、適用対象とする第一メタデータの指定を受け付ける第二受付手段を有し、
前記第一生成手段は、前記第二受付手段が第一メタデータの指定を受け付けた場合に、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する
ことを特徴とする、請求項1に記載の動画像記録装置。
a second receiving means for receiving designation of the first metadata to be applied when the first metadata is not stored in the location indicated by the location information;
2. The video recording device according to claim 1, wherein when the second receiving means receives a designation of first metadata, the first generating means generates second metadata from the first metadata and information relating to the recording content extracted by the extracting means.
前記第二記録手段は、動画像の記録が開始された場合に、当該動画像に関連付けられる前記第二メタデータの生成に用いられた前記第一メタデータが保持された場所を示す前記在処情報を記録することを特徴とする、請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the second recording means records the location information indicating the location where the first metadata used to generate the second metadata associated with the video is stored when video recording is started. 動画像記録装置の制御方法であって、
複数の第一メタデータの中から1つの第一メタデータを取得する取得ステップと、
動画像から記録内容に係る情報を抽出する抽出ステップと、
前記取得ステップにおいて取得された第一メタデータと、前記抽出ステップにおいて抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成ステップと、
前記動画像と、前記第二メタデータとを関連付けて記録する第一記録ステップと、
前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録ステップと、
を有し、
前記第一生成ステップは、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出ステップにおいて抽出された前記記録内容に係る情報と、から第二メタデータを生成する
ことを特徴とする、動画像記録装置の制御方法。
A method for controlling a moving image recording device, comprising:
An acquisition step of acquiring one piece of first metadata from the plurality of first metadata;
An extraction step of extracting information related to the recorded content from the moving image;
a first generation step of generating second metadata from the first metadata acquired in the acquisition step and information related to the recording content extracted in the extraction step;
a first recording step of recording the video and the second metadata in association with each other;
a second recording step of recording location information indicating a location where the first metadata used to generate the second metadata is stored, in association with the video associated with the second metadata;
having
a first generation step of reading the first metadata based on the location information when the second metadata associated with the video is lost, and generating second metadata from the first metadata and information related to the recorded content extracted in the extraction step.
コンピュータを、
複数の第一メタデータの中から1つの第一メタデータを取得する取得手段と、
動画像から記録内容に係る情報を抽出する抽出手段と、
前記取得手段により取得された第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する第一生成手段と、
前記動画像と、前記第二メタデータとを関連付けて記録する第一記録手段と、
前記第二メタデータの生成に用いられた第一メタデータが保持された場所を示す在処情報を、当該第二メタデータが関連付けられた前記動画像と関連付けて記録する第二記録手段と、
を有し、
前記第一生成手段は、前記動画像に関連付けられた前記第二メタデータが失われた場合に、前記在処情報を基に前記第一メタデータを読み出し、当該第一メタデータと、前記抽出手段により抽出された前記記録内容に係る情報と、から第二メタデータを生成する
ことを特徴とする動画像記録装置として機能させるためのプログラム。
Computer,
An acquisition means for acquiring one piece of first metadata from among the plurality of first metadata;
An extraction means for extracting information relating to the recorded contents from the moving image;
a first generating means for generating second metadata from the first metadata acquired by the acquiring means and information related to the recording content extracted by the extracting means;
a first recording means for recording the video and the second metadata in association with each other;
a second recording means for recording location information indicating a location where the first metadata used to generate the second metadata is stored, in association with the video image with which the second metadata is associated;
having
The first generating means, when the second metadata associated with the video is lost, reads the first metadata based on the location information, and generates second metadata from the first metadata and information related to the recorded content extracted by the extracting means.
JP2023002857A 2023-01-12 2023-01-12 Video recording device, video recording device control method, and program Pending JP2024099141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023002857A JP2024099141A (en) 2023-01-12 2023-01-12 Video recording device, video recording device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023002857A JP2024099141A (en) 2023-01-12 2023-01-12 Video recording device, video recording device control method, and program

Publications (1)

Publication Number Publication Date
JP2024099141A true JP2024099141A (en) 2024-07-25

Family

ID=91957928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023002857A Pending JP2024099141A (en) 2023-01-12 2023-01-12 Video recording device, video recording device control method, and program

Country Status (1)

Country Link
JP (1) JP2024099141A (en)

Similar Documents

Publication Publication Date Title
JP6566330B2 (en) Video editing method
JP4416606B2 (en) Display control apparatus, display control method, program, and storage medium
US20090115861A1 (en) Recording apparatus
JP2014154891A (en) Information processor, control method for the same, program, and storage medium
US9390753B2 (en) Content management apparatus, recording apparatus, operation apparatus, content management system, and control methods thereof
US12174794B2 (en) Processing apparatus and control method thereof
JP2024099141A (en) Video recording device, video recording device control method, and program
JP4326753B2 (en) Video information indexing support system, program, and storage medium
CN110324515B (en) Image recording apparatus and control method thereof
US12072933B2 (en) Recording apparatus, method of controlling same, external apparatus, and storage medium
US20080267581A1 (en) Method for editing list of moving image files
JP7705284B2 (en) Imaging device, control method thereof, external device, program, and storage medium
JP2008219425A (en) Image processing apparatus and image processing method
JP7731706B2 (en) Recording device, electronic device, and control method thereof, program, and storage medium
JP7752976B2 (en) Recording device, control method thereof, and program
JP5506145B2 (en) Memory card management device and memory card management program
JP7475930B2 (en) Imaging device and control method thereof
JP2025166640A (en) Imaging device, video combining device, and control method and program thereof
US8412686B2 (en) Method and apparatus for determining whether a private data area is safe to preserve
JP2009025899A (en) MEMORY CONTROLLER, NONVOLATILE STORAGE DEVICE, AND NONVOLATILE STORAGE DEVICE SYSTEM
JP5393416B2 (en) Imaging apparatus and control method and program thereof
JP2025163510A (en) Video processing device, video processing method, and program
JP2004048594A (en) Image data storage device and control method of display image data generation processing
JP2001313861A (en) Image capturing device, data management device, medium, and program
JP4549325B2 (en) VIDEO INFORMATION INDEXING SUPPORT DEVICE, PROGRAM, AND STORAGE MEDIUM