[go: up one dir, main page]

WO2024241730A1 - 記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム - Google Patents

記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム Download PDF

Info

Publication number
WO2024241730A1
WO2024241730A1 PCT/JP2024/014229 JP2024014229W WO2024241730A1 WO 2024241730 A1 WO2024241730 A1 WO 2024241730A1 JP 2024014229 W JP2024014229 W JP 2024014229W WO 2024241730 A1 WO2024241730 A1 WO 2024241730A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
recording
storage
recording area
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2024/014229
Other languages
English (en)
French (fr)
Inventor
英明 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2025521852A priority Critical patent/JPWO2024241730A1/ja
Publication of WO2024241730A1 publication Critical patent/WO2024241730A1/ja
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • This disclosure relates to a recording method for recording video data in a specified recording area, a storage control device, an information processing device, and a video recording system.
  • a system inputs video data output by a video output device such as a camera and records the video data in storage.
  • the video data recorded in the storage is used, for example, for future playback or video editing.
  • a system is known that includes multiple storage devices with different performance (e.g., access speed). Since the capacity of each storage device is limited, the system selects the data to be recorded in each storage device. As an example of the selection of data to be recorded in a storage device, it is known to reduce the amount of data collected when the total rate of data collected in an IoT system exceeds the throughput parameters of the network infrastructure (see, for example, Patent Document 1).
  • the video data recorded in the video recording system is used for future playback and video editing. Some video data is frequently played back and edited, while other video data needs to be stored for a long period of time but will not be used for playback or editing immediately.
  • the purpose of this disclosure is to record video data in an appropriate recording area when recording video data in multiple recording areas with different performance.
  • the video data recording method disclosed herein is a method for recording video data in multiple recording areas, each of which has different performance.
  • the recording method includes the following steps:
  • a usage status acquisition step for acquiring the usage status of the video data obtained by analyzing the video data.
  • ⁇ A recording area determination step that determines in which of a plurality of recording areas the video data will be recorded, based on the usage status.
  • the video data is analyzed to determine its usage status, and based on the result of this determination (i.e., the usage status of the video data), it is determined in which of multiple recording areas the video data will be recorded. This allows the video data to be recorded in an appropriate recording area depending on its usage status.
  • FIG. 1 is a diagram showing the configuration of a video recording system.
  • FIG. 2 is a diagram showing the configuration of the information processing device.
  • FIG. 3 is a diagram illustrating the configuration of the storage control device.
  • FIG. 4 is a flow chart showing the operation of the information processing device in recording video data based on the importance.
  • FIG. 5 is a flowchart showing the operation of the storage control device in recording video data based on importance.
  • FIG. 6 is a diagram showing signal transmission and reception in a video data recording operation based on the importance of the video data.
  • FIG. 7 is a flowchart showing the operation of an information processing device in another example of the operation of recording video data based on importance.
  • FIG. 8 is a flowchart showing the operation of the storage control device in another example of the operation of recording video data based on the importance.
  • FIG. 9 is a diagram showing signal transmission and reception in another example of the operation of recording video data based on importance.
  • FIG. 10 is a diagram illustrating an example of a data movement time setting table.
  • FIG. 11 is a flowchart showing the operation of recording video data based on the data transfer time.
  • FIG. 12 is a flowchart showing the operation of recording video data based on the access frequency.
  • FIG. 13 is a diagram showing an example of a write state of each erase block.
  • FIG. 14 is a flowchart showing another example of the video data recording operation based on the access frequency.
  • video data refers to data that includes video data, audio data, and metadata, data that includes only video data, and data that includes still image data.
  • the video recording system 100 is a system for recording video data input from a video output device 2 (described later) in one of a plurality of storage devices.
  • the video data recorded in the storage device is used, for example, for future playback and editing. Editing of video data includes, for example, generating new video data by inserting a specific portion of other video data into video data.
  • FIG. 1 is a diagram showing the configuration of the video recording system 100.
  • the video recording system 100 includes an information processing device 1, a storage control device 3, and multiple storages 5a to 5c.
  • the information processing device 1 is connected to the video output device 2.
  • the video output device 2 is a device that acquires video and audio data, converts it into an electrical signal, and outputs it to the outside.
  • the video output device 2 is, for example, a video shooting device equipped with a camera that shoots a specific video, a microphone that captures the audio of the specific video, etc.
  • the video output device 2 may be a media server that records a large number of videos.
  • the video output from the video output device 2 is, for example, high-quality video such as 4K video in uncompressed format. Note that, although only one video output device 2 is provided in the example shown in FIG. 1, this is not limited to this.
  • the video recording system 100 may be equipped with multiple video output devices 2.
  • the information processing device 1 executes various information processes related to the video data input from the video output device 2. Specifically, the information processing device 1 can execute a process of converting the video data into data in a compressed format.
  • the information processing device 1 is connected to the operation device 4.
  • the operation device 4 is a device that performs operations for editing video data.
  • the operation device 4 includes, for example, an input device (for example, a keyboard, mouse, operation panel, etc.) that performs operations related to editing the video data, and a display device (for example, a display) that displays the video data.
  • the information processing device 1 outputs video data to the operation device 4 for display, and accepts operations of the operation device 4 to edit the video data.
  • the information processing device 1 can, for example, generate new video data by inserting a specific portion of a past video stored in storages 5a to 5c into a video input from the video output device 2.
  • the information processing device 1 analyzes the video data and determines the usage status of the video data in the video recording system 100. Specifically, the information processing device 1 analyzes the images and/or sounds contained in the video data and determines the importance of the video data based on the analysis results. The importance of the video data is high when the content of the video data is important, for example, when the video data contains a climax scene. On the other hand, when the video data contains content that is not important, the importance of the video data is low. The information processing device 1 analyzes the video data through image recognition and voice recognition using artificial intelligence.
  • the information processing device 1 analyzes the access status of the video data and determines the frequency of access to the video data.
  • the frequency of access to the video data can be determined, for example, by analyzing an access log that records access to the data.
  • the information processing device 1 associates the importance of the video data and/or the frequency of access to the video data with the video data as metadata of the video data.
  • the metadata is data that records various information related to the video data.
  • the metadata can also record information on the process of using the video data.
  • the information on the process of using the video data is, for example, information related to the recording, editing, transmission, and/or reuse of the video data.
  • the information processing device 1 is connected to a storage control device 3.
  • the information processing device 1 commands the storage control device 3 to record video data input from the video output device 2, video data converted into a compressed format, edited video data, etc., in one of the multiple storages 5a to 5c.
  • the information processing device 1 also commands the storage control device 3 to read specific video data from one of the multiple storages 5a to 5c.
  • the storage control device 3 controls the reading of video data from one of the multiple storages 5a to 5c, and the recording of video data in one of the multiple storages 5a to 5c.
  • the storage control device 3 reads video data that is instructed to be read by the information processing device 1 from one of the multiple storages 5a to 5c.
  • the storage control device 3 records the video data received from the information processing device 1 in one of the multiple storages 5a-5c in accordance with instructions from the information processing device 1. Specifically, the storage control device 3 determines the usage status of the video data from the metadata associated with the video data, and determines in which of the multiple storages 5a-5c the video data should be recorded based on the determined usage status. The storage control device 3 records the video data in the storage 5a-5c in which it has been determined that the video data should be recorded.
  • the multiple storages 5a to 5c read out the specified video data in accordance with instructions from the storage control device 3.
  • the multiple storages 5a to 5c also record the video data received from the storage control device 3 in accordance with instructions from the storage control device 3.
  • the multiple storages 5a to 5c include a first storage 5a, a second storage 5b, and a third storage 5c.
  • the first storage 5a, the second storage 5b, and the third storage 5c each have different performance. Specifically, the first storage 5a is the fastest storage among the above storages.
  • the first storage 5a is, for example, an enterprise-grade solid-state drive such as a triple-level cell (TLC) type solid-state drive (SSD).
  • TLC triple-level cell
  • SSD solid-state drive
  • the second storage 5b is slower than the first storage 5a, but faster than the third storage 5c.
  • the second storage 5b is a relatively high-speed storage such as a quad-level cell (QLC) type solid-state drive or a hard disk drive (HDD).
  • QLC quad-level cell
  • HDD hard disk drive
  • the third storage 5c is the slowest storage among the above storages.
  • the third storage 5c is, for example, an optical disk drive that writes data to an optical disk and reads data from an optical disk, or a magnetic tape drive that writes data to a magnetic tape and reads data from a magnetic tape.
  • the first storage 5a which is the fastest, can store, for example, video data that is recorded/played back in real time, and important and frequently accessed video data that is used for editing.
  • the second storage 5b can store, for example, video data that is not used immediately but may be used in the future, such as for secondary use or reuse.
  • the third storage 5c can store, for example, video data that is not used immediately but will be stored for a long period of time for archiving or other purposes.
  • the storage control device 3 determines that the importance of the video data is high based on the contents of the metadata of the video data, it decides to record the video data in the first storage 5a. On the other hand, if the storage control device 3 determines that the importance of the video data is low, it decides whether to record the video data in the second storage 5b or the third storage 5c depending on the importance of the video data.
  • each of the first storage 5a, second storage 5b, and third storage 5c there is only one each of the first storage 5a, second storage 5b, and third storage 5c, but each of the first storage 5a, second storage 5b, and third storage 5c may include multiple storages.
  • Fig. 2 is a diagram showing the configuration of the information processing device 1.
  • the information processing device 1 has a CPU 11, a RAM 13, a storage device 15, an interface 17, and a network interface 19.
  • the CPU 11 executes various processes in the information processing device 1. Specifically, the CPU 11 executes information processes such as compression of video data, information processing related to editing of video data, and analysis of video data. The CPU 11 executes the above processes by executing commands indicated in a program stored in the storage device 15. Note that part of the processes in the information processing device 1 may be realized by hardware implemented in the CPU 11. The CPU 11 generates commands to execute various processes.
  • RAM 13 is a storage area that temporarily stores commands generated by CPU 11, video data, etc.
  • Storage device 15 is composed of a ROM, a hard disk (HDD), a solid state drive (SSD), etc. Storage device 15 stores programs executed by CPU 11, settings related to information processing executed by information processing device 1, parameters used for the information processing, etc.
  • the interface 17 connects the information processing device 1 to other devices. As shown in FIG. 2, the video output device 2 and the operation device 4 are connected to the interface 17.
  • the interface 17 is an interface for connecting video-related devices, such as an interface conforming to the Serial Digital Interface (SDI) standard.
  • SDI Serial Digital Interface
  • the network interface 19 connects the information processing device 1 to other devices via a network such as a WAN or LAN. As shown in FIG. 2, the storage control device 3 is connected to the network interface 19.
  • the network interface 19 can directly transmit and receive data between the RAM 13 of the information processing device 1 and the RAM of another device (RAM 33 of the storage control device 3) using remote direct memory access (RDMA). This enables high-speed data transmission and reception between the information processing device 1 and another device.
  • the network interface 19 is, for example, a Gigabit Ethernet (registered trademark) interface.
  • the video output device 2 and the operation device 4 may be connected to the network interface 19 instead of the interface 17.
  • transmission according to the ST2110 standard of the SMPTE standardization organization can be used.
  • the CPU 11, the RAM 13, the interface 17, and the network interface 19 constitute the control unit of the information processing device 1.
  • the storage device 15 constitutes the storage unit of the information processing device 1.
  • Fig. 3 is a diagram showing the configuration of the storage control device 3.
  • the storage control device 3 has a CPU 31, a RAM 33, a storage device 35, a first storage interface 37a to a third storage interface 37c, and a network interface 39.
  • the CPU 31 executes various processes in the storage control device 3.
  • the CPU 31 grasps the usage status of the video data from its metadata, determines in which of the multiple storages 5a to 5c the video data will be recorded based on the grasped usage status, and executes a process to record the video data in the determined storage.
  • the CPU 31 executes various processes in the storage control device 3 by executing commands indicated in a program stored in the storage device 35. Note that some of the processes in the storage control device 3 may be realized by hardware implemented in the CPU 31.
  • RAM 33 temporarily stores data, etc.
  • RAM 13 temporarily stores commands for the storage, data sent and received between the information processing device 1 and the storage, etc.
  • the storage device 35 is composed of a ROM, a hard disk drive (HDD), a solid state drive (SSD), etc.
  • the storage device 35 stores the programs executed by the CPU 31, settings related to information processing in the storage control device 3, parameters used for the information processing, etc.
  • the first storage interface 37a connects the storage control device 3 and the first storage 5a.
  • the first storage interface 37a is, for example, a PCIe interface that complies with the PCI express standard of the PCI-SIG standard. This allows the storage control device 3 and the first storage 5a to send and receive data at high speed using a protocol dedicated to non-volatile memory (NVMe (Non-Volatile Memory Express)) using a PCI-Express bus.
  • NVMe Non-Volatile Memory Express
  • the controller acquires data from the NAND memory using the NAND protocol, converts it to the PCIe protocol, and transfers it to the host side.
  • the DMA controller that transfers directly to the host side converts and acquires data from the NAND memory to the SATA protocol, and then converts the data to the PCIe protocol and transfers it to the host.
  • NVMe processing directly converts from the NAND protocol to the PCIe protocol, making data transfer processing speeds fast.
  • the second storage interface 37b connects the storage control device 3 and the second storage 5b.
  • the second storage interface 37b is, for example, the above-mentioned PCIe interface or SATA (Serial-ATA) interface.
  • the third storage interface 37c connects the storage control device 3 and the third storage 5c.
  • the third storage interface 37c is, for example, a SATA (Serial-ATA) interface or a USB (Universal Serial Bus) interface.
  • the network interface 39 connects the storage control device 3 to other devices via a network such as a WAN or LAN. As shown in FIG. 3, the information processing device 1 is connected to the network interface 39.
  • the network interface 39 transmits and receives data directly between the RAM 33 of the storage control device 3 and the RAM of the other device (RAM 13 of the information processing device 1) by RDMA.
  • the network interface 39 can also transmit and receive data at high speed with other devices by using a protocol (NVMe-oF (NVMe over Fabric)) for communication via a network dedicated to solid state drives.
  • the network interface 39 is, for example, a Gigabit Ethernet (registered trademark) interface.
  • control unit of the storage control device 3 is configured by the CPU 31, RAM 33, the first storage interface 37a to the third storage interface 37c, and the network interface 39.
  • memory unit of the storage control device 3 is configured by the memory device 35.
  • the video recording system 100 determines in which of a plurality of recording areas the video data is to be recorded based on the usage status of the video data input from the video output device 2.
  • the "usage status" that is the criterion for determining the recording area of the video data includes the importance of the video data, the data transfer time of the video data, and the access frequency.
  • recording area refers to the data recording area formed in the first storage 5a to the third storage 5c, or in the recording medium to which data is written by these storages.
  • Fig. 4 is a flowchart showing the operation of the information processing device 1 in the operation of recording video data based on the importance.
  • Fig. 5 is a flowchart showing the operation of the storage control device 3 in the operation of recording video data based on the importance.
  • Fig. 6 is a diagram showing the transmission and reception of signals in the operation of recording video data based on the importance of the video data.
  • the CPU 11 of the information processing device 1 receives the video data and records it in the RAM 13 or storage device 15 of the information processing device 1 (step S11 in FIG. 4, steps S101 and S104 in FIG. 6).
  • the CPU 11 analyzes the contents of the received video data and determines the importance of the video data (step S12 in FIG. 1).
  • the CPU 11 determines the importance of the contents of the video data, for example, by image analysis (e.g., image recognition) and/or audio analysis (e.g., audio recognition) of the video data using artificial intelligence. For example, if the image and/or audio analysis determines that the video data contains footage that will be a climax scene, the importance of the video data is determined to be high. On the other hand, if the image and/or audio analysis determines that the video data does not contain any scenes that are important in terms of content, the importance of the video data is determined to be low.
  • image analysis e.g., image recognition
  • audio analysis e.g., audio recognition
  • the CPU 11 generates an importance parameter that represents the determined importance.
  • the importance parameter may be, for example, a numerical representation of the degree of importance (e.g., the higher the importance, the larger the numerical value), or may indicate only the importance of the content.
  • the CPU 11 then records the importance parameter in the metadata of the video data, thereby associating the importance with the video data as metadata.
  • the CPU 11 After recording the importance parameters in the metadata of the video data, the CPU 11 transmits the video data to the storage control device 3 (step S13 in FIG. 4, steps S102 and S105 in FIG. 6).
  • the CPU 31 of the storage control device 3 extracts an importance parameter from the metadata of the received video data.
  • the CPU 31 determines the importance of the received video data from the extracted importance parameter (step S22 of FIG. 5). Note that if the storage control device 3 has not received video data ("No" in step S21 of FIG. 5), it waits until it receives video data by performing other processing, etc.
  • step S22 in FIG. 5 If the importance of the received video data is high (step S22 in FIG. 5 is "high"), the CPU 31 decides to record the received video data in the high-performance first storage 5a (first recording area) and records the video data in the first storage 5a (step S23 in FIG. 5, step S103 in FIG. 6).
  • the CPU 31 decides to record the received video data in the second storage 5b or third storage 5c (second recording area) which has lower performance than the first storage 5a, and records the video data in the decided storage (step S24 in FIG. 5, step S106 in FIG. 6).
  • Whether to record video data of low importance in the second storage 5b or the third storage 5c can be determined based on, for example, the level of importance and the intended use of the video data to be recorded (e.g., whether there is a possibility of secondary use, whether it will be archived, etc.).
  • the video data can be recorded in an appropriate storage according to its importance.
  • high importance of video data indicates that the video data is often used for playback and editing.
  • the video data can be used efficiently.
  • the video data can be played back smoothly without delay.
  • the video data to be edited can be read out at high speed, and the edited video data can be recorded at high speed, improving the efficiency of the video data editing process.
  • FIG. 7 is a flowchart showing the operation of the information processing device 1 in another example of the video data recording operation based on the importance.
  • Fig. 8 is a flowchart showing the operation of the storage control device 3 in another example of the video data recording operation based on the importance.
  • Fig. 9 is a diagram showing the transmission and reception of signals in another example of the video data recording operation based on the importance.
  • the video data output from the video output device 2 is recorded sequentially, a video file is generated from the recorded multiple video data, and then it is determined to which storage the video file is to be moved based on the importance.
  • the CPU 11 of the information processing device 1 receives the video data and records it in the RAM 13 or storage device 15 of the information processing device 1 (step S31 in FIG. 7, step S201 in FIG. 9).
  • the CPU 11 analyzes the contents of the received video data and determines the importance of the video data (step S32 in FIG. 7). The CPU 11 then generates an importance parameter that represents the determined importance, and records the importance parameter in the metadata of the video data, thereby associating the importance with the video data as metadata.
  • step S33 in FIG. 7, step S202 in FIG. 9 The above steps S31 to S33 and steps S201 to S202 are executed each time video data is output from the video output device 2 until a video file generation operation, which will be described later, is performed (while step S34 is "No").
  • step S41 of FIG. 8 When the storage control device 3 receives the video data ("Yes" in step S41 of FIG. 8), the CPU 31 of the storage control device 3 records the received video data in the first storage 5a (step S42 of FIG. 8, step S203 of FIG. 9).
  • step S42 of FIG. 8, step S203 of FIG. 9 The above steps S41 to S42 and step S203 are executed each time video data is received from the information processing device 1 until a command to read the video data recorded so far is received from the information processing device 1 (while "No" in step S43 of FIG. 8).
  • the CPU 11 of the information processing device 1 determines whether or not to generate a video file using the multiple pieces of video data recorded in the first storage 5a (step S34 in FIG. 7).
  • the CPU 11 determines to generate a video file, for example, when an operation is performed on the information processing device 1 or the operation device 4 to command the stopping of recording of the video data.
  • the CPU 11 also determines to generate a video file, for example, when a specified time has elapsed since the start of recording of the video data.
  • step S35 of FIG. 7 the CPU 11 of the information processing device 1 generates a video file. Specifically, the following steps are executed to generate the video file.
  • the CPU 11 transmits a command (read command) to the storage control device 3 to read the multiple video data recorded so far from the first storage 5a (step S204 of FIG. 9).
  • This command includes, for example, information on the video data recorded so far (e.g., file names, etc.).
  • step S43 in FIG. 8: Yes the CPU 31 of the storage control device 3 reads the multiple video data recorded so far from the first storage 5a (step S44 in FIG. 8, step S205 in FIG. 9). The CPU 31 transmits the read video data to the information processing device 1 (step S206 in FIG. 9).
  • the CPU 11 of the information processing device 1 When the multiple pieces of video data for generating a video file are received, the CPU 11 of the information processing device 1 generates a video file using the multiple pieces of video data received (step S35 in FIG. 7). Specifically, the CPU 11 combines the multiple pieces of video data received, and adds predetermined information (header, footer, metadata, etc.) to the combined data to generate a video file.
  • the CPU 11 determines the importance of the video file.
  • the importance of the video file can be determined, for example, by analyzing the contents of the video file.
  • the importance of the video file may be determined to be high if, for example, any one of the multiple video data that make up the video file is of high importance.
  • the importance of the video file may be determined based on the number of importance levels of the multiple video data that make up the video file.
  • the CPU 11 After determining the importance of the video file, the CPU 11 generates an importance parameter that represents the importance and records it in the metadata of the video file. This associates the importance of the video file with the video file as metadata.
  • the CPU 11 After generating the video file, the CPU 11 transmits the video file, in which the importance parameters are recorded in the metadata, to the storage control device 3 (step S36 in FIG. 7, step S207 in FIG. 9). At this time, the CPU 11 commands the storage control device 3 to record the generated video file in the first storage 5a.
  • step S45 of FIG. 8 the CPU 31 of the storage control device 3 records the received video file in the first storage 5a (step S46 in FIG. 8, step S208 in FIG. 9). After transmitting the multiple video data to the information processing device 1, the storage control device 3 waits by performing other processing, etc., until it receives the video file (while "No" in step S45 of FIG. 8).
  • the CPU 31 of the storage control device 3 After recording the video file in the first storage 5a, the CPU 31 of the storage control device 3 reads the video file recorded in the first storage 5a to determine the importance of the video file (step S47 in FIG. 8, step S209 in FIG. 9).
  • the CPU 31 extracts importance parameters from the metadata of the read video file.
  • the CPU 31 determines the importance of the video file from the extracted importance parameters (step S48 in FIG. 8).
  • the CPU 31 decides to keep the video file recorded in the high-performance first storage 5a (first recording area) (step S49 of FIG. 8).
  • step S48 in FIG. 8 the CPU 31 decides to move the video file from the first storage 5a to the second storage 5b or the third storage 5c (second recording area), and moves the video file from the first storage 5a to the decided storage (step S50 in FIG. 8, steps S210-S211 in FIG. 9).
  • Whether a video file with low importance is recorded in the second storage 5b or the third storage 5c can be determined based on, for example, the degree of importance and the use of the video file to be recorded.
  • a video file is generated from multiple pieces of video data, and a decision is made as to which of multiple storages (first storage 5a to third storage 5c) the video file will be recorded in based on the importance of the video file, allowing multiple pieces of video data to be recorded collectively in the appropriate storage according to their importance.
  • FIG. 8 shows steps S41 to S44 and steps S45 onwards in series, but in actual operation, reading and receiving of video data are carried out in parallel.
  • Video data recording operation based on data transfer time The following describes the operation of recording video data based on the data transfer time.
  • the video data to be transferred is transferred from the source storage (i.e., the storage in which the video data is currently recorded) to the destination storage.
  • the data transfer time is determined based on the usage status of the video data to be transferred. For example, the data transfer time can be determined based on the period during which the video data is being used, the date and time when the use of the video data will stop, the date and time when the video data will be reused, etc.
  • FIG. 10 is a diagram showing an example of the data transfer time setting table T1.
  • the data transfer time setting table T1 has a data transfer time setting column C1, a transfer target data name setting column C2, a transfer source storage setting column C3, and a transfer destination storage setting column C4.
  • the data transfer time setting column C1 stores the data transfer time when the video data transfer is to be performed.
  • the transfer target data name setting column C2 stores the name of the video data (e.g., file name) to be transferred at the data transfer time set in the data transfer time setting column C1.
  • the source storage setting column C3 stores the identification information of the source storage in which the video data to be moved is currently stored.
  • the destination storage setting column C4 stores the identification information of the destination storage to which the video data to be moved is to be moved. For example, in the source storage setting column C3 and destination storage setting column C4 shown in FIG. 10, "0" indicates the first storage 5a, "1" indicates the second storage 5b, and "2" indicates the third storage 5c.
  • the data movement time setting table T1 in FIG. 10 indicates that video data with the name "A" recorded in the first storage 5a is moved from the first storage 5a to the second storage 5b at 10:00 on January 31, 2023, video data with the name "B” recorded in the second storage 5b is moved from the second storage 5b to the third storage 5c at 0:00 on February 2, 2023, and video data with the name "C” recorded in the second storage 5b is moved from the second storage 5b to the first storage 5a at 1:00 on March 10, 2023.
  • video data named "A” is moved from the first storage 5a to the second storage 5b, for example, because the likelihood of frequent playback or editing is low.
  • Video data named "B” is moved from the second storage 5b to the third storage 5c, for example, for archiving and long-term storage.
  • Video data named "C” is moved from the second storage 5b to the first storage 5a, for example, to be reused for playback or editing.
  • the data transfer time setting table T1 as shown in FIG. 10 is generated, for example, as follows. First, when recording video data in any storage, the CPU 11 of the information processing device 1 records information for determining the data transfer time, such as the period of use of the video data, the date and time when the use of the video data will stop, and the date and time when the video data will be reused, in the metadata of the video data.
  • the CPU 31 of the storage control device 3 extracts information for determining the data transfer time from the metadata of the received video data, and determines the data transfer time and the destination storage based on that information. The CPU 31 then records the received video data in one of the storages.
  • the storage to record the data in can be determined, for example, as described above, based on the importance of the video data.
  • the CPU 31 stores the determined data transfer time in the data transfer time setting column C1, stores the name of the video data recorded in the storage in the transfer target data name setting column C2, stores identification information of the storage in which the video data is recorded in the transfer source storage setting column C3, and stores identification information of the determined transfer destination storage in the transfer destination storage setting column C4, thereby generating a data transfer time setting table T1.
  • the CPU 31 then stores the generated data transfer time setting table T1 in the storage device 35.
  • FIG. 11 is a flowchart showing the operation of recording the video data based on the data movement time.
  • the operation of recording the video data based on the data movement time is executed by the storage control device 3.
  • the CPU 31 of the storage control device 3 determines whether the current time matches any of the data movement times stored in the data movement time setting column C1 of the data movement time setting table T1 (step S61). If the current time does not match any of the data movement times (step S61: No), the CPU 31 waits while executing other processing.
  • the CPU 31 identifies the video data to be moved from the video data name associated with the data movement time that matches the current time in the movement target data name setting column C2. It also identifies the source storage from the identification information of the storage associated with the data movement time that matches the current time in the movement source storage setting column C3. It also identifies the destination storage from the identification information of the storage associated with the data movement time that matches the current time in the movement destination storage setting column C4.
  • the CPU 31 reads the identified video data to be moved from the identified source storage (step S62), and records the read video data in the identified destination storage (step S63).
  • the video data can be recorded in an appropriate storage depending on the usage status of the video data. For example, video data that is less likely to be played or edited (playback or editing frequency has decreased) can be stored in a storage suitable for long-term data recording (i.e., second storage 5b, third storage 5c) for secondary use or archiving.
  • a storage suitable for long-term data recording i.e., second storage 5b, third storage 5c
  • the video data recording operation based on the access frequency will be described below.
  • This recording operation is executed when the first storage 5a is a solid state drive (SSD).
  • the solid state drive uses a semiconductor memory (flash memory) as a data recording medium.
  • the data recording area of the solid state drive is composed of multiple erase blocks. Each erase block is composed of multiple pages. An erase block is a unit of data erasure. A page is a unit of data writing.
  • Wear leveling is a process that smooths out the number of writes between multiple erase blocks by moving data from a specific erase block to other erase blocks. When wear leveling is performed when writing/reading data, it reduces the speed. For this reason, it is preferable to suppress the occurrence of wear leveling.
  • the frequency with which the video data is accessed is taken into consideration to determine in which erase block of the first storage 5a the video data will be recorded.
  • N a positive number equal to or greater than 2
  • each erase block has 100 pages, which are the units of data writing.
  • Each page is assigned an address (e.g., LBA (Logical Block Address)) for accessing the page.
  • LBA Logical Block Address
  • the CPU 11 of the information processing device 1 analyzes the received video data and estimates the access frequency of the video data. For example, if it is determined that the video data contains important content and will be played or edited frequently, it estimates that the access frequency of the video data will be high.
  • the CPU 11 After estimating the access frequency, the CPU 11 generates an access parameter that represents the estimated access frequency.
  • the access parameter may be, for example, a numerical representation of the access frequency, or may indicate only whether the access frequency is high or low.
  • the CPU 11 associates the access frequency with the video data as metadata by recording the access parameter in the metadata of the video data. The CPU 11 then transmits the video data with the associated access frequency to the storage control device 3.
  • the storage control device 3 determines in which erase block of the first storage 5a the video data should be recorded, based on the access frequency of the video data, and records the video data in the determined erase block. Specifically, the storage control device 3 records the video data in the first storage 5a according to the flowchart shown in FIG. 12.
  • FIG. 12 is a flowchart showing the video data recording operation based on the access frequency.
  • FIG. 13 is a diagram showing an example of the write state of each erase block. It is assumed that the storage control device 3 knows in advance the number of writes to each erase block in the first storage 5a before writing video data. This can be achieved, for example, by the storage control device 3 acquiring the state of the first storage 5a at a predetermined period.
  • the video data is recorded at addresses 60 to 249 of a page in the first storage 5a. In other words, it is assumed that the video data has a size equivalent to 190 pages.
  • the address at which the video data is recorded is determined by the information processing device 1.
  • the address at which the video data is recorded is recorded, for example, in metadata.
  • the CPU 31 of the storage control device 3 determines whether or not to record video data in an empty erase block in which no data has been written (step S71). As described above, the beginning of the video data is written at page address 60, so at the start of recording the video data, the CPU 31 determines that the video data will be recorded in an erase block in which other data has already been recorded and in which pages from the 60th page onwards are empty.
  • step S71 If it is determined that the video data should not be recorded in an empty erase block (step S71: No), the CPU 31 records the video data in an erase block in which other data has already been recorded (step S72). At the start of recording the video data, the CPU 31 records the portion of the video data from the beginning to address 100 in an erase block in which pages 60 and onward are empty.
  • step S71 if it is determined that video data should be recorded in an empty erase block ("Yes" in step S71), a decision is made as to which empty erase block the video data should be recorded in. For the above video data, an empty erase block is decided at the start of recording the portions of the video data corresponding to addresses 101 to 200 and the portions corresponding to addresses 201 to 249.
  • the empty erase block in which to record the video data is determined based on the access frequency of the video data. Therefore, the CPU 31 extracts access parameters from the metadata of the video data and determines whether the access frequency of the video data to be recorded is high (step S73).
  • step S73 If the access frequency of the video data is low (step S73: “Low"), CPU 31 decides to record the video data in an erase block (third recording area) with a low number of writes, and records the video data in that erase block (step S74). If the number of writes is as shown in FIG. 13, CPU 31 decides to record the video data in erase block "1", which has the lowest number of writes.
  • step S73 if the access frequency of the video data is high (step S73: "High"), CPU 31 decides to record the video data in the erase block with the greatest number of writes (fourth recording area), and records the video data in that erase block (step S75). If the number of writes is as shown in FIG. 13, CPU 31 decides to record the video data in erase block "4", which has the greatest number of writes.
  • the CPU 31 registers the access frequency of the video data in each page of the erase block in which the video data is recorded (step S76).
  • step S77: “No” If, after executing steps S71 to S76 above, recording of video data is to be continued (step S77: "No"), steps S71 to S76 above are executed repeatedly. On the other hand, if recording of video data is to be ended (step S77: “Yes"), the operation of recording video data based on the access frequency is ended.
  • the rate at which the number of writes to erase blocks with more write counts increases is slower than the rate at which the number of writes to erase blocks with fewer write counts increases, and the difference in the number of writes between these erase blocks becomes smaller over time.
  • the difference in the number of writes between the multiple erase blocks included in the first storage 5a becomes smaller, and the occurrence of wear leveling in the first storage 5a is suppressed.
  • FIG. 14 is a flowchart showing another example of the video data recording operation based on the access frequency.
  • the CPU 31 of the storage control device 3 determines whether or not to perform wear leveling (step S81). If the difference in the number of writes between the multiple erase blocks of the first storage 5a exceeds a predetermined threshold, it determines to perform wear leveling. If it determines not to perform wear leveling ("No" in step S81), the CPU 31 waits while performing other processing.
  • the CPU 31 selects an erase block to be the target of wear leveling. Specifically, the CPU 31 selects an erase block with a low number of writes (e.g., the smallest number of writes) that contains video data that is considered to be accessed infrequently but is actually accessed frequently, as the target of wear leveling (step S82).
  • a low number of writes e.g., the smallest number of writes
  • the CPU 31 changes the access frequency of the video data recorded in the erase block selected in step S82 from “low” to “high” (step S83). This corrects the erroneous estimation of the access frequency, enabling more appropriate management of the video data.
  • the CPU 31 moves the video data recorded in the erase block selected in step S82 to an erase block (fifth recording area) that has been written to more times than the selected erase block (step S84).
  • An erase block that has been written to relatively more times among the multiple erase blocks included in the first storage 5a is selected as the erase block to which the video data is to be moved.
  • the erase block with the greatest number of writes can be selected as the erase block to which the video data is to be moved.
  • the video recording system 100 may be configured to execute some of the recording operations for the multiple video data described above and not execute the rest, through user operation.
  • the configuration and/or functions of the storage control device 3 described above may be included in the information processing device 1. That is, the information processing device 1 may have a storage interface for connecting multiple storages (first storage 5a to third storage 5c). In addition, the control unit of the information processing device 1 may also execute each function of the storage control device 3 (that is, the video data recording operation described above).
  • the first storage interface 37a, the second storage interface 37b, and the third storage interface 37c may be formed by logically separating one physical interface. Furthermore, the connection between these storage interfaces and the storage may not be one-to-one, but may be via a switch using a network such as Ethernet (registered trademark) or FiberChannel.
  • the information processing device 1 analyzes the video data and determines its usage status (importance, access frequency, data transfer time).
  • the storage control device 3 may analyze the video data and determine its usage status.
  • a video data recording method is a method for recording video data in a plurality of recording areas each having different performance.
  • the recording method includes the following steps.
  • a usage status acquisition step for acquiring the usage status of the video data obtained by analyzing the video data.
  • ⁇ A recording area determination step that determines in which of a plurality of recording areas the video data will be recorded, based on the usage status.
  • the video data is analyzed to determine its usage status, and based on the result of this determination (i.e., the usage status of the video data), it is determined in which of multiple recording areas the video data will be recorded. This allows the video data to be recorded in an appropriate recording area depending on its usage status.
  • the multiple recording areas may include a first recording area and a second recording area having lower performance than the first recording area.
  • the usage status acquisition step may include a step of analyzing the contents of the video data and acquiring the importance of the video data as the usage status.
  • the recording area determination step may include a step of determining that video data with high importance is to be recorded in the first recording area and video data with low importance is to be recorded in the second recording area. This allows the video data to be recorded in appropriate storage according to its importance.
  • the usage status acquisition step may include a step of acquiring a data transfer time as the usage status.
  • the data transfer time is the time when the video data is transferred from the recording area in which it is currently recorded to another recording area.
  • the recording area determination step may include a step of transferring the video data from the recording area in which it is currently recorded to another recording area when the current time matches the data transfer time. This allows the video data to be recorded in an appropriate storage device according to the usage status of the video data.
  • the multiple recording areas may include a first recording area and a second recording area having lower performance than the first recording area.
  • the usage status acquisition step may generate a video file from the multiple video data, and acquire the importance of the video file as the usage status of the video data.
  • the recording area determination step may include a step of recording the video file in the first recording area, and a step of determining whether or not to move the video file recorded in the first recording area to the second recording area based on the importance of the video file. This allows the multiple video data to be recorded collectively in an appropriate storage according to their importance.
  • the multiple recording areas may include a third recording area that is written to less frequently, and a fourth recording area that is written to more frequently.
  • the usage status acquisition step may include a step of determining the access frequency of the video data as the usage status.
  • the recording area determination step may include a step of determining that the video data that is accessed less frequently is recorded in the third recording area, and that the video data that is accessed more frequently is recorded in the fourth recording area. This makes it possible to reduce the difference in the number of writes between the multiple recording areas, thereby suppressing the occurrence of wear leveling.
  • the recording area determination step may include a step of moving, when the access frequency of video data determined to be low and recorded in the third recording area is high, the video data from the third recording area to the fifth recording area, which has a higher number of write operations.
  • This makes it possible to move video data that has been erroneously determined to be accessed frequently and recorded in a recording area (third recording area) with a lower number of write operations to a recording area (fifth recording area).
  • the recording area determination step may include a step of changing the access frequency of the video data moved from the third recording area to the fifth recording area to high. This allows for correcting an erroneous estimation of the access frequency and enabling more appropriate management of the video data.
  • the usage status acquisition step may include a step of associating the usage status with the video data as metadata. This makes it easier to manage the video data since it is no longer necessary to manage the video data and the usage status separately.
  • the storage control device of the present disclosure is capable of recording video data and includes an interface that communicates with multiple recording areas, each of which has different performance, and a control unit that controls the recording of the video data in the multiple recording areas.
  • the control unit determines in which of the multiple recording areas the video data is to be recorded, based on the usage status of the video data determined by analyzing the video data.
  • the storage control device analyzes the video data to determine its usage status, and based on the result of this determination (i.e., the usage status of the video data), it decides in which of multiple recording areas the video data will be recorded. This allows the video data to be recorded in an appropriate recording area depending on its usage status.
  • Another information processing device of the present disclosure is capable of recording video data and includes an interface that communicates with multiple recording areas each having different performance, and a control unit that controls the recording of the video data in the multiple recording areas.
  • the control unit determines in which of the multiple recording areas the video data is to be recorded, based on the usage status of the video data determined by analyzing the video data.
  • the information processing device analyzes video data to determine its usage status, and based on the result of this determination (i.e., the usage status of the video data), it decides in which of multiple recording areas the video data will be recorded. This allows the video data to be recorded in an appropriate recording area depending on its usage status.
  • the video recording system disclosed herein includes an information processing device, multiple recording areas, and a storage control device.
  • the information processing device executes processing related to video data.
  • the multiple recording areas are capable of recording video data. Furthermore, each of the multiple recording areas has different performance.
  • the storage control device controls the recording of the video data into the multiple recording areas.
  • the information processing device analyzes the video data to determine the usage status of the video data.
  • the storage control device determines in which of the multiple recording areas the video data should be recorded based on the usage status of the video data.
  • the above video recording system analyzes video data to determine its usage status, and based on the result of this determination (i.e., the usage status of the video data), it decides in which of multiple recording areas the video data will be recorded. This allows the video data to be recorded in an appropriate recording area depending on its usage status.
  • This disclosure can be widely applied to video recording systems, storage control devices, information processing devices, and recording methods for recording video data in a specified recording area.
  • Video recording system 1 Information processing device 11: CPU 13: RAM 15: storage device 17: interface 19: network interface 2: video output device 3: storage control device 31: CPU 33: RAM 35: storage device 37a: first storage interface 37b: second storage interface 37c: third storage interface 39: network interface 4: operation device 5a: first storage 5b: second storage 5c: third storage T1: data transfer time setting table C1: data transfer time setting column C2: transfer target data name setting column C3: transfer source storage setting column C4: transfer destination storage setting column

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

それぞれが異なる性能を有する複数の記録領域への映像データの記録方法は、前記映像データを解析することで得られる前記映像データの利用状況を取得する利用状況取得ステップと、前記利用状況に基づいて、前記複数の記録領域のうちいずれの記録領域に前記映像データを記録するか決定する記録領域決定ステップと、を備える。

Description

記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム
 本開示は、映像データを所定の記録領域に記録する記録方法、ストレージ制御装置、情報処理装置、及び、映像記録システムに関する。
 カメラ等の映像出力装置が出力した映像データを入力し、当該映像データをストレージに記録するシステムが知られている。ストレージに記録された映像データは、例えば、将来の再生、又は、映像編集に用いられる。
 また、映像データなどのデータを複数のストレージ、ストレージに形成された複数の記録領域に記録することが知られている。例えば、性能(例えば、アクセス速度)が異なる複数のストレージを備えるシステムが知られている。各ストレージの容量は限られているため、このシステムでは、各ストレージに記録するデータの選別が行われる。ストレージに記録するデータの選別としては、例えば、IoTシステムにおいて収集されたデータの総レートが、ネットワークインフラストラクチャのスループットパラメータを超えた場合に、収集するデータの量を低減することが知られている(例えば、特許文献1参照)。
国際公開2019/028269号
 上記のように、映像記録システムに記録された映像データは、将来の再生、映像編集に用いられる。映像データには、頻繁に再生、編集されるものもあれば、すぐには再生、編集に用いられないが、長期間保存する必要があるものもある。性能が異なる複数のストレージを備えるシステムでは、このような映像データを適切なストレージに記録することが望まれる。また、1つのストレージ内に複数の記録領域が形成されている場合にも、映像データを適切な記録領域に記録することが望まれる。
 本開示は、性能が異なる複数の記録領域に映像データを記録する場合に、映像データを適切な記録領域に記録することを目的とする。
 本開示の映像データの記録方法は、それぞれが異なる性能を有する複数の記録領域への映像データの記録方法である。記録方法は、以下のステップを備える。
 ◎映像データを解析することで得られる映像データの利用状況を取得する利用状況取得ステップ。
 ◎利用状況に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するか決定する記録領域決定ステップ。
 本開示の映像データの記録方法では、映像データを解析してその利用状況を判断し、この判断結果(すなわち、映像データの利用状況)に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定している。これにより、映像データを、その利用状況に応じて適切な記録領域に記録できる。
図1は、映像記録システムの構成を示す図である。 図2は、情報処理装置の構成を示す図である。 図3は、ストレージ制御装置の構成を示す図である。 図4は、重要度に基づいた映像データの記録動作における情報処理装置の動作を示すフローチャートである。 図5は、重要度に基づいた映像データの記録動作におけるストレージ制御装置の動作を示すフローチャートである。 図6は、映像データの重要度に基づいた映像データの記録動作における信号の送受信を示す図である。 図7は、重要度に基づいた映像データの記録動作の他の例における情報処理装置の動作を示すフローチャートである。 図8は、重要度に基づいた映像データの記録動作の他の例におけるストレージ制御装置の動作を示すフローチャートである。 図9は、重要度に基づいた映像データの記録動作の他の例における信号の送受信を示す図である。 図10は、データ移動時刻設定テーブルの一例を示す図である。 図11は、データ移動時刻に基づく映像データの記録動作を示すフローチャートである。 図12は、アクセス頻度に基づく映像データの記録動作を示すフローチャートである。 図13は、各イレースブロックの書き込み状態の一例を示す図である。 図14は、アクセス頻度に基づく映像データの記録動作の他の例を示すフローチャートである。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 本開示において、「映像データ」は、動画データと音声データとメタデータとを含むデータ、動画データのみを含むデータ、静止画データを含むデータを意味する。
 [1.映像記録システム]
 以下、図面を参照しながら、本開示の映像記録システム100を説明する。映像記録システム100は、後述する映像出力装置2から入力された映像データを複数のストレージのいずれかに記録するためのシステムである。ストレージに記録された映像データは、例えば、将来の再生、編集に用いられる。映像データの編集には、例えば、映像データに他の映像データの特定の部分を挿入することで新たな映像データを生成することを含む。
 以下、図1を用いて、映像記録システム100の構成を説明する。図1は、映像記録システム100の構成を示す図である。映像記録システム100は、情報処理装置1と、ストレージ制御装置3と、複数のストレージ5a~5cと、を備える。
 情報処理装置1は、映像出力装置2と接続される。映像出力装置2は、映像、音声データを取得して電気信号に変換して外部に出力する装置である。映像出力装置2は、例えば、所定の映像を撮影するカメラ、当該所定の映像の音声を取得するマイク、などを備える映像撮影装置である。その他、映像出力装置2は、多数の映像を記録したメディアサーバであってもよい。映像出力装置2から出力される映像は、例えば、非圧縮形式の4K映像などの高画質映像である。なお、図1に示す例では、映像出力装置2は1つしか設けられていないが、これに限られない。映像記録システム100は、複数の映像出力装置2を備えてもよい。
 情報処理装置1は、映像出力装置2から入力した映像データに関する各種情報処理を実行する。具体的には、情報処理装置1は、映像データを圧縮形式のデータに変換する処理を実行できる。
 情報処理装置1は、操作装置4と接続される。操作装置4は、映像データを編集するための操作を行う装置である。操作装置4は、例えば、映像データの編集に関する操作を行う入力装置(例えば、キーボード、マウス、操作盤など)と、映像データを表示する表示装置(例えば、ディスプレイ)を備える。情報処理装置1は、操作装置4に映像データを出力して表示させるとともに、操作装置4の操作を受け付けて映像データを編集する。具体的には、情報処理装置1は、例えば、映像出力装置2から入力した映像に、ストレージ5a~5cに記憶された過去の映像の特定の部分を挿入して新たな映像データを生成できる。
 情報処理装置1は、映像データを解析して、映像記録システム100における映像データの利用状況を判断する。具体的には、情報処理装置1は、映像データに含まれる画像及び/又は音声などを解析し、解析結果に基づいて映像データの重要度を判断する。映像データの重要度は、例えば、映像データにクライマックスシーンが含まれるなど、映像データの内容が重要である場合に高くなる。一方、映像データが重要ではない内容を含む場合には、映像データの重要度は低くなる。情報処理装置1は、上記映像データの解析を、人工知能による画像認識、音声認識により行う。
 また、情報処理装置1は、映像データのアクセス状況を解析し、映像データへのアクセス頻度を判断する。映像データへのアクセス頻度は、例えば、データへのアクセスを記録したアクセスログを解析するなどして判断できる。
 情報処理装置1は、映像データの重要度、及び/又は映像データへのアクセス頻度を、当該映像データのメタデータとして映像データと関連付ける。メタデータは、映像データに関する各種情報を記録したデータである。メタデータには、映像データの重要度、映像データへのアクセス頻度の他に、映像データの利用工程情報を記録できる。利用工程情報は、例えば、映像データの記録、編集、送出、及び/又は再利用などに関する情報である。
 情報処理装置1は、ストレージ制御装置3と接続されている。情報処理装置1は、映像出力装置2から入力した映像データ、圧縮形式に変換した映像データ、編集後の映像データなどを、複数のストレージ5a~5cのいずれかに記録するようストレージ制御装置3に指令する。また、情報処理装置1は、特定の映像データを複数のストレージ5a~5cのいずれかから読み出す指令をストレージ制御装置3に指令する。
 ストレージ制御装置3は、複数のストレージ5a~5cのいずれかから映像データを読み出す制御、及び、映像データを複数のストレージ5a~5cのいずれかに記録する制御を行う。ストレージ制御装置3は、情報処理装置1から読み出すよう指令のあった映像データを、複数のストレージ5a~5cのいずれかから読み出す。
 ストレージ制御装置3は、情報処理装置1からの指令に従って、情報処理装置1から受信した映像データを複数のストレージ5a~5cのいずれかに記録する。具体的には、ストレージ制御装置3は、映像データに関連付けられたメタデータから当該映像データの利用状況を把握し、把握した利用状況に基づいて複数のストレージ5a~5cのいずれに当該映像データを記録するかを決定する。ストレージ制御装置3は、映像データを記録すると決定したストレージ5a~5cに、当該映像データを記録する。
 複数のストレージ5a~5cは、ストレージ制御装置3からの指令に従って、指定された映像データを読み出す。また、複数のストレージ5a~5cは、ストレージ制御装置3からの指令に従って、ストレージ制御装置3から受信した映像データを記録する。本開示において、複数のストレージ5a~5cは、第1ストレージ5aと、第2ストレージ5bと、第3ストレージ5cと、を含む。
 第1ストレージ5a、第2ストレージ5b、第3ストレージ5cは、それぞれ、異なる性能を有する。具体的には、第1ストレージ5aは、上記ストレージの中で最も高速なストレージである。第1ストレージ5aは、例えば、トリプルレベルセル(TLC)タイプのソリッド・ステート・ドライブ(SSD)などのエンタープライズ向けのソリッド・ステート・ドライブである。
 第2ストレージ5bは、第1ストレージ5aよりは低速であるが、第3ストレージ5cよりも高速なストレージである。具体的には、第2ストレージ5bは、例えば、クアッドレベルセル(QLC)タイプのソリッド・ステート・ドライブ、ハードディスク(HDD)などの比較的高速なストレージである。
 第3ストレージ5cは、上記ストレージの中で最も低速なストレージである。第3ストレージ5cは、例えば、光ディスクへのデータの書き込み、及び、光ディスクからのデータの読み出しを行う光ディスクドライブ、磁気テープへのデータの書き込み、及び、磁気テープからのデータの読み出しを行う磁気テープドライブである。
 上記のような性能が異なる複数のストレージ5a~5cに映像データを記録するようにすることで、映像データの利用状況、用途等に応じた映像データの記録を実現できる。
 具体的には、最も高速な第1ストレージ5aには、例えば、リアルタイムな記録/再生を行う映像データ、編集に使用されるなど重要でアクセス頻度が高くなる映像データを記録できる。第2ストレージ5bには、例えば、二次利用、再利用など、すぐには使用されないが将来的に使用の可能性がある映像データを記録できる。第3ストレージ5cには、例えば、すぐには使用されないが、アーカイブなどの目的で長期間保存する映像データを記録できる。
 ストレージ制御装置3は、映像データのメタデータの内容から当該映像データの重要度が高いと判断した場合には、当該映像データを第1ストレージ5aに記録すると決定する。一方、ストレージ制御装置3は、映像データの重要度が低いと判断した場合には、当該映像データを重要度に応じて、当該映像データを第2ストレージ5b又は第3ストレージ5cのいずれに記録するかを決定する。
 なお、図1においては、第1ストレージ5a、第2ストレージ5b、第3ストレージ5cがそれぞれ1つずつしか存在していないが、第1ストレージ5a、第2ストレージ5b、第3ストレージ5cは、それぞれ、複数のストレージを含んでいてもよい。
 [2.情報処理装置]
 図2を用いて、情報処理装置1の構成を説明する。図2は、情報処理装置1の構成を示す図である。情報処理装置1は、CPU11と、RAM13と、記憶装置15と、インタフェース17と、ネットワークインタフェース19と、を有する。
 CPU11は、情報処理装置1における各種処理を実行する。具体的には、CPU11は、映像データの圧縮処理、映像データの編集に関する情報処理、映像データの解析処理等の情報処理を実行する。CPU11は、記憶装置15に記憶されたプログラムに示された命令を実行することで、上記処理を実行する。なお、情報処理装置1における処理の一部は、CPU11に実装されたハードウェアにより実現されてもよい。CPU11は、各種処理を実行するための指令を生成する。
 RAM13は、CPU11が生成した指令、映像データ等を一時的に記憶する記憶領域である。記憶装置15は、ROM、ハードディスク(HDD)、ソリッド・ステート・ドライブ(SSD)などで構成される。記憶装置15は、CPU11で実行されるプログラム、情報処理装置1で実行される情報処理に関する設定、当該情報処理に用いるパラメータ等を記憶する。
 インタフェース17は、情報処理装置1と他の装置とを接続する。図2に示すように、インタフェース17には、映像出力装置2、操作装置4が接続されている。インタフェース17は、例えば、シリアルデジタルインタフェース(SDI、Serial Digital Interface)規格のインタフェースなどの映像関連の機器を接続するためのインタフェースである。
 ネットワークインタフェース19は、WAN、LANなどのネットワークを介して、情報処理装置1と他の装置とを接続する。図2に示すように、ネットワークインタフェース19には、ストレージ制御装置3が接続されている。
 ネットワークインタフェース19は、リモートダイレクトメモリアクセス(RDMA、Remote Direct Memory Access)により、情報処理装置1のRAM13と他の装置のRAM(ストレージ制御装置3のRAM33)との間で直接データ等の送受信できる。これにより、情報処理装置1と他の装置との間の高速なデータの送受信が可能である。ネットワークインタフェース19は、例えば、ギガビットイーサネット(登録商標)インタフェースである。
 なお、情報処理装置1において、映像出力装置2、操作装置4を、インタフェース17の代わりに、ネットワークインタフェース19に接続してもよい。この場合、例えば、SMPTE規格化団体のST2110規格での伝送を使用できる。
 情報処理装置1において、CPU11と、RAM13と、インタフェース17と、ネットワークインタフェース19により、情報処理装置1の制御部が構成される。また、記憶装置15により、情報処理装置1の記憶部が構成される。
 [3.ストレージ制御装置]
 図3を用いて、ストレージ制御装置3の構成を説明する。図3は、ストレージ制御装置3の構成を示す図である。ストレージ制御装置3は、CPU31と、RAM33と、記憶装置35と、第1ストレージ用インタフェース37a~第3ストレージ用インタフェース37cと、ネットワークインタフェース39と、を有する。
 CPU31は、ストレージ制御装置3における各種処理を実行する。CPU31は、映像データのメタデータからその利用状況を把握し、把握した利用状況に基づいて、複数のストレージ5a~5cのいずれに当該映像データを記録するかを決定し、決定したストレージに映像データを記録する処理を実行する。CPU31は、記憶装置35に記憶されたプログラムに示された命令を実行することで、ストレージ制御装置3における各種処理を実行する。なお、ストレージ制御装置3における処理の一部は、CPU31に実装されたハードウェアにより実現されてもよい。
 RAM33は、データ等を一時的に記憶する。RAM13には、ストレージに対する指令、情報処理装置1、ストレージとの間で送受信されるデータ等が、一時的に記憶される。
 記憶装置35は、ROM、ハードディスク(HDD)、ソリッド・ステート・ドライブ(SSD)などで構成される。記憶装置35は、CPU31で実行するプログラム、ストレージ制御装置3における情報処理に関する設定、当該情報処理に用いるパラメータ等を記憶する。
 第1ストレージ用インタフェース37aは、ストレージ制御装置3と第1ストレージ5aとを接続する。第1ストレージ用インタフェース37aは、例えば、PCI-SIG規格のPCI express規格準拠のPCIeインタフェースである。これにより、ストレージ制御装置3と第1ストレージ5aとは、PCI-Expressバスを用いた不揮発性メモリ専用のプロトコル(NVMe(Non-Volatile Memory Express))により高速にデータ等を送受信できる。なお、NVMeは、コントローラが、NANDのプロトコルでNANDメモリのデータを取得して、PCIeプロトコルに置き換えて、ホスト側に転送する。この点、従来のSATA(Serial-ATA)の場合、ホスト側にダイレクトに転送するDMAコントローラは、NANDメモリからSATAプロトコルへデータを変換して取得し、さらに当該データをPCIeプロトコルに置き換えてホストへ転送する。すなわち、NVMeの処理は、NANDプロトコルからPCIeプロトコルにダイレクトに変換するため、データの転送処理速度が速い。
 第2ストレージ用インタフェース37bは、ストレージ制御装置3と第2ストレージ5bとを接続する。第2ストレージ用インタフェース37bは、例えば、上記のPCIeインタフェース、SATA(Serial-ATA)インタフェースなどである。
 第3ストレージ用インタフェース37cは、ストレージ制御装置3と第3ストレージ5cとを接続する。第3ストレージ用インタフェース37cは、例えば、SATA(Serial-ATA)インタフェース、USB(Universal Serial Bus)インタフェースなどである。
 ネットワークインタフェース39は、WAN、LANなどのネットワークを介して、ストレージ制御装置3と他の装置とを接続する。図3に示すように、ネットワークインタフェース39には、情報処理装置1が接続されている。ネットワークインタフェース39は、RDMAにより、ストレージ制御装置3のRAM33と他の装置のRAM(情報処理装置1のRAM13)との間で直接データ等の送受信をさせる。また、ネットワークインタフェース39は、ソリッド・ステート・ドライブ専用のネットワークを介した通信のためのプロトコル(NVMe-oF(NVMe over Fabric))により、他の装置と高速にデータの送受信が可能である。ネットワークインタフェース39は、例えば、ギガビットイーサネット(登録商標)インタフェースである。
 ストレージ制御装置3において、CPU31と、RAM33と、第1ストレージ用インタフェース37a~第3ストレージ用インタフェース37cと、ネットワークインタフェース39により、ストレージ制御装置3の制御部が構成される。また、記憶装置35により、ストレージ制御装置3の記憶部が構成される。
 [4.映像記録システムの動作]
 [4-1.概要]
 以下、映像記録システム100の動作を説明する。映像記録システム100では、映像出力装置2から入力した映像データの利用状況に基づいて、複数の記録領域のいずれに当該映像データを記録するかを決定している。映像データの記録領域を決定する基準となる「利用状況」には、映像データの重要度、映像データのデータ移動時刻、アクセス頻度がある。
 なお、本開示における「記録領域」は、第1ストレージ5a~第3ストレージ5c、又は、これらストレージによりデータが書き込まれる記録媒体に形成されたデータの記録領域を意味する。
 [4-2.重要度に基づく映像データの記録動作(その1)]
 まず、図4~図6を用いて、重要度に基づいた映像データの記録動作を説明する。図4は、重要度に基づいた映像データの記録動作における情報処理装置1の動作を示すフローチャートである。図5は、重要度に基づいた映像データの記録動作におけるストレージ制御装置3の動作を示すフローチャートである。図6は、映像データの重要度に基づいた映像データの記録動作における信号の送受信を示す図である。
 映像出力装置2から映像データが出力されると、情報処理装置1のCPU11が、当該映像データを受信し、情報処理装置1のRAM13又は記憶装置15に記録する(図4のステップS11、図6のステップS101、S104)。
 次に、CPU11は、受信した映像データの内容を解析して、当該映像データの重要度を判断する(図1のステップS12)。CPU11は、例えば、人工知能を用いた映像データの画像解析(例えば、画像認識)及び/又は音声解析(例えば、音声認識)により、映像データの内容の重要度を判断する。例えば、画像解析及び/又は音声解析の結果、映像データにクライマックスシーンとなる映像が含まれていると判定された場合に、映像データの重要度が高いと判断する。その一方、画像解析及び/又は音声解析の結果、映像データに内容的に重要なシーンが含まれていない場合に、映像データの重要度が低いと判断する。
 CPU11は、決定した重要度を表す重要度パラメータを生成する。重要度パラメータは、例えば、重要度の度合いを数値(例えば、重要度が高いほど大きな数値とする)で表したものであってもよいし、内容の重要度の高低のみを示すものであってもよい。その後、CPU11は、重要度パラメータを映像データのメタデータに記録することで、重要度をメタデータとして映像データに関連付ける。
 重要度パラメータを映像データのメタデータに記録後、CPU11は、映像データを、ストレージ制御装置3に送信する(図4のステップS13、図6のステップS102、S105)。
 ストレージ制御装置3が映像データを受信すると(図5のステップS21で「Yes」)、ストレージ制御装置3のCPU31は、受信した映像データのメタデータから重要度パラメータを抽出する。その後、CPU31は、抽出した重要度パラメータから、受信した映像データの重要度を判断する(図5のステップS22)。なお、ストレージ制御装置3は、映像データを受信していない場合(図5のステップS21で「No」)、他の処理を実行するなどして映像データを受信するまで待機する。
 受信した映像データの重要度が高い場合(図5のステップS22で「高」)、CPU31は、受信した映像データを、高性能の第1ストレージ5a(第1記録領域)に記録すると決定し、当該映像データを第1ストレージ5aに記録する(図5のステップS23、図6のステップS103)。
 一方、受信した映像データの重要度が低い場合(図5のステップS22で「低」)、CPU31は、受信した映像データを、第1ストレージ5aよりも低性能の第2ストレージ5b又は第3ストレージ5c(第2記録領域)に記録すると決定し、当該映像データを決定したストレージに記録する(図5のステップS24、図6のステップS106)。
 重要度が低い映像データを第2ストレージ5b又は第3ストレージ5cのいずれに記録するかは、例えば、重要度の度合い、記録する映像データの用途(例えば、二次使用などの可能性があるか、アーカイブとするかなど)などにより決定できる。
 上記のように、複数のストレージ(第1ストレージ5a~第3ストレージ5c)のいずれに映像データを記録するかを、映像データを内容の重要度に基づいて決定することにより、重要度に応じた適切なストレージに映像データを記録できる。
 例えば、映像データの重要度が高いことは、当該映像データが再生や編集によく用いられるものであることを示している。このような映像データを高性能(高速)な第1ストレージ5aに記録することで、映像データを効率よく使用できる。例えば、映像データを遅れなくスムーズに再生できる。また、編集対象の映像データを高速に読み出すとともに、編集後の映像データを高速に記録できるので、映像データの編集作業の効率が向上する。
 [4-3.重要度に基づく映像データの記録動作(その2)]
 次に、図7~図9を用いて、重要度に基づいた映像データの記録動作の他の例を説明する。図7は、重要度に基づいた映像データの記録動作の他の例における情報処理装置1の動作を示すフローチャートである。図8は、重要度に基づいた映像データの記録動作の他の例におけるストレージ制御装置3の動作を示すフローチャートである。図9は、重要度に基づいた映像データの記録動作の他の例における信号の送受信を示す図である。この動作例では、映像出力装置2から出力された映像データを逐次記録し、記録した複数の映像データから映像ファイルを生成した後、その重要度に基づいて映像ファイルをいずれのストレージに移動させるかを決定する。
 映像出力装置2から映像データが出力されると、情報処理装置1のCPU11は、当該映像データを受信し、情報処理装置1のRAM13又は記憶装置15に記録する(図7のステップS31、図9のステップS201)。
 次に、CPU11は、受信した映像データの内容を解析して、当該映像データの重要度を判断する(図7のステップS32)。その後、CPU11は、決定した重要度を表す重要度パラメータを生成し、重要度パラメータを映像データのメタデータに記録することで、重要度をメタデータとして映像データに関連付ける。
 その後、CPU11は、映像データを、ストレージ制御装置3に送信する(図7のステップS33、図9のステップS202)。上記のステップS31~S33、ステップS201~S202は、後述する映像ファイルの生成操作がなされるまで(ステップS34で「No」の間)、映像出力装置2から映像データが出力される毎に実行される。
 ストレージ制御装置3が映像データを受信すると(図8のステップS41で「Yes」)、ストレージ制御装置3のCPU31は、受信した映像データを第1ストレージ5aに記録する(図8のステップS42、図9のステップS203)。上記のステップS41~S42、ステップS203は、これまで記録した映像データの読み出し指令を情報処理装置1から受信するまで(図8のステップS43で「No」の間)、情報処理装置1から映像データを受信する毎に実行される。
 映像データを逐次記録する間に、情報処理装置1のCPU11は、第1ストレージ5aに記録された複数の映像データを用いて映像ファイルを生成するか否かを判断する(図7のステップS34)。CPU11は、例えば、情報処理装置1又は操作装置4にて映像データの記録停止を指令する操作がなされた場合に、映像ファイルを生成すると判断する。また、CPU11は、例えば、映像データの記録を開始してから指定された時間が経過した場合に、映像ファイルを生成すると判断する。
 映像ファイルを生成すると判断した場合(図7のステップS34で「Yes」)、情報処理装置1のCPU11は、映像ファイルを生成する(図7のステップS35)。具体的には、以下のステップが実行されて映像ファイルが生成される。まず、CPU11は、これまでに記録した複数の映像データを第1ストレージ5aから読み出す指令(読み出し指令)を、ストレージ制御装置3に送信する(図9のステップS204)。この指令には、例えば、これまでに記録した映像データの情報(例えば,ファイル名など)が含まれる。
 読み出し指令を受信すると(図8のステップS43で「Yes」)、ストレージ制御装置3のCPU31は、これまで記録した複数の映像データを、第1ストレージ5aから読み出す(図8のステップS44、図9のステップS205)。CPU31は、読み出した映像データを、情報処理装置1に送信する(図9のステップS206)。
 映像ファイルを生成するための複数の映像データを受信すると、情報処理装置1のCPU11は、受信した複数の映像データを用いて、映像ファイルを生成する(図7のステップS35)。具体的には、CPU11は、受信した複数の映像データを合体し、映像データを合体したデータに所定の情報(ヘッダ、フッタ、メタデータなど)を付して、映像ファイルを生成する。
 映像ファイルを生成後、CPU11は、映像ファイルの重要度を判断する。映像ファイルの重要度は、例えば、映像ファイルの内容を解析することで判断できる。その他、例えば、映像ファイルを構成する複数の映像データのいずれかの重要度が高い場合に、映像ファイルの重要度を高いと判断してもよい。または、映像ファイルを構成する複数の映像データの重要度の個数に基づいて、映像ファイルの重要度の高低を判断してもよい。
 映像ファイルの重要度を判断した後、CPU11は、重要度を表す重要度パラメータを生成し、映像ファイルのメタデータに記録する。これにより、映像ファイルの重要度がメタデータとして映像ファイルに関連付けられる。
 映像ファイルを生成後、CPU11は、重要度パラメータをメタデータに記録した映像ファイルを、ストレージ制御装置3に送信する(図7のステップS36、図9のステップS207)。このとき、CPU11は、ストレージ制御装置3に対して、生成した映像ファイルを第1ストレージ5aに記録するよう指令する。
 映像ファイルを受信すると(図8のステップS45で「Yes」)、ストレージ制御装置3のCPU31は、受信した映像ファイルを第1ストレージ5aに記録する(図8のステップS46、図9のステップS208)。なお、ストレージ制御装置3は、複数の映像データを情報処理装置1に送信後、映像ファイルを受信するまで(図8のステップS45で「No」の間)、他の処理を実行するなどして待機する。
 映像ファイルを第1ストレージ5aに記録した後、ストレージ制御装置3のCPU31は、映像ファイルの重要度を判断するために、第1ストレージ5aに記録した映像ファイルを読み出す(図8のステップS47、図9のステップS209)。
 その後、CPU31は、読み出した映像ファイルのメタデータから重要度パラメータを抽出する。その後、CPU31は、抽出した重要度パラメータから、映像ファイルの重要度を判断する(図8のステップS48)。
 映像ファイルの重要度が高い場合(図8のステップS48で「高」)、CPU31は、映像ファイルを、高性能の第1ストレージ5a(第1記録領域)に記録したまま維持しておくと決定する(図8のステップS49)。
 一方、映像ファイルの重要度が低い場合(図8のステップS48で「低」)、CPU31は、映像ファイルを第1ストレージ5aから第2ストレージ5b又は第3ストレージ5c(第2記録領域)に移動すると決定し、映像ファイルを第1ストレージ5aから決定したストレージに移動させる(図8のステップS50、図9のステップS210~S211)。重要度が低い映像ファイルを第2ストレージ5b又は第3ストレージ5cのいずれに記録するかは、例えば、重要度の度合い、記録する映像ファイルの用途などにより決定できる。
 上記のように、複数の映像データから映像ファイルを生成し、複数のストレージ(第1ストレージ5a~第3ストレージ5c)のいずれに映像ファイルを記録するかを映像ファイルの重要度に基づいて決定することにより、複数の映像データを適切なストレージに重要度に応じてまとめて記録できる。図8は、説明の都合上、ステップS41~S44の処理と、ステップS45以降の処理を直列に記載しているが、実際の動作は、読み出しと映像データの受信は並列して動作することになる。
 [4-4.データ移動時刻に基づく映像データの記録動作]
 以下、データ移動時刻に基づく映像データの記録動作を説明する。データ移動時刻に基づく映像データの記録動作では、現在時刻がデータ移動時刻になったときに、移動対象の映像データが、移動元のストレージ(すなわち、映像データが現在記録されているストレージ)から移動先のストレージに移動される。
 データ移動時刻は、移動対象の映像データの利用状況に基づいて決定される。例えば、映像データの使用期間、映像データの使用を停止する日時、映像データを再利用する日時などに基づいて、データ移動時刻を決定できる。
 データ移動時刻に基づく映像データの記録動作は、ストレージ制御装置3において実行される。このため、ストレージ制御装置3の記憶装置35には、データ移動時刻が記憶される。具体的には、データ移動時刻は、図10に示すようなデータ移動時刻設定テーブルT1において映像データの移動に必要な他の情報と関連付けられて、記憶装置35に記憶される。図10は、データ移動時刻設定テーブルT1の一例を示す図である。データ移動時刻設定テーブルT1は、データ移動時刻設定カラムC1と、移動対象データ名設定カラムC2と、移動元ストレージ設定カラムC3と、移動先ストレージ設定カラムC4と、を有する。
 データ移動時刻設定カラムC1は、映像データの移動を実行するデータ移動時刻を記憶する。移動対象データ名設定カラムC2は、データ移動時刻設定カラムC1で設定されたデータ移動時刻に移動する対象の映像データ名(例えば、ファイル名)を記憶する。
 移動元ストレージ設定カラムC3は、移動対象の映像データを現在記録している移動元のストレージの識別情報を記憶する。移動先ストレージ設定カラムC4は、移動対象の映像データを移動する移動先のストレージの識別情報を記憶する。例えば、図10に示す移動元ストレージ設定カラムC3及び移動先ストレージ設定カラムC4において、「0」は第1ストレージ5aを示し、「1」は第2ストレージ5bを示し、「2」は第3ストレージ5cを示す。
 図10のデータ移動時刻設定テーブルT1では、第1ストレージ5aに記録されている「A」との名の映像データを、2023年1月31日の10時に、第1ストレージ5aから第2ストレージ5bに移動させることと、第2ストレージ5bに記録されている「B」との名の映像データを、2023年2月2日の0時に、第2ストレージ5bから第3ストレージ5cに移動させることと、第2ストレージ5bに記録されている「C」との名の映像データを、2023年3月10日の1時に、第2ストレージ5bから第1ストレージ5aに移動させることと、を示している。
 上記において、「A」との名の映像データは、例えば、高頻度の再生又は編集等の可能性が低くなったため、第1ストレージ5aから第2ストレージ5bに移動される。「B」との名の映像データは、例えば、アーカイブして長期間保存するために、第2ストレージ5bから第3ストレージ5cに移動される。「C」との名の映像データは、例えば、再生や編集に再利用されるために、第2ストレージ5bから第1ストレージ5aに移動される。
 図10に示すようなデータ移動時刻設定テーブルT1は、例えば、以下のようにして生成される。まず、情報処理装置1のCPU11は、映像データをいずれかのストレージに記録する際に、映像データの使用期間、映像データの使用を停止する日時、映像データを再利用する日時などのデータ移動時刻を決定するための情報を、映像データのメタデータに記録する。
 映像データを受信すると、ストレージ制御装置3のCPU31は、受信した映像データのメタデータからデータ移動時刻を決定するための情報を抽出し、当該情報に基づいて、データ移動時刻と移動先のストレージとを決定する。その後、CPU31は、受信した映像データをいずれかのストレージに記録する。いずれのストレージに記録するかは、例えば、映像データの重要度に基づいて上記で説明したようにして決定できる。
 その後、CPU31は、決定したデータ移動時刻をデータ移動時刻設定カラムC1に記憶し、ストレージに記録した映像データ名を移動対象データ名設定カラムC2に記憶し、上記にて映像データを記録したストレージの識別情報を移動元ストレージ設定カラムC3に記憶し、決定した移動先のストレージの識別情報を移動先ストレージ設定カラムC4に記憶することで、データ移動時刻設定テーブルT1を生成する。その後、CPU31は、生成したデータ移動時刻設定テーブルT1を記憶装置35に記憶する。
 上記のようにしてデータ移動時刻設定テーブルT1を生成して記憶装置35に記憶した後に、図11に示すフローに従って、データ移動時刻に基づく映像データの記録動作が実行される。図11は、データ移動時刻に基づく映像データの記録動作を示すフローチャートである。データ移動時刻に基づく映像データの記録動作は、ストレージ制御装置3で実行される。
 ストレージ制御装置3のCPU31は、現在時刻が、データ移動時刻設定テーブルT1のデータ移動時刻設定カラムC1に記憶されたデータ移動時刻のいずれかと一致するか否かを判断する(ステップS61)。現在時刻がデータ移動時刻と一致しない場合(ステップS61で「No」)、CPU31は、他の処理を実行しつつ待機する。
 現在時刻がデータ移動時刻のいずれかと一致する場合(ステップS61で「Yes」)、CPU31は、移動対象データ名設定カラムC2において現在時刻と一致するデータ移動時刻に関連付けられた映像データ名から、移動対象の映像データを特定する。また、移動元ストレージ設定カラムC3において現在時刻と一致するデータ移動時刻に関連付けられたストレージの識別情報から、移動元のストレージを特定する。さらに、移動先ストレージ設定カラムC4において現在時刻と一致するデータ移動時刻に関連付けられたストレージの識別情報から、移動先のストレージを特定する。
 その後、CPU31は、特定した移動元のストレージから、特定した移動対象の映像データを読み出し(ステップS62)、読み出した映像データを特定した移動先のストレージに記録する(ステップS63)。
 上記のように、データ移動時刻に基づいて映像データを移動元のストレージから移動先のストレージに移動させることにより、映像データの利用状況に応じた適切なストレージに映像データを記録できる。例えば、再生又は編集する可能性が低くなった(再生又は編集の頻度が低くなった)映像データを、二次使用又はアーカイブのために、長期のデータ記録に向いたストレージ(すなわち、第2ストレージ5b、第3ストレージ5c)に保存できる。
 一方、例えば、高頻度に再生又は編集される映像データを高性能(高速)なストレージ(すなわち、第1ストレージ5a)に記録することにより、映像データの再生又は編集を効率よく行うことが可能となる。また、当該ストレージの使用容量を節約できる。
 [4-5.アクセス頻度に基づく映像データの記録動作(その1)]
 以下、アクセス頻度に基づく映像データの記録動作を説明する。この記録動作は、第1ストレージ5aがソリッド・ステート・ドライブ(SSD)である場合に実行される。ソリッド・ステート・ドライブは、半導体メモリ(フラッシュメモリ)をデータの記録媒体とする。ソリッド・ステート・ドライブのデータの記録領域は、複数のイレースブロックから構成される。各イレースブロックは、複数のページから構成される。イレースブロックは、データ消去の単位である。ページは、データ書き込みの単位である。
 ソリッド・ステート・ドライブでは、複数のイレースブロック間でデータの書き込み回数に差が出ることがある。これは、特定のイレースブロックにデータの書き込みが集中することにより生じる。特定のイレースブロックにデータの書き込みが集中し、当該イレースブロックへのデータ書き込み回数が多くなると、このイレースブロックが早く寿命となる。1つのイレースブロックが寿命となると、ストレージ全体が使用不能となる。
 複数のイレースブロック間で書き込み回数に大きな差が出ないように、ソリッド・ステート・ドライブでは、「ウェアレベリング」という処理が実行される。ウェアレベリングは、所定のイレースブロックのデータを、他のイレースブロックに移動させることで、複数のイレースブロック間の書き込み回数を平滑化する処理である。ウェアレベリングは、データの書き込み/読み出し時に実行されると、その速度を低下させる。このため、ウェアレベリングの発生を抑制することが好ましい。
 ウェアレベリングの発生を抑制するため、ソリッド・ステート・ドライブである第1ストレージ5aに映像データを記録する際には、映像データのアクセス頻度を考慮して、第1ストレージ5aのいずれのイレースブロックに映像データを記録するかを決定する。
 以下、アクセス頻度に基づく映像データの記録動作を具体的に説明する。以下の説明において、第1ストレージ5aには、N個のイレースブロック(N:2以上の正数)が存在すると仮定する。また、各イレースブロックには、データの書き込み単位であるページが100個存在すると仮定する。各ページには、ページにアクセスするためのアドレス(例えば、LBA(Logical Block Address))が割り当てられる。
 まず、映像出力装置2から映像データを受信すると、情報処理装置1のCPU11は、受信した映像データを解析して、映像データのアクセス頻度を推定する。例えば、映像データに重要な内容が含まれており、頻度の高い再生又は編集が行われると判断された場合に、映像データのアクセス頻度が高くなると推定する。
 アクセス頻度を推定後、CPU11は、推定したアクセス頻度を表すアクセスパラメータを生成する。アクセスパラメータは、例えば、アクセス頻度を数値で表したものであってもよいし、アクセス頻度の高低のみを示すものであってもよい。CPU11は、アクセスパラメータを映像データのメタデータに記録することで、アクセス頻度をメタデータとして映像データに関連付ける。その後、CPU11は、アクセス頻度を関連付けた映像データをストレージ制御装置3に送信する。
 映像データを受信すると、ストレージ制御装置3が、映像データのアクセス頻度に基づいて、映像データを第1ストレージ5aのいずれのイレースブロックに記録するかを決定し、決定したイレースブロックに映像データを記録する。具体的には、ストレージ制御装置3は、図12に示すフローチャートに従って、映像データを第1ストレージ5aに記録する。図12は、アクセス頻度に基づく映像データの記録動作を示すフローチャートである。
 以下の説明では、第1ストレージ5aの各イレースブロックの書き込み回数は、図13に示すようになっていると仮定する。図13は、各イレースブロックの書き込み状態の一例を示す図である。ストレージ制御装置3は、映像データの書き込み前に、第1ストレージ5aの各イレースブロックの書き込み回数を予め把握しているとする。これは、例えば、ストレージ制御装置3が、例えば、所定の周期で第1ストレージ5aの状態を取得することで実現できる。
 また、映像データは、第1ストレージ5aのページのアドレス60~249に記録されると仮定する。すなわち、映像データは、ページ190個分のサイズを有すると仮定する。映像データをいずれのアドレスに記録するかは、情報処理装置1において決定される。映像データを記録するアドレスは、例えば、メタデータに記録される。
 ストレージ制御装置3のCPU31は、まず、データが書き込まれていない空のイレースブロックへ映像データを記録するか否かを判断する(ステップS71)。上記のように、映像データの先頭はページのアドレス60に書き込まれるので、上記映像データの記録開始段階では、CPU31は、他のデータがすでに記録されており、60番目以降のページが空いているイレースブロックに映像データを記録すると判断する。
 空のイレースブロックへ映像データを記録しないと判断した場合(ステップS71で「No」)、CPU31は、映像データを他のデータがすでに記録されたイレースブロックに映像データを記録する(ステップS72)。上記映像データの記録開始段階では、CPU31は、60番目以降のページが空いているイレースブロックに、映像データの先頭部分からアドレス100までの部分を記録する。
 一方、空のイレースブロックへ映像データを記録すると判断した場合(ステップS71で「Yes」)、空のイレースブロックのいずれに映像データを記録するかを決定する。上記映像データでは、映像データのアドレス101~アドレス200に相当する部分、アドレス201~アドレス249に相当する部分の記録の開始時に、空のイレースブロックが決定される。
 上記のように、映像データを記録する空のイレースブロックは、当該映像データのアクセス頻度に基づいて決定される。そのため、CPU31は、映像データのメタデータからアクセスパラメータを抽出し、記録する映像データのアクセス頻度が高いか否かを判断する(ステップS73)。
 映像データのアクセス頻度が低い場合(ステップS73で「低」)、CPU31は、書き込み回数が少ないイレースブロック(第3記録領域)に映像データを記録すると決定し、当該イレースブロックに映像データを記録する(ステップS74)。書き込み回数が図13に示すようになっている場合には、CPU31は、書き込み回数が最小のイレースブロック「1」に映像データを記録すると決定する。
 一方、映像データのアクセス頻度が高い場合(ステップS73で「高」)、CPU31は、書き込み回数が多いイレースブロック(第4記録領域)に映像データを記録すると決定し、当該イレースブロックに映像データを記録する(ステップS75)。書き込み回数が図13に示すようになっている場合には、CPU31は、書き込み回数が最大のイレースブロック「4」に映像データを記録すると決定する。
 空のイレースブロックに映像データを記録した場合、CPU31は、映像データを記録したイレースブロックの各ページに、映像データのアクセス頻度を登録する(ステップS76)。
 上記ステップS71~S76を実行後、さらに映像データの記録を継続する場合(ステップS77で「No」)、上記のステップS71~S76を繰り返し実行する。一方、映像データの記録を終了する場合(ステップS77で「Yes」)、アクセス頻度に基づく映像データの記録動作を終了する。
 上記のように、アクセス頻度の低い映像データを書き込み回数の少ないイレースブロックに記録し、アクセス頻度の高い映像データを書き込み回数の多いイレースブロックに記録することで、書き込み回数が多いイレースブロックの書き込み回数の増加速度が、書き込み回数が少ないイレースブロックの書き込み回数の増加速度よりも遅くなり、これらイレースブロック間の書き込み回数の差が時間の経過とともに小さくなる。その結果、第1ストレージ5aに含まれる複数のイレースブロック間の書き込み回数の差が小さくなり、第1ストレージ5aにおいてウェアレベリングの発生が抑制される。
 [4-6.アクセス頻度に基づく映像データの記録動作(その2)]
 以下、アクセス頻度に基づく映像データの記録動作の他の例を説明する。上記のように、アクセス頻度の低い映像データを書き込み回数の少ないイレースブロックに記録し、アクセス頻度の高い映像データを書き込み回数の多いいイレースブロックに記録することで、第1ストレージ5aにおけるウェアレベリングの発生を抑制することができる。しかしながら、例えばアクセス頻度の誤推定の結果、アクセス頻度が低いと推定されたが実際にはアクセス頻度が高い映像データが、書き込み回数の少ないイレースブロックに記録されることがある。この結果、当該イレースブロックの書き込み回数の増加速度が遅く、他のイレースブロックの書き込み回数との差が大きくなり、ウェアレベリングが発生することがある。
 従って、さらなるウェアレベリングの発生を抑制するために、ウェアレベリングの実行時に、書き込み回数が少ないイレースブロックに記録された、実際にはアクセス頻度が高かった映像データを、書き込み回数がより多いイレースブロックに移動させる。具体的には、図14に示すフローチャートに従って、この記録動作が実行される。なお、この記録動作は、ストレージ制御装置3により実行される。図14は、アクセス頻度に基づく映像データの記録動作の他の例を示すフローチャートである。
 ストレージ制御装置3のCPU31は、ウェアレベリングを実行するか否かを判断する(ステップS81)。第1ストレージ5aの複数のイレースブロック間の書き込み回数の差が所定の閾値を超えた場合に、ウェアレベリングを実行すると判断する。ウェアレベリングを実行しないと判断した場合(ステップS81で「No」)、CPU31は、他の処理を実行しつつ待機する。
 一方、ウェアレベリングを実行すると判断した場合(ステップS81で「Yes」)、CPU31は、ウェアレベリングの対象とするイレースブロックを選択する。具体的には、CPU31は、アクセス頻度が低いとされているが実際にはアクセス頻度が高い映像データを記録した、書き込み回数の少ない(例えば、書き込み回数が最小の)イレースブロックをウェアレベリングの対象として選択する(ステップS82)。
 次に、CPU31は、ステップS82で選択したイレースブロックに記録された映像データのアクセス頻度を「低」から「高」に変更する(ステップS83)。これにより、アクセス頻度の誤推定を訂正して、映像データのより適切な管理が可能となる。
 その後、CPU31は、ステップS82で選択したイレースブロックに記録された映像データを、当該選択したイレースブロックよりも書き込み回数が多いイレースブロック(第5記録領域)に移動させる(ステップS84)。映像データの移動先のイレースブロックとして、第1ストレージ5aに含まれる複数のイレースブロックの中で書き込み回数が比較的多いイレースブロックが選択される。例えば、書き込み回数が最大であるイレースブロック(図13に示す例では、イレースブロック「4」)が、移動先のイレースブロックとして選択できる。
 上記のように、アクセス頻度が低いと誤推定されて書き込み回数の少ないイレースブロックに記録された映像データを、書き込み回数の多いイレースブロックに移動させることにより、第1ストレージ5aに含まれる複数のイレースブロック間の書き込み回数の差が大きくなることを抑制して、さらなるウェアレベリングの発生を抑制できる。
 [5.他の実施形態]
 以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
 (A)上記で説明したフローチャートにおける各処理の順番、各処理の内容は、本発明の要旨を逸脱しない範囲で適宜変更できる。また、各処理を実行する主体(情報処理装置1、ストレージ制御装置3、第1ストレージ5a~第3ストレージ5c)についても、本発明の要旨を逸脱しない範囲で適宜変更できる。
 (B)例えば、ユーザによる操作より、映像記録システム100において、上記で説明した複数の映像データの記録動作の一部を実行し、残りを実行しないよう設定可能であってもよい。
 (C)上記で説明したストレージ制御装置3の構成及び/又は機能が、情報処理装置1に含まれていてもよい。すなわち、情報処理装置1が、複数のストレージ(第1ストレージ5a~第3ストレージ5c)を接続するためのストレージ用インタフェースを有してもよい。また、情報処理装置1の制御部が、ストレージ制御装置3の各機能(すなわち、上記で説明した映像データの記録動作)も実行してもよい。
 (D)第1ストレージ用インタフェース37a、第2ストレージ用インタフェース37b、第3ストレージ用インタフェース37cは、一つの物理的なインタフェースが論理的に分離されて形成されるものであってもよい。また、これらストレージ用インタフェースとストレージとの接続は一対一ではなく、イーサネット(登録商標)、FiberChannelなどのネットワークを使用して、スイッチを経由して接続されてもよい。
 (E)上記の実施形態では、情報処理装置1が、映像データを解析してその利用状況(重要度、アクセス頻度、データ移動時刻)を判断していた。しかしこれに限られず、ストレージ制御装置3が、映像データを解析してその利用状況を判断してもよい。
 [6.本開示の特徴]
 (1)本開示の映像データの記録方法は、それぞれが異なる性能を有する複数の記録領域への映像データの記録方法である。記録方法は、以下のステップを備える。
 ◎映像データを解析することで得られる映像データの利用状況を取得する利用状況取得ステップ。
 ◎利用状況に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するか決定する記録領域決定ステップ。
 上記の映像データの記録方法では、映像データを解析してその利用状況を判断し、この判断結果(すなわち、映像データの利用状況)に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定している。これにより、映像データを、その利用状況に応じて適切な記録領域に記録できる。
 (2)上記(1)の記録方法において、複数の記録領域は、第1記録領域と、第1記録領域よりも性能が低い第2記録領域と、を含んでもよい。この場合、利用状況取得ステップは、映像データの内容を解析して映像データの重要度を利用状況として取得するステップを含んでもよい。また、記録領域決定ステップは、重要度が高い映像データを第1記録領域に記録し、重要度が低い映像データを第2記録領域に記録すると決定するステップを含んでいてもよい。これにより、重要度に応じた適切なストレージに映像データを記録できる。
 (3)上記(1)又は(2)の記録方法において、利用状況取得ステップは、データ移動時刻を利用状況として取得するステップを含んでもよい。データ移動時刻は、映像データを現在記録されている記録領域から他の記録領域へと移動する時刻である。この場合、記録領域決定ステップは、現在時刻がデータ移動時刻と一致する場合に、映像データを現在記録されている記録領域から他の記録領域へと移動させるステップを含んでもよい。これにより、映像データの利用状況に応じた適切なストレージに映像データを記録できる。
 (4)上記(1)~(3)のいずれかの記録方法において、複数の記録領域は、第1記録領域と、第1記録領域よりも性能が低い第2記録領域と、を含んでもよい。この場合、利用状況取得ステップは、複数の映像データから映像ファイルを生成し、映像ファイルの重要度を映像データの利用状況として取得してもよい。また、記録領域決定ステップは、映像ファイルを第1記録領域に記録するステップと、映像ファイルの重要度に基づいて、第1記録領域に記録した映像ファイルを第2記録領域に移動させるか否かを決定するステップと、を含んでもよい。これにより、複数の映像データを適切なストレージに重要度に応じてまとめて記録できる。
 (5)上記(1)~(4)のいずれかの記録方法において、複数の記録領域は、書き込み回数が少ない第3記録領域と、書き込み回数が多い第4記録領域と、を含んでもよい。この場合、利用状況取得ステップは、映像データのアクセス頻度を利用状況として決定するステップを含んでもよい。また、記録領域決定ステップは、アクセス頻度が低い映像データを第3記録領域に記録し、アクセス頻度が高い映像データを第4記録領域に記録すると決定するステップを含んでもよい。これにより、複数の記録領域間の書き込み回数の差を小さくできるので、ウェアレベリングの発生を抑制できる。
 (6)上記(5)の記録方法において、記録領域決定ステップは、アクセス頻度が低いと判断されて第3記録領域に記録された映像データのアクセス頻度が高い場合に、当該映像データを第3記録領域から書き込み回数が多い第5記録領域に移動させるステップを含んでもよい。これにより、アクセス頻度が高いと誤推定されて書き込み回数の少ない記録領域(第3記録領域)に記録された映像データを、書き込み回数の多い記録領域(第5記録領域)に移動させることができる。この結果、複数の記録領域間の書き込み回数の差が大きくなることを抑制して、ウェアレベリングの発生を抑制できる。
 (7)上記(6)の記録方法において、記録領域決定ステップは、第3記録領域から第5記録領域に移動させた映像データのアクセス頻度を高いと変更するステップを含んでもよい。これにより、アクセス頻度の誤推定を訂正して、映像データのより適切な管理が可能となる。
 (8)上記(1)~(7)のいずれかの記録方法において、利用状況取得ステップは、利用状況をメタデータとして映像データと関連付けるステップを含んでもよい。これにより、映像データと利用状況とを個別に管理する必要がなくなるので、映像データの管理をしやすくなる。
 (9)本開示のストレージ制御装置は、映像データを記録可能であり、それぞれが異なる性能を有する複数の記録領域と通信するインタフェースと、複数の記録領域への映像データの記録を制御する制御部と、を備える。このストレージ制御装置において、制御部は、映像データを解析することで判断された映像データの利用状況に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するか決定する。
 上記のストレージ制御装置では、映像データを解析してその利用状況を判断し、この判断結果(すなわち、映像データの利用状況)に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定している。これにより、映像データを、その利用状況に応じて適切な記録領域に記録できる。
 (10)本開示の他の情報処理装置は、映像データを記録可能であり、それぞれが異なる性能を有する複数の記録領域と通信するインタフェースと、複数の記録領域への映像データの記録を制御する制御部と、を備える。この情報処理装置において、制御部は、映像データを解析することで判断された映像データの利用状況に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するか決定する。
 上記の情報処理装置では、映像データを解析してその利用状況を判断し、この判断結果(すなわち、映像データの利用状況)に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定している。これにより、映像データを、その利用状況に応じて適切な記録領域に記録できる。
 (11)本開示の映像記録システムは、情報処理装置と、複数の記録領域と、ストレージ制御装置と、を備える。情報処理装置は、映像データに関する処理を実行する。複数の記録領域は、映像データを記録可能である。また、複数の記録領域は、それぞれ、異なる性能を有する。ストレージ制御装置は、複数の記録領域への映像データの記録を制御する。このシステムにおいて、情報処理装置は、映像データを解析することで、映像データの利用状況を判断する。ストレージ制御装置は、映像データの利用状況に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定する。
 上記の映像記録システムでは、映像データを解析してその利用状況を判断し、この判断結果(すなわち、映像データの利用状況)に基づいて、複数の記録領域のうちいずれの記録領域に映像データを記録するかを決定している。これにより、映像データを、その利用状況に応じて適切な記録領域に記録できる。
 本開示は、映像データを所定の記録領域に記録する映像記録システム、ストレージ制御装置、情報処理装置、及び、映像データを所定の記録領域に記録する記録方法に広く適用できる。
100  :映像記録システム
1    :情報処理装置
11   :CPU
13   :RAM
15   :記憶装置
17   :インタフェース
19   :ネットワークインタフェース
2    :映像出力装置
3    :ストレージ制御装置
31   :CPU
33   :RAM
35   :記憶装置
37a  :第1ストレージ用インタフェース
37b  :第2ストレージ用インタフェース
37c  :第3ストレージ用インタフェース
39   :ネットワークインタフェース
4    :操作装置
5a   :第1ストレージ
5b   :第2ストレージ
5c   :第3ストレージ
T1   :データ移動時刻設定テーブル
C1   :データ移動時刻設定カラム
C2   :移動対象データ名設定カラム
C3   :移動元ストレージ設定カラム
C4   :移動先ストレージ設定カラム

Claims (11)

  1.  それぞれが異なる性能を有する複数の記録領域への映像データの記録方法であって、
     前記映像データを解析することで得られる前記映像データの利用状況を取得する利用状況取得ステップと、
     前記利用状況に基づいて、前記複数の記録領域のうちいずれの記録領域に前記映像データを記録するか決定する記録領域決定ステップと、
     を備える、記録方法。
  2.  前記複数の記録領域は、第1記録領域と、前記第1記録領域よりも性能が低い第2記録領域と、を含み、
     前記利用状況取得ステップは、前記映像データの内容を解析して前記映像データの重要度を前記利用状況として取得するステップを含み、
     前記記録領域決定ステップは、前記映像データの重要度が高い場合に前記映像データを前記第1記録領域に記録し、前記映像データの重要度が低い場合に前記映像データを前記第2記録領域に記録すると決定するステップを含む、
     請求項1に記載の記録方法。
  3.  前記利用状況取得ステップは、前記映像データを前記複数の記録領域のうち現在記録されている記録領域から他の記録領域へと移動するデータ移動時刻を前記利用状況として取得するステップを含み、
     前記記録領域決定ステップは、現在時刻が前記データ移動時刻と一致する場合に、前記映像データを現在記録されている前記記録領域から前記他の記録領域へと移動させるステップを含む、
     請求項1に記載の記録方法。
  4.  前記複数の記録領域は、第1記録領域と、前記第1記録領域よりも性能が低い第2記録領域と、を含み、
     前記利用状況取得ステップは、複数の映像データから映像ファイルを生成し、前記映像ファイルの重要度を前記利用状況として取得するステップを含み、
     前記記録領域決定ステップは、
     前記映像ファイルを前記第1記録領域に記録するステップと、
     前記映像ファイルの重要度に基づいて、前記第1記録領域に記録した前記映像ファイルを前記第2記録領域に移動させるか否かを決定するステップと、
     を含む、請求項1に記載の記録方法。
  5.  前記複数の記録領域は、書き込み回数が少ない第3記録領域と、書き込み回数が多い第4記録領域と、を含み、
     前記利用状況取得ステップは、前記映像データのアクセス頻度を前記利用状況として決定するステップを含み、
     前記記録領域決定ステップは、前記映像データのアクセス頻度が低い場合に前記映像データを前記第3記録領域に記録し、前記映像データのアクセス頻度が高い場合に前記映像データを前記第4記録領域に記録すると決定するステップを含む、
     請求項1に記載の記録方法。
  6.  前記記録領域決定ステップは、アクセス頻度が低いと判断されて前記第3記録領域に記録された前記映像データのアクセス頻度が高い場合に、当該映像データを前記第3記録領域から、前記複数の記録領域に含まれ書き込み回数が多い第5記録領域に移動させるステップを含む、請求項5に記載の記録方法。
  7.   前記記録領域決定ステップは、前記第3記録領域から前記第5記録領域に移動させた前記映像データのアクセス頻度を高いと変更するステップを含む、請求項6に記載の記録方法。
  8.  前記利用状況取得ステップは、前記利用状況をメタデータとして前記映像データと関連付けるステップを含む、請求項1~7のいずれかに記載の記録方法。
  9.  映像データを記録可能であり、それぞれが異なる性能を有する複数の記録領域と通信するインタフェースと、
     前記複数の記録領域への前記映像データの記録を制御する制御部と、
     を備え、
     前記制御部は、前記映像データを解析することで判断された前記映像データの利用状況に基づいて、前記複数の記録領域のうちいずれの記録領域に前記映像データを記録するか決定する、
     ストレージ制御装置。
  10.  映像データを記録可能であり、それぞれが異なる性能を有する複数の記録領域と通信するインタフェースと、
     前記複数の記録領域への前記映像データの記録を制御する制御部と、
     を備え、
     前記制御部は、
     前記映像データを解析することで、前記映像データの利用状況を判断し、
     前記利用状況に基づいて、前記複数の記録領域のうちいずれの記録領域に前記映像データを記録するか決定する、
     情報処理装置。
  11.  映像データに関する処理を実行する情報処理装置と、
     前記映像データを記録可能であり、それぞれが異なる性能を有する複数の記録領域と、
     前記複数の記録領域への前記映像データの記録を制御するストレージ制御装置と、
     を備え、
     前記情報処理装置は、前記映像データを解析することで、前記映像データの利用状況を判断し、
     前記ストレージ制御装置は、前記利用状況に基づいて、前記複数の記録領域のうちいずれの記録領域に前記映像データを記録するか決定する、
     映像記録システム。
PCT/JP2024/014229 2023-05-23 2024-04-08 記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム Pending WO2024241730A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2025521852A JPWO2024241730A1 (ja) 2023-05-23 2024-04-08

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023084966 2023-05-23
JP2023-084966 2023-05-23

Publications (1)

Publication Number Publication Date
WO2024241730A1 true WO2024241730A1 (ja) 2024-11-28

Family

ID=93589085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/014229 Pending WO2024241730A1 (ja) 2023-05-23 2024-04-08 記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム

Country Status (2)

Country Link
JP (1) JPWO2024241730A1 (ja)
WO (1) WO2024241730A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119629299A (zh) * 2025-02-13 2025-03-14 广州市省信软件有限公司 一种基于人工智能的视频数据优化采集方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006005A (ja) * 2001-06-19 2003-01-10 Fujitsu Ltd データ記憶装置
JP2009059273A (ja) * 2007-09-03 2009-03-19 Nec Corp ストリームデータ制御システム、ストリームデータ制御方法およびストリームデータ制御用プログラム
JP2010157188A (ja) * 2009-01-05 2010-07-15 Sony Corp 情報処理装置、コンテンツ管理方法及びプログラム
JP2012053855A (ja) * 2010-09-03 2012-03-15 Ricoh Co Ltd コンテンツ閲覧装置、コンテンツ表示方法及びコンテンツ表示プログラム
US8694476B2 (en) * 2003-10-27 2014-04-08 Hitachi Data Systems Corporation Policy-based management of a redundant array of independent nodes
JP2018036711A (ja) * 2016-08-29 2018-03-08 富士通株式会社 ストレージシステム,ストレージ制御装置および制御プログラム
JP2019087287A (ja) * 2019-03-13 2019-06-06 株式会社エヌ・ティ・ティ・データ 管理装置、ストレージシステム、ストレージ管理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006005A (ja) * 2001-06-19 2003-01-10 Fujitsu Ltd データ記憶装置
US8694476B2 (en) * 2003-10-27 2014-04-08 Hitachi Data Systems Corporation Policy-based management of a redundant array of independent nodes
JP2009059273A (ja) * 2007-09-03 2009-03-19 Nec Corp ストリームデータ制御システム、ストリームデータ制御方法およびストリームデータ制御用プログラム
JP2010157188A (ja) * 2009-01-05 2010-07-15 Sony Corp 情報処理装置、コンテンツ管理方法及びプログラム
JP2012053855A (ja) * 2010-09-03 2012-03-15 Ricoh Co Ltd コンテンツ閲覧装置、コンテンツ表示方法及びコンテンツ表示プログラム
JP2018036711A (ja) * 2016-08-29 2018-03-08 富士通株式会社 ストレージシステム,ストレージ制御装置および制御プログラム
JP2019087287A (ja) * 2019-03-13 2019-06-06 株式会社エヌ・ティ・ティ・データ 管理装置、ストレージシステム、ストレージ管理方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119629299A (zh) * 2025-02-13 2025-03-14 广州市省信软件有限公司 一种基于人工智能的视频数据优化采集方法及系统

Also Published As

Publication number Publication date
JPWO2024241730A1 (ja) 2024-11-28

Similar Documents

Publication Publication Date Title
JP4392601B2 (ja) データアクセス装置および記録媒体
US7747144B2 (en) Information processing apparatus, information processing method, recording medium, control
CN101872639B (zh) 在数字硬盘录像机上存储及检索图片数据的方法及装置
JP2012054788A (ja) データファイル転送装置、その制御方法、プログラム及び記憶媒体
CN1129903C (zh) 记录再生装置
JP4949176B2 (ja) 情報処理装置、記録方法およびコンピュータプログラム
WO2024241730A1 (ja) 記録方法、ストレージ制御装置、情報処理装置、及び映像記録システム
KR20070052325A (ko) 메모리카드 컨트롤러, 메모리카드 드라이브 장치 및 컴퓨터프로그램
KR100982118B1 (ko) Fat 방식으로 포맷된 정보 기록 매체에 데이터 파일을 기록하는 기록 장치, 방법, 및 프로그램이 기록되어 있는 컴퓨터가 판독가능한 기록 매체
JP4251219B2 (ja) 編集装置及び編集方法
JP4241839B2 (ja) データ及びファイルシステム情報の記録装置及び記録方法
US8452158B2 (en) Recording apparatus, imaging and recording apparatus, recording method, and program
WO2024232168A1 (ja) 記録方法、情報処理装置、及び映像記録システム
WO2024262139A1 (ja) 映像記録システム、情報処理装置、及び記録方法
CN115328391A (zh) 一种视频采集设备本地录制的存储方法及装置、管理方法
US20090157988A1 (en) Data processing apparatus and data processing method
KR102003432B1 (ko) 감시 시스템의 영상 관리 장치 및 방법
US8929723B2 (en) Recording apparatus, imaging and recording apparatus, recording method, and program
US10354695B2 (en) Data recording control device and data recording control method
WO2025126643A1 (ja) 記録方法、及び映像記録システム
EP1739677A2 (en) Recording control apparatus and method for recording in UDF format for a camera with flash memory and optical disk
JP7752333B2 (ja) データ記録システム、ストレージ、及び、ストレージの制御方法
US8509597B2 (en) Recording apparatus, imaging and recording apparatus, recording method, and program
JP4289403B2 (ja) 編集装置及び編集方法
US8644676B2 (en) Data processing apparatus and data processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24810738

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2025521852

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2024810738

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE