JP2002199370A - Video / audio distribution apparatus and video / audio file analysis method - Google Patents
Video / audio distribution apparatus and video / audio file analysis methodInfo
- Publication number
- JP2002199370A JP2002199370A JP2000395724A JP2000395724A JP2002199370A JP 2002199370 A JP2002199370 A JP 2002199370A JP 2000395724 A JP2000395724 A JP 2000395724A JP 2000395724 A JP2000395724 A JP 2000395724A JP 2002199370 A JP2002199370 A JP 2002199370A
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- audio file
- frame
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
(57)【要約】
【課題】 映像音声の送信要求を受けてから映像音声ス
トリームを送信するまでの応答時間を短縮し、映像音声
配信装置の主記憶の使用量を抑えることを可能とする映
像音声配信装置を提供すること。
【解決手段】 映像音声ファイル解析部6は、映像音声
ファイル保存部4に保存された映像音声ファイルを解析
し、その結果を映像音声ファイル解析結果保存部7に保
存する。保存するための主記憶が不足している場合は、
既存の解析結果を削除する。映像音声ファイル解析部6
は、映像音声ファイルに関する情報を映像音声データ取
得部5から要求された際に、要求された情報が映像音声
ファイル解析結果保存部7にある場合はそれを返す。こ
れにより、映像音声の送信要求を受けてから映像音声を
送信するまでの応答時間を短縮し、映像音声配信装置の
主記憶の使用量を抑えることが可能である。
(57) [Summary] [PROBLEMS] A video capable of shortening a response time from receiving a video / audio transmission request to transmitting a video / audio stream, and reducing a main memory usage of the video / audio distribution apparatus. To provide an audio distribution device. A video / audio file analysis unit analyzes a video / audio file stored in a video / audio file storage unit, and stores the result in a video / audio file analysis result storage unit. If there is not enough main memory to save,
Delete existing analysis results. Video / audio file analyzer 6
When the information on the video / audio file is requested from the video / audio data acquisition unit 5, if the requested information is in the video / audio file analysis result storage unit 7, it is returned. As a result, it is possible to shorten the response time from receiving the video / audio transmission request to transmitting the video / audio, and to reduce the amount of main memory used in the video / audio distribution device.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、記録した映像音声
の配信を行う映像音声配信装置及び映像音声ファイル解
析方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video and audio distribution apparatus for distributing recorded video and audio, and a video and audio file analysis method.
【0002】[0002]
【従来の技術】近年、ユーザの要求に応じて映像音声を
ディジタル信号として配信する装置が開発されている。
例えば、インターネットに接続して映像音声を受信し再
生を行うことができる映像音声受信装置(あるいは計算
機を映像音声受信装置として機能させるためのソフトウ
ェア)が開発され、受信装置から送信される要求に基づ
いて映像音声ストリームを配信する装置が開発されてい
る。2. Description of the Related Art In recent years, devices for distributing video and audio as digital signals in response to user requests have been developed.
For example, a video / audio receiving device (or software for causing a computer to function as a video / audio receiving device) capable of receiving and reproducing video / audio by connecting to the Internet has been developed, and based on a request transmitted from the receiving device. A device for distributing a video / audio stream has been developed.
【0003】また、MPEG−4など低ビットレートの
映像音声符号化技術の開発に伴い、映像音声配信装置に
は、多数の受信装置からそれぞれ独立に要求される映像
音声の配信を処理する能力が必要とされている。In addition, with the development of low bit rate video / audio coding technology such as MPEG-4, video / audio distribution devices have the ability to process video / audio distribution required independently from a large number of receiving devices. is needed.
【0004】映像音声配信装置においては、配信する映
像音声ストリームを、MPEG形式などのディジタル信
号として符号化し、あらかじめハードディスク等の記録
媒体に保存しておく。受信装置が映像音声の送信を要求
すると、映像音声の先頭もしくは受信装置が指定した時
刻から映像音声ストリームを送信する。In a video / audio distribution apparatus, a video / audio stream to be distributed is encoded as a digital signal of an MPEG format or the like and stored in a recording medium such as a hard disk in advance. When the receiving device requests transmission of the video and audio, the video and audio stream is transmitted from the beginning of the video and audio or from the time specified by the receiving device.
【0005】映像音声データの送信方式として、映像音
声をパケット化して順番に送出する方式が存在する。例
えば、RTPなどの通信プロトコルを用いて、映像音声
ストリームを一定時間ごとの映像音声を収めたパケット
に区切り、再生時刻等の情報を付加して送信する。送信
においてパケットの欠落やデータの誤りが起こっても再
送を行わないことにより、再生処理を対話的かつ実時間
に行うことを重視することができる。[0005] As a method of transmitting video and audio data, there is a method in which video and audio are packetized and sequentially transmitted. For example, using a communication protocol such as RTP, the video / audio stream is divided into packets containing video / audio at fixed time intervals, and information such as reproduction time is added and transmitted. By not performing retransmission even if a packet is lost or data error occurs in transmission, it is possible to place importance on performing reproduction processing interactively and in real time.
【0006】この方式は特に記録媒体に保存されていな
い生中継等の映像音声の配信に用いられてきたが、記録
媒体にあらかじめ保存された映像音声ストリームの配信
に適用することも可能である。Although this method has been used particularly for the distribution of video and audio such as live broadcasts not stored in a recording medium, it can also be applied to the distribution of a video and audio stream previously stored in a recording medium.
【0007】[0007]
【発明が解決しようとする課題】従来の技術において
は、映像音声配信装置が映像音声の送信要求を受ける
と、まず映像音声ファイルの解析を行ってから映像音声
ストリームの送出を行う。この結果、解析処理を行う時
間が映像音声の送信要求からパケットの送出までにかか
る時間に加わり、受信装置への応答時間が延びるという
問題があった。In the prior art, when a video / audio distribution device receives a video / audio transmission request, it first analyzes a video / audio file and then transmits a video / audio stream. As a result, there is a problem that the time required for performing the analysis process is added to the time required from the transmission request of the video and audio to the transmission of the packet, and the response time to the receiving device is extended.
【0008】複数の受信装置からそれぞれ独立の映像音
声の送信要求を受け付ける映像音声配信装置において
は、同一の映像音声ファイルに対し異なる送信要求がく
ることが一般的である。そのため、送信要求に対して個
別に対処する必要がある。このような状況において、前
述のように映像音声ファイルの解析処理を送信要求ごと
に行うと配信装置の処理能力に負担がかかる。[0008] In a video / audio distribution apparatus which receives independent video / audio transmission requests from a plurality of receiving apparatuses, different transmission requests are generally received for the same video / audio file. Therefore, it is necessary to individually deal with transmission requests. In such a situation, if the analysis processing of the video / audio file is performed for each transmission request as described above, a load is imposed on the processing capability of the distribution device.
【0009】映像音声データをパケット化するために
は、映像音声ファイルのどの部分が映像音声の送信すべ
き時刻に対応するかを知る必要がある。これらの情報
は、半導体メモリなど高速にアクセスできる主記憶にあ
ることが望ましい。しかし、従来の方式は、容量の限ら
れた主記憶においてこのような情報を有効に保存する方
法を欠いていた。特に送信要求を処理する手段ごとにこ
れらの情報を持つと、同一のデータが装置の複数の主記
憶領域に存在することになり、主記憶の使用効率が低下
するという問題点があった。In order to packetize video and audio data, it is necessary to know which part of the video and audio file corresponds to the time at which the video and audio should be transmitted. It is desirable that such information be in a high-speed accessible main memory such as a semiconductor memory. However, the conventional method lacks a method for effectively storing such information in a main memory having a limited capacity. In particular, if such information is provided for each means for processing a transmission request, the same data exists in a plurality of main storage areas of the apparatus, and there is a problem that the use efficiency of the main storage is reduced.
【0010】本発明は、上記事情を考慮してなされたも
ので、映像音声に対する送信要求から応答までの時間を
短縮し、かつ、映像音声配信装置の主記憶の使用量を抑
えることのできる映像音声配信装置及び映像音声ファイ
ル解析方法を提供することを目的とする。[0010] The present invention has been made in view of the above circumstances, and can reduce the time from transmission request to response to video and audio, and can reduce the amount of main memory used in the video and audio distribution device. It is an object to provide an audio distribution device and a video / audio file analysis method.
【0011】[0011]
【課題を解決するための手段】本発明は、外部の要求元
から受信した映像音声ファイルの送信要求に応じて、該
当する映像音声フレームを含むパケットを生成して該要
求元に送信する映像音声配信装置であって、フレームご
とに分割された映像及び音声からなるストリーム並びに
ストリームの各フレーム及び当該ファイル全体に関する
メタ情報を含む映像音声ファイルを保存するための第1
の保存手段と、前記パケットを生成する際に、前記送信
要求に該当する映像音声フレームを前記第1の保存手段
から取得する取得手段と、前記第1の保存手段に保存さ
れた前記映像音声ファイルのフレームに関する解析情報
及び前記映像音声ファイル全体に関する解析情報を前記
取得手段に応答するために、必要に応じて前記映像音声
ファイルを解析するための解析手段と、前記解析手段に
より作成された前記解析情報の全部または一部を保存す
るための第2の保存手段とを備え、前記解析手段により
作成された前記解析情報を前記第2の保存手段に保存す
る場合に、前記映像音声ファイル全体に関する解析情報
はその内容をすべて保存しておくとともに、前記映像音
声ファイルのフレームに関する解析情報は少なくとも所
定の一部のフレームについて保存しておき、前記解析手
段は、前記取得手段から前記解析情報を要求された場合
に、該当する解析情報が前記第2の保存手段に保存され
ているならば、該保存されている情報を応答し、保存さ
れていないならば、前記第1の保存手段に保存された前
記映像音声ファイルを解析して作成した解析情報を応答
することを特徴とする。SUMMARY OF THE INVENTION According to the present invention, there is provided a video / audio transmission apparatus which generates a packet including a video / audio frame corresponding to a transmission request of a video / audio file received from an external request source, and transmits the packet to the request source. A distribution apparatus, comprising: a first stream for storing a stream including video and audio divided for each frame, and a video and audio file including meta information regarding each frame of the stream and the entire file;
Storage means, acquisition means for acquiring a video and audio frame corresponding to the transmission request from the first storage means when generating the packet, and the video and audio file stored in the first storage means Analysis means for analyzing the video / audio file as needed to respond to the acquisition means with analysis information on the frame and analysis information on the entire video / audio file, and the analysis created by the analysis means A second storage unit for storing all or a part of the information, wherein when the analysis information created by the analysis unit is stored in the second storage unit, analysis of the entire video / audio file is performed. The information is stored in its entirety, and the analysis information on the frame of the video / audio file is stored in at least a predetermined part of the frame. Is stored, and when the analysis information is requested by the acquisition means, if the corresponding analysis information is stored in the second storage means, the stored information is stored. And if it is not stored, it responds with analysis information created by analyzing the video / audio file stored in the first storage means.
【0012】これによって、映像音声の送信要求を受け
てから映像音声を送信するまでの応答時間を短縮するこ
とが可能である。また、映像音声ファイルの解析結果を
複数の送信要求で共有することにより、映像音声配信装
置の主記憶の使用量を抑えることが可能である。This makes it possible to shorten the response time from receiving a video / audio transmission request to transmitting the video / audio. Further, by sharing the analysis result of the video / audio file with a plurality of transmission requests, it is possible to reduce the amount of main memory used in the video / audio distribution device.
【0013】好ましくは、前記解析手段は、前記映像音
声ファイルのフレームに関する解析情報を保存する記録
領域を前記第2の保存手段に確保できない場合は、削除
対象とするフレームを選択して該フレームに関連する解
析情報を前記第2の保存手段から削除するようにしても
よい。Preferably, when the recording area for storing the analysis information on the frame of the video / audio file cannot be secured in the second storage means, the analysis means preferably selects a frame to be deleted and assigns it to the frame. Related analysis information may be deleted from the second storage unit.
【0014】このように、フレームに関する情報を保存
する記録領域を確保できない場合は、フレームを選択し
て関連する情報を削除することにより、映像音声ファイ
ルの解析結果を保存する映像音声配信装置の主記憶の使
用量を抑え効率的に使用することが可能である。As described above, when it is not possible to secure a recording area for storing information related to a frame, the main unit of the video / audio distribution apparatus for storing the analysis result of the video / audio file by selecting the frame and deleting the related information. It is possible to reduce the amount of storage used and use it efficiently.
【0015】好ましくは、前記解析手段は、前記第1の
保存手段に保存されている映像音声ファイルの内容に変
更があった場合には、前記第2の保存手段に保存されて
いる当該映像音声ファイルに関連する解析情報を削除
し、直ちにまたは変更後にはじめて送信要求を受けたと
きに更新するようにしてもよい。Preferably, when the contents of the video / audio file stored in the first storage unit are changed, the analysis unit stores the video / audio file stored in the second storage unit. The analysis information related to the file may be deleted and updated immediately when the transmission request is received immediately or after the change.
【0016】このように、前記解析手段は、映像音声フ
ァイルに変更があった場合に、第2の保存手段に保存さ
れた当該映像音声ファイルに関する情報を更新するの
で、取得手段は取得する映像音声ストリームの内容に一
貫性を保つことが可能である。In this way, when the video / audio file is changed, the analysis means updates the information on the video / audio file stored in the second storage means. It is possible to keep the contents of the stream consistent.
【0017】好ましくは、前記第2の保存手段に前記映
像音声ファイルのフレームに関する解析情報を保存する
にあたっては、該映像音声ファイルのフレームのうち、
他のフレームを復号することなく再生可能なフレームに
ついては該映像音声ファイルにおける該フレームの記録
位置及び該フレームのビット数による長さを保存し、他
のフレームの復号を必要とするフレームについては該映
像音声ファイルにおける該フレームの記録位置は保存せ
ず該フレームのビット数による長さを保存するようにし
てもよい。Preferably, when storing the analysis information on the frame of the video / audio file in the second storage means,
For a frame that can be reproduced without decoding other frames, the recording position of the frame in the video / audio file and the length of the frame according to the number of bits are stored, and for a frame that requires decoding of another frame, The recording position of the frame in the video / audio file may not be stored, but the length of the frame according to the number of bits may be stored.
【0018】このように、解析手段は、映像音声ファイ
ルに記録されているフレームに関する情報を、フレーム
の記録位置及びサイズからなる表現形式に変換し、映像
音声ファイルにおける記録位置の保存を省略することに
より、第2の保存手段の主記憶の使用量を抑えることが
可能である。As described above, the analyzing means converts the information on the frame recorded in the video / audio file into an expression format including the recording position and the size of the frame, and omits saving the recording position in the video / audio file. Accordingly, it is possible to reduce the amount of main storage used by the second storage unit.
【0019】また、本発明は、フレームごとに分割され
た映像及び音声からなるストリーム並びにストリームの
各フレーム及び当該ファイル全体に関するメタ情報を含
む映像音声ファイルを保存するための第1の保存手段
と、外部の要求元から受信した映像音声ファイルの送信
要求に応じて、該当する映像音声フレームを該第1の保
存手段から取得し、該映像音声フレームを含むパケット
を生成して該要求元に送信するための処理手段と、前記
第1の保存手段に保存された前記映像音声ファイルのフ
レームに関する解析情報及び前記映像音声ファイル全体
に関する解析情報を前記処理手段に応答するために、必
要に応じて前記映像音声ファイルを解析するための解析
手段と、前記解析手段により作成された前記解析情報の
全部または一部を保存するための第2の保存手段とを備
えた映像音声配信装置における映像音声ファイル解析方
法であって、前記解析手段は、前記処理手段から前記解
析情報を要求された場合に、該当する解析情報が前記第
2の保存手段に保存されているならば、該保存されてい
る情報を応答し、保存されていないならば、前記第1の
保存手段に保存された前記映像音声ファイルを解析して
作成した解析情報を応答し、該当する解析情報が前記第
2の保存手段に保存されていないために前記解析情報を
作成した場合には、作成した前記解析情報のうち、前記
映像音声ファイル全体に関する解析情報はその内容をす
べて保存しておくとともに、前記映像音声ファイルのフ
レームに関する解析情報は少なくとも所定の一部のフレ
ームについて保存しておくことを特徴とする。The present invention also provides a first storage means for storing a stream composed of video and audio divided for each frame, and a video and audio file including meta information on each frame of the stream and the entire file. In response to a transmission request for a video / audio file received from an external request source, a corresponding video / audio frame is obtained from the first storage unit, a packet including the video / audio frame is generated, and transmitted to the request source. Processing means for transmitting, to the processing means, analysis information relating to frames of the video / audio file and analysis information relating to the entire video / audio file stored in the first storage means, as necessary. Analysis means for analyzing the audio file; and all or part of the analysis information created by the analysis means. A video / audio file analysis method in a video / audio distribution device comprising: a second storage unit for performing the analysis information when the analysis information is requested by the processing unit. If the information is stored in the second storage means, the stored information is returned. If the information is not stored, the video / audio file stored in the first storage means is analyzed and created. When the analysis information is created and the analysis information is created because the corresponding analysis information is not stored in the second storage unit, the analysis information relating to the entire video / audio file is included in the created analysis information. The information is stored in its entirety, and the analysis information on the frames of the video / audio file is stored in at least a part of predetermined frames. To.
【0020】なお、装置に係る本発明は方法に係る発明
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。また、装置または方法に係る本発明
は、コンピュータに当該発明に相当する手順を実行させ
るための(あるいはコンピュータを当該発明に相当する
手段として機能させるための、あるいはコンピュータに
当該発明に相当する機能を実現させるための)プログラ
ムとしても成立し、該プログラムを記録したコンピュー
タ読取り可能な記録媒体としても成立する。It should be noted that the present invention relating to the apparatus is also realized as an invention relating to a method, and the present invention relating to a method is also realized as an invention relating to an apparatus. Further, the present invention according to an apparatus or a method has a function of causing a computer to execute a procedure corresponding to the present invention (or causing a computer to function as means corresponding to the present invention, or a computer having a function corresponding to the present invention). The present invention is also realized as a program (for realizing), and is also realized as a computer-readable recording medium on which the program is recorded.
【0021】本発明によれば、映像音声に対する複数の
独立な送信要求に対して、映像音声ファイルの解析を共
通化して必要に応じて行い、解析結果を共有することに
よって、映像音声の送信要求からこれに対する応答まで
の時間を短縮し、映像音声配信装置の主記憶の使用量を
抑えることが可能になる。According to the present invention, in response to a plurality of independent transmission requests for video and audio, analysis of the video and audio file is performed as required, and the analysis result is shared, thereby enabling the transmission of the video and audio transmission request. From the time of the response to this, and the amount of use of the main memory of the video and audio distribution apparatus can be suppressed.
【0022】[0022]
【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0023】図1は、本発明の一実施形態に係る映像音
声配信装置の構成例を示すブロック図である。図1に示
されるように、この映像音声配信装置10は、映像音声
送信要求入力部1、一つまたは複数の映像音声パケット
生成部2、映像音声パケット出力部3、映像音声ファイ
ル保存部4、映像音声データ取得部5、映像音声ファイ
ル解析部6、映像音声ファイル解析結果保存部7を有す
る。図1では、映像音声パケット生成部は、2a,2b
の二つが存在する場合(あるいは二つが起動された場
合)を例示している。FIG. 1 is a block diagram showing a configuration example of a video and audio distribution apparatus according to an embodiment of the present invention. As shown in FIG. 1, the video / audio distribution device 10 includes a video / audio transmission request input unit 1, one or more video / audio packet generation units 2, a video / audio packet output unit 3, a video / audio file storage unit 4, It has a video / audio data acquisition unit 5, a video / audio file analysis unit 6, and a video / audio file analysis result storage unit 7. In FIG. 1, the video / audio packet generation unit includes 2a, 2b
Are present (or two are activated).
【0024】なお、図1において20は映像音声受信装
置である。また、図1において、映像音声配信装置と映
像音声受信装置との間のネットワーク(例えば、インタ
ーネット、LAN等)は記述を省略している。また、図
1では、映像音声受信装置を1台のみ示しているが、映
像音声受信装置が複数台存在してよい(それらが各々独
立して要求を出して構わない)。In FIG. 1, reference numeral 20 denotes a video / audio receiving apparatus. In FIG. 1, the description of a network (for example, the Internet, a LAN, or the like) between the video / audio distribution device and the video / audio reception device is omitted. Although FIG. 1 shows only one video / audio receiving device, a plurality of video / audio receiving devices may exist (they may issue requests independently).
【0025】映像音声送信要求入力部1は、映像音声受
信装置20から映像音声ファイルの送信要求を受信す
る。映像音声送信要求入力部1は、イーサネット(登録
商標)アダプタなどの通信用ハードウェアと、プロセッ
サとメモリ等の部品からなるハードウェア及びその上で
実行されるソフトウェアによって構成される。このソフ
トウェアは、RTSP(real time stre
aming protocol)などの通信プロトコル
に従った要求を処理して映像音声受信装置20に応答
し、映像音声パケット生成部2に対して映像音声の送信
を指示する。The video / audio transmission request input unit 1 receives a video / audio file transmission request from the video / audio receiving device 20. The video / audio transmission request input unit 1 includes communication hardware such as an Ethernet (registered trademark) adapter, hardware including components such as a processor and a memory, and software executed on the hardware. This software is compatible with RTSP (real time stream).
A request is processed in accordance with a communication protocol such as an A.A. protocol and the video / audio receiving apparatus 20 is responded to, and instructs the video / audio packet generation unit 2 to transmit a video / audio.
【0026】映像音声送信要求入力部1を構成するハー
ドウェアのうち、プロセッサとメモリなどソフトウェア
を実行するための装置は、映像音声配信装置の他の構成
要素と共用することが可能である。Of the hardware constituting the video / audio transmission request input unit 1, a device for executing software such as a processor and a memory can be shared with other components of the video / audio distribution device.
【0027】映像音声パケット生成部2は、映像音声送
信要求入力部1が受信した要求に従い、MPEG−4形
式等で符号化された映像音声を映像音声データ取得部5
から順次取得して映像音声パケットを生成し、映像音声
パケット出力部3に出力する。前述のように、映像音声
配信装置は、複数の映像音声パケット生成部を備える
(あるいは起動する)ことが可能である。映像音声デー
タは、RTP(thereal−time trans
port protocol)などの通信プロトコルに
従ってパケット化する。映像音声パケット生成部2は、
ソフトウェアとして実現し、各送信要求をそれぞれ別の
プロセスまたはスレッドにおいて処理することが可能で
ある。In accordance with the request received by the video / audio transmission request input unit 1, the video / audio packet generation unit 2 converts the video / audio encoded in the MPEG-4 format or the like into a video / audio data acquisition unit 5.
, And sequentially generates a video / audio packet, and outputs the generated video / audio packet to the video / audio packet output unit 3. As described above, the video and audio distribution device can include (or start up) a plurality of video and audio packet generation units. The video and audio data are in RTP (thermal-time trans).
It is packetized according to a communication protocol such as port protocol. The video and audio packet generation unit 2
It can be implemented as software, and each transmission request can be processed in a separate process or thread.
【0028】映像音声パケット出力部3は、映像音声パ
ケット生成部2が生成した映像音声パケットを、RTP
等の通信プロトコルに従って映像音声ファイルの送信を
要求した受信装置20に送信する。映像音声パケット出
力部3は、映像音声送信要求入力部1と同様に、通信用
ハードウェアとソフトウェアで構成される。通信用ハー
ドウェアは、映像音声送信要求入力部1と共用すること
が可能である。The video / audio packet output unit 3 converts the video / audio packet generated by the video / audio packet generation unit 2 into an RTP
According to a communication protocol such as the above, the video / audio file is transmitted to the receiving device 20 which has requested transmission. The video / audio packet output unit 3 includes communication hardware and software, similarly to the video / audio transmission request input unit 1. The communication hardware can be shared with the video / audio transmission request input unit 1.
【0029】映像音声ファイル保存部4は、MPEG−
4形式などで符号化された映像音声を、MP4など所定
のファイル形式に変換したものを映像音声ファイルとし
て記録媒体に保存する。映像音声データ取得部5又は映
像音声ファイル解析部6の要求に応じて、映像音声ファ
イルの指定された部分の内容を返す。映像音声ファイル
保存部4は、ハードディスクやDVD−ROM等の記録
媒体及び読み出し装置から構成される。また、転送速度
や応答時間を向上するためにキャッシュ機構を併用して
もよい。The video / audio file storage unit 4 stores the MPEG-
A video and audio coded in four formats or the like are converted to a predetermined file format such as MP4, and are stored in a recording medium as a video and audio file. In response to a request from the video / audio data acquisition unit 5 or the video / audio file analysis unit 6, the contents of the specified portion of the video / audio file are returned. The video / audio file storage unit 4 includes a recording medium such as a hard disk or a DVD-ROM and a reading device. Further, a cache mechanism may be used in combination to improve the transfer speed and response time.
【0030】映像音声データ取得部5は、映像音声パケ
ット生成部2の要求に応じて、映像音声ファイルのデー
タを返す。映像音声ファイル解析部6から映像音声の時
間帯に対応する映像音声ファイル中のストリームの記録
位置を取得し、それに基づいて映像音声ファイルのデー
タを映像音声ファイル保存部4から取得する。映像音声
データ取得部5は、ハードウェア及びソフトウェアとし
て実現される。The video / audio data acquisition section 5 returns data of a video / audio file in response to a request from the video / audio packet generation section 2. The recording position of the stream in the video / audio file corresponding to the time zone of the video / audio is obtained from the video / audio file analysis unit 6, and the data of the video / audio file is obtained from the video / audio file storage unit 4 based on the obtained position. The video / audio data acquisition unit 5 is realized as hardware and software.
【0031】映像音声ファイル解析部6は、映像音声フ
ァイル保存部4に保存された映像音声ファイルの内容を
解析する。MP4等の規格に従った映像音声ファイル
は、映像音声ストリームのメタ情報として、映像音声の
フレームに関する情報と、その他映像音声ファイル全体
に関する情報を含む。映像音声ファイル解析部6は、こ
れらを解析して、映像音声ファイル解析結果保存部7に
保存する。映像音声ファイル解析部6は、ハードウェア
及びソフトウェアとして実現される。The video / audio file analysis unit 6 analyzes the content of the video / audio file stored in the video / audio file storage unit 4. A video / audio file conforming to a standard such as MP4 includes, as meta information of a video / audio stream, information on a video / audio frame and other information on the entire video / audio file. The video / audio file analysis unit 6 analyzes these and stores them in the video / audio file analysis result storage unit 7. The video / audio file analysis unit 6 is realized as hardware and software.
【0032】映像音声ファイル解析結果保存部7は、半
導体メモリなど高速にランダムアクセス可能な記録媒体
を用いて、映像音声ファイルの解析結果を保存する。The video / audio file analysis result storage unit 7 stores a video / audio file analysis result using a recording medium that can be randomly accessed at high speed such as a semiconductor memory.
【0033】以下、本実施形態の映像音声配信装置を使
用して映像音声配信を行う場合について説明する。Hereinafter, a case where video and audio distribution is performed using the video and audio distribution apparatus of the present embodiment will be described.
【0034】以下では、映像音声の符号化方式としてM
PEG−4を用い、映像音声ファイルの形式としてはM
PEG−4規格の一部であるMP4ファイル形式を用い
る場合を例にとって説明をするが、もちろん、本発明は
他の方式で符号化される映像音声及び映像音声ファイル
についても同様に適用可能である。In the following, M and M are used as the video / audio coding method.
PEG-4 is used, and the format of the video / audio file is M
Although the case of using the MP4 file format which is a part of the PEG-4 standard will be described as an example, the present invention is of course applicable to video / audio and video / audio files encoded by other methods. .
【0035】図2及び図3は、映像音声ファイル解析結
果保存部7に記録される、映像音声ファイルの解析結果
の構成例を示したものである。FIG. 2 and FIG. 3 show examples of the configuration of the analysis result of the video and audio file recorded in the video and audio file analysis result storage unit 7.
【0036】図2は、映像音声配信装置に保存されてい
る映像音声ファイルの一覧と、各映像音声ファイルの解
析結果が映像音声ファイル解析結果保存部7に保存され
ているかどうかを示す。また、解析済みのファイルにつ
いては、ファイルが所定の形式に従っていて正しく再生
できるかどうかを示す。図2の例では、映像音声ファイ
ルf1とf2は後述のように解析されており、f3は未
解析であり、f4は解析の結果、ファイルが破損してい
るために再生できないことが分かっている。FIG. 2 shows a list of video / audio files stored in the video / audio distribution apparatus and whether or not the analysis result of each video / audio file is stored in the video / audio file analysis result storage unit 7. In addition, for a file that has been analyzed, it indicates whether the file can be correctly reproduced according to a predetermined format. In the example of FIG. 2, the video and audio files f1 and f2 have been analyzed as described below, f3 has not been analyzed, and as a result of the analysis, f4 has been found to be unplayable because the file is damaged. .
【0037】この方式以外にも、映像音声ファイル解析
結果保存部7においては、映像音声ファイルの解析結果
が保存されている映像音声ファイル名だけを管理し、映
像音声ファイルの有無は、映像音声受信装置20によっ
て送信が要求された時点で調べることもできる。In addition to this method, the video / audio file analysis result storage unit 7 manages only the video / audio file name in which the analysis result of the video / audio file is stored. It can also be checked when transmission is requested by the device 20.
【0038】図3は、映像音声ファイル全体に関する解
析結果を示す。解析結果として映像音声ストリームの時
間長と各フレームの情報を解析するためのデータを映像
音声ファイル解析結果保存部7に保存する。これ以外
に、映像音声ファイルのその他の属性や、映像音声ファ
イルに関する説明などを保存してもよい。FIG. 3 shows an analysis result for the entire video / audio file. As the analysis result, data for analyzing the time length of the video / audio stream and the information of each frame is stored in the video / audio file analysis result storage unit 7. In addition to the above, other attributes of the video / audio file, a description about the video / audio file, and the like may be stored.
【0039】フレームを解析するためには、フレームの
再生時刻、サイズ、同期が取れるかどうか、データの記
録位置などの情報が映像音声ファイルのどの部分に保存
されているかを知る必要がある。また、これらは映像音
声ファイルによってはすべてのフレームで共通の値を取
る場合がある。In order to analyze a frame, it is necessary to know in which part of the video / audio file information such as the reproduction time of the frame, the size, whether synchronization can be achieved, and the data recording position, etc. These values may be common to all frames depending on the video / audio file.
【0040】MP4ファイルにおいては、フレームに関
する情報が情報の種類ごとにまとめて保存されているの
で、それらの情報のMP4ファイルにおける記録位置を
映像音声ファイル解析結果保存部7に保存しておくこと
によって、フレーム情報の解析を行うことができる。ま
た、フレームの再生時刻の代わりに再生時間が保存され
ているので、再生時間から再生時刻を求める必要があ
る。In the MP4 file, information on frames is stored collectively for each type of information. Therefore, the recording position of such information in the MP4 file is stored in the video / audio file analysis result storage unit 7. And frame information can be analyzed. Also, since the reproduction time is stored instead of the reproduction time of the frame, it is necessary to obtain the reproduction time from the reproduction time.
【0041】図4は、可変ビットレートの映像ストリー
ム及び音声ストリームを含む、映像音声ファイルのフレ
ームに関する情報の一例である。FIG. 4 is an example of information on frames of a video / audio file including a video stream and an audio stream of a variable bit rate.
【0042】図4(a)の上段に示す映像音声ファイル
f1には、映像ストリーム、音声ストリーム、両ストリ
ームに関するメタ情報が順に記録されている。図4
(a)の上段の映像ストリームには例えば中段に示すよ
うに各フレームが記録され、音声ストリームには例えば
下段に示すように各フレームが記録されている。In the video / audio file f1 shown in the upper part of FIG. 4A, a video stream, an audio stream, and meta information relating to both streams are sequentially recorded. FIG.
(A) In the upper video stream, for example, each frame is recorded as shown in the middle, and in the audio stream, for example, each frame is recorded as shown in the lower.
【0043】図4(b)は、映像音声ファイル解析結果
保存部7に記録された、映像音声ファイルf1の各フレ
ームに関する情報を示す。図4(b)の情報において、
「フレーム番号」の項目は、映像ストリームの先頭を1
番としてフレームの再生順に割り当てた番号である。
「再生時刻」の項目は、ストリームの先頭を0秒とした
フレームの再生時刻であり、映像ストリームにおいては
次のフレームの再生時刻までフレームを表示することを
意味する(最終フレームの場合は、ストリーム全体の再
生時間の終端まで表示する)。音声ストリームにおいて
は、再生時刻から音声を出力することを示す。「同期」
の項目は、他のフレームを再生することなく再生できる
フレームであるかどうかを示し、MPEG−4映像スト
リームにおいてはIframeであることを示す。FIG. 4B shows information about each frame of the video / audio file f1 recorded in the video / audio file analysis result storage unit 7. In the information of FIG.
The item of “frame number” is 1 at the beginning of the video stream.
The number is a number assigned in the order of reproducing frames.
The item of “reproduction time” is the reproduction time of a frame with the start of the stream being 0 second, and means that the frame is displayed until the reproduction time of the next frame in the video stream. Display until the end of the entire playback time). In the audio stream, it indicates that audio is output from the reproduction time. "Sync"
Indicates whether the frame can be reproduced without reproducing another frame, and indicates that the frame is an Iframe in the MPEG-4 video stream.
【0044】「オフセット」の項目と「サイズ」の項目
は、映像音声ファイル上でそのフレームのデータが格納
された記録位置の“先頭”と“サイズ”をそれぞれバイ
ト単位で記述したものである。説明のため図において
は、具体的な値の代わりに、offset(オフセッ
ト)またはsize(サイズ)、フレーム番号、v(映
像)またはa(音声)からなる変数名で示す。なお、フ
レーム情報に欠落や異常がある場合は、これらの情報の
代わりに、フレームを再生できないことを記述すること
ができる。The "offset" item and the "size" item respectively describe the "head" and "size" of the recording position where the data of the frame are stored in the video / audio file in byte units. For the sake of explanation, in the figure, instead of specific values, they are indicated by variable names consisting of offset (offset) or size (size), frame number, v (video) or a (audio). If there is a missing or abnormal frame information, it can be described that the frame cannot be reproduced instead of such information.
【0045】図4の例においては、映像ストリームの3
3番以降及び音声ストリームの53番以降のフレームに
関する情報は解析されていないので、「同期」、「オフ
セット」、「サイズ」の各項目が不明となっている。
「再生時刻」の項目は、MP4ファイルのようにフレー
ムの再生時間が映像音声ファイルに保存されている場合
には、解析されている最後のフレームの再生時刻と再生
時間の和からその次のフレームの再生時刻を求めること
ができる。フレームの再生時間の代わりに再生時刻が映
像音声ファイルに保存されている場合は、解析されてい
ないフレームの再生時刻は求めることができない。In the example shown in FIG.
Since the information regarding the third and subsequent frames and the 53rd and subsequent frames of the audio stream has not been analyzed, the items of “synchronization”, “offset”, and “size” are unknown.
When the playback time of a frame is stored in a video / audio file such as an MP4 file, the item of “playback time” is calculated from the sum of the playback time of the last frame analyzed and the playback time. Can be obtained. If the reproduction time is stored in the video / audio file instead of the reproduction time of the frame, the reproduction time of the frame that has not been analyzed cannot be obtained.
【0046】MP4ファイル形式においては、データが
連続するサンプル(フレームに相当)をチャンクと定義
し、データの記録位置はサンプルごとではなくチャンク
ごとに記録されている。図4(a)のように連続領域に
保存されているストリームに関しては、チャンクの先頭
にあるフレームのオフセットは保存されているが、それ
以外のフレームのオフセットは保存されていない可能性
がある。オフセットが保存されていないフレームのオフ
セットは、前のフレームのオフセットと前のフレームの
サイズとの和によって順次求めることができる。なお、
各図において、演算によって求まったオフセットの値を
括弧()で囲んで示すものとする。In the MP4 file format, a continuous sample of data (corresponding to a frame) is defined as a chunk, and the data recording position is recorded not for each sample but for each chunk. As for the stream stored in the continuous area as shown in FIG. 4A, the offset of the frame at the head of the chunk may be stored, but the offset of other frames may not be stored. The offset of the frame in which the offset is not stored can be sequentially obtained by the sum of the offset of the previous frame and the size of the previous frame. In addition,
In each figure, the offset value obtained by the calculation is shown in parentheses ().
【0047】すべてのフレームについてオフセットが記
録されている映像音声ファイル形式では、一つ先のフレ
ームのオフセットからサイズを求めたいフレームのオフ
セットの値を引くことによって、フレームのサイズを求
めることができる。In a video / audio file format in which offsets are recorded for all frames, the size of a frame can be obtained by subtracting the offset value of the frame whose size is to be obtained from the offset of the next frame.
【0048】先に述べたようにサイズからオフセットを
求めることも可能なので、映像音声ファイルの解析結果
としてオフセットとサイズのどちらか一方だけを保存す
れば十分である。サイズの表現に要するビット数はオフ
セットの表現に要するビット数よりも一般に少ないた
め、サイズを記録する方がオフセットを記録するよりも
データを格納するために必要な主記憶領域を削減するこ
とができる。As described above, since the offset can be obtained from the size, it is sufficient to store only one of the offset and the size as the analysis result of the video / audio file. Since the number of bits required to represent the size is generally smaller than the number of bits required to represent the offset, recording the size can reduce the main storage area required to store data, rather than recording the offset. .
【0049】フレームを順次再生している場合は、直前
に再生したフレームのオフセットが求まっているので、
直前に再生したフレームのサイズを足すことによって今
回再生するフレームのオフセットを求めることができ
る。映像音声の早送りや巻き戻しなどによってフレーム
を不連続に再生する場合には、オフセットが求まってい
る再生時刻が前で最も近いフレームから、オフセットを
求めるフレームまでの各フレームのサイズをすべて足せ
ばよい。When the frames are sequentially reproduced, the offset of the frame reproduced immediately before has been obtained.
By adding the size of the frame reproduced immediately before, the offset of the frame reproduced this time can be obtained. When frames are played back discontinuously by fast-forwarding or rewinding video and audio, the size of each frame from the frame whose playback time at which the offset is found is closest to the previous one to the frame whose offset is to be found may be added. .
【0050】映像音声ファイル解析結果保存部7にオフ
セットが保存されているフレームが少ない場合には、サ
イズを足すフレームの数が多くなり、この処理は時間が
かかる。特にフレーム情報が保存されていない場合に
は、映像音声ファイルを取得して解析する必要があり、
その処理時間がオフセットを求める処理時間に加わる。When the number of frames in which the offset is stored in the video / audio file analysis result storage unit 7 is small, the number of frames to be added increases, and this process takes time. Especially when the frame information is not stored, it is necessary to acquire and analyze the video and audio files,
The processing time is added to the processing time for obtaining the offset.
【0051】そのため、演算によって求めたオフセット
の一部を映像音声ファイル解析結果保存部7に保存する
ことによって、オフセットの計算を高速化することがで
きる。オフセットを保存するフレームとしては、例えば
同期可能なフレームのみを選ぶことができる。なお、各
図においては、演算によって求まったオフセットのうち
映像音声ファイル解析結果保存部7に保存するものを括
弧[]で囲んで示すものとする。Therefore, by storing a part of the offset obtained by the calculation in the video / audio file analysis result storage unit 7, the calculation of the offset can be speeded up. As a frame for storing the offset, for example, only a frame that can be synchronized can be selected. In each of the drawings, the offset stored in the video / audio file analysis result storage unit 7 among the offsets obtained by the calculation is shown in parentheses [].
【0052】このように、映像音声ファイル解析結果保
存部7にはフレームのオフセットを保存しないことが可
能であり、フレーム情報を保存するための映像音声ファ
イル解析結果保存部7の主記憶領域を削減することがで
きる。As described above, it is possible not to store the frame offset in the video / audio file analysis result storage unit 7, and the main storage area of the video / audio file analysis result storage unit 7 for storing the frame information is reduced. can do.
【0053】図5は、可変ビットレートの映像ストリー
ムと固定ビットレートの音声ストリームを含む、映像音
声ファイルの各フレームに関する情報の一例である。FIG. 5 shows an example of information on each frame of a video / audio file including a video stream of a variable bit rate and an audio stream of a fixed bit rate.
【0054】図5(a)の上段に示す映像音声ファイル
f2には、映像/音声ストリーム、両ストリームに関す
るメタ情報が順に記録されている。図5(a)の上段の
映像/音声ストリームには例えば下段に示すように映像
ストリームと音声ストリームはそれぞれ一定時間ごとに
一まとまりのストリームとして記録されている。In the video / audio file f2 shown in the upper part of FIG. 5A, video / audio streams and meta information relating to both streams are recorded in order. In the video / audio stream in the upper part of FIG. 5A, for example, as shown in the lower part, the video stream and the audio stream are respectively recorded as a group of streams at regular time intervals.
【0055】図5(b)は、映像音声ファイル解析結果
保存部7に記録された、映像音声ファイルf2の各フレ
ームに関する情報を示すものであり、基本的には図4
(b)と同様のフォーマットである。FIG. 5B shows information about each frame of the video / audio file f2 recorded in the video / audio file analysis result storage unit 7. FIG.
This is the same format as (b).
【0056】図5の例においては、映像ストリームの6
0番フレームのサイズは異常な値が設定されている。こ
のように、映像音声ファイルの解析時に、個々のフレー
ムについて異常を発見した場合には、再生を行わないこ
とができ、以降のフレームの送信及び映像音声受信装置
20における再生が可能な場合には、続行することがで
きる。In the example of FIG. 5, the video stream 6
An abnormal value is set for the size of the 0th frame. As described above, when an abnormality is found for each frame during the analysis of the video / audio file, the reproduction cannot be performed. When the transmission of the subsequent frame and the reproduction by the video / audio receiving device 20 are possible, , Can continue.
【0057】図5(b)において、音声ストリームは、
各フレームの再生時間とサイズがすべて同じで、すべて
のフレームで同期を取ることが可能である。そのため、
次に示す式を用いて、フレーム番号から再生時刻を求め
ることができる。また、逆に、再生時刻からフレーム番
号を求めることもできる。なお、最初のフレーム番号を
1としている。 再生時刻=(フレーム番号−最初のフレームの番号)×1フレームあ
たりの再生時間 つまり、各フレームの再生時刻を映像音声ファイル解析
結果保存部7に保存する必要はない。In FIG. 5B, the audio stream is
The playback time and size of each frame are all the same, and synchronization can be achieved for all frames. for that reason,
The playback time can be obtained from the frame number using the following equation. Conversely, the frame number can be obtained from the reproduction time. Note that the first frame number is 1. Reproduction time = (frame number−first frame number) × reproduction time per frame That is, it is not necessary to store the reproduction time of each frame in the video / audio file analysis result storage unit 7.
【0058】映像音声ファイルにおいてフレームのデー
タが前のフレームと不連続に記録されている場合には、
フレームのオフセットを指定する必要がある。前のフレ
ームと連続している場合には図4の例と同様に、オフセ
ットは以前のフレームのオフセットとサイズから求める
ことが可能である。When frame data is recorded discontinuously with the previous frame in the video / audio file,
You need to specify the frame offset. When it is continuous with the previous frame, the offset can be obtained from the offset and size of the previous frame, as in the example of FIG.
【0059】図5の例では、映像ストリームの61番フ
レームと音声ストリームの101番フレームは、前のフ
レームと連続した位置に記録されていないので、映像音
声ファイルに記録されたフレームのオフセットを取得す
る必要がある。In the example shown in FIG. 5, since the 61st frame of the video stream and the 101st frame of the audio stream are not recorded at positions that are continuous with the previous frame, the offset of the frame recorded in the video / audio file is obtained. There is a need to.
【0060】次に、本実施形態の映像音声配信装置にお
いて映像音声ファイルの送信を行う処理手順について図
6及び図7を参照しながら説明する。Next, a processing procedure for transmitting a video / audio file in the video / audio distribution apparatus of the present embodiment will be described with reference to FIGS.
【0061】ステップS11において、映像音声送信要
求入力部1は、映像音声受信装置20から映像音声ファ
イルの処理要求を受け付ける。例えば、送信要求及び応
答をRTSPに基づいて行う場合、RTSP要求を受け
付けるソフトウェアを常時実行する。In step S 11, the video / audio transmission request input unit 1 receives a processing request for a video / audio file from the video / audio receiving device 20. For example, when a transmission request and a response are made based on RTSP, software for receiving the RTSP request is always executed.
【0062】映像音声ファイルに対する新規の送信要求
を受け付けるとステップS12に進み、映像音声送信要
求入力部1は、映像音声パケット生成部2を起動して映
像音声の送信の準備を指示する。映像音声送信要求入力
部1は、ステップS13からこの送信要求に対する送信
指示を受信し、同時にステップS11において新たな送
信要求の開始を受け付ける。When a new transmission request for a video / audio file is received, the process proceeds to step S12, where the video / audio transmission request input unit 1 activates the video / audio packet generation unit 2 and instructs preparation for video / audio transmission. The video / audio transmission request input unit 1 receives the transmission instruction for this transmission request from step S13, and at the same time, accepts the start of a new transmission request in step S11.
【0063】ステップS13において、映像音声受信装
置20から送信を要求された映像音声ファイルに対する
送信指示を受け取った場合は、ステップS14,S1
5,S16に進み、送信指示に応じた処理を行う。「再
生指示」の場合は、ステップS18に進み、映像音声パ
ケット生成部2に対して送信の開始を指示し、ステップ
S13に戻る。「一時停止指示」の場合は、ステップS
19に進み、映像音声パケット生成部2に対して送信の
一時停止を指示し、ステップS13に戻る。その他の指
示の場合は、指示の内容に応じて適切な処理を行い、ス
テップS13に戻る。In step S13, if a transmission instruction for a video / audio file requested to be transmitted is received from the video / audio receiving device 20, the process proceeds to steps S14 and S1.
5, the process proceeds to S16, where processing according to the transmission instruction is performed. In the case of the "reproduction instruction", the process proceeds to step S18, instructs the video / audio packet generation unit 2 to start transmission, and returns to step S13. In the case of "pause instruction", step S
The program proceeds to step S19, instructing the video / audio packet generator 2 to temporarily stop transmission, and returns to step S13. In the case of another instruction, an appropriate process is performed according to the content of the instruction, and the process returns to step S13.
【0064】「終了指示」の場合は、ステップS17に
進み、映像音声パケット生成部2に対して映像音声パケ
ットの生成を停止するよう指示する。映像音声パケット
生成部2がプロセスやスレッドであれば、処理を終了し
てリソースを開放するか、別の送信要求が来るまで待機
させる。そして、映像音声送信要求入力部1は、送信要
求を受けた映像音声ファイルに関する送信指示の受信を
終了する。In the case of the "end instruction", the flow advances to step S17 to instruct the video / audio packet generator 2 to stop generating the video / audio packet. If the video / audio packet generation unit 2 is a process or a thread, the processing is terminated and resources are released, or the process is made to wait until another transmission request comes. Then, the video / audio transmission request input unit 1 ends receiving the transmission instruction regarding the video / audio file for which the transmission request has been received.
【0065】次に、本実施形態の映像音声配信装置の映
像音声パケット生成部2の処理手順について図8及び図
9を参照しながら説明する。Next, the processing procedure of the video / audio packet generator 2 of the video / audio distribution apparatus of the present embodiment will be described with reference to FIGS.
【0066】最初に、ステップS31において、送信を
指示された映像音声ファイルに対する送信の準備を行
う。このとき、映像音声ファイル解析部6において映像
音声ファイルの解析を行うことにより、後に再生指示を
受信してから送信を開始するまでの応答時間を短縮する
ことができる。First, in step S31, preparation is made for transmission of a video / audio file instructed to be transmitted. At this time, by analyzing the video / audio file in the video / audio file analysis unit 6, it is possible to reduce the response time from when a reproduction instruction is received later to when transmission is started.
【0067】ステップS32において、映像音声ファイ
ルへの操作指示を受信した場合は、ステップS41,S
42,S43に進み、送信指示に応じた処理を行う。再
生が指示された場合は、ステップS44において再生を
開始し、ステップS34に移る。再生の一時停止が指示
された場合は、ステップS45において再生を一時停止
し、ステップS32に戻って次の指示を待つ。再生終了
が指示された場合は、送信処理を終了する。その他の指
示の場合は、適切な処理を行い、ステップS32に戻
る。If it is determined in step S32 that an operation instruction for a video / audio file has been received, the process proceeds to steps S41 and S41.
Proceeding to steps S42 and S43, a process corresponding to the transmission instruction is performed. When the reproduction is instructed, the reproduction is started in step S44, and the process proceeds to step S34. When the pause of reproduction is instructed, the reproduction is paused in step S45, and the process returns to step S32 to wait for the next instruction. When the end of reproduction is instructed, the transmission processing ends. In the case of another instruction, an appropriate process is performed, and the process returns to step S32.
【0068】ステップS32において映像音声ファイル
への操作指示を受信しなかった場合に、ステップS33
において映像音声パケット生成部2が再生中の状態にな
いときは、ステップS32に戻って操作指示を待つ。If no operation instruction for the video / audio file is received in step S32, the process proceeds to step S33.
If the video / audio packet generation unit 2 is not in the state of being reproduced in step, the process returns to step S32 and waits for an operation instruction.
【0069】ステップS32において映像音声ファイル
への操作指示を受信しなかった場合に、ステップS33
において映像音声パケット生成部2が再生中の状態にあ
るときは、ステップS34,S35,S36,S37,
S38の一連の処理を順に実行する。If no operation instruction for the video / audio file is received in step S32, the process proceeds to step S33.
In step S34, S35, S36, S37,
A series of processing of S38 is sequentially executed.
【0070】この一連の処理では、映像音声ファイルの
内容を一定時間の映像ストリームごとに順次取得し、パ
ケット化して送信を行う。In this series of processing, the contents of the video / audio file are sequentially acquired for each video stream of a fixed time, and packetized for transmission.
【0071】ここでは、映像音声ファイルの最初の送信
において、先頭から0.1秒間をパケット化して送信す
る場合を例にとりながら説明する。Here, the first transmission of a video / audio file will be described by taking as an example a case where the first 0.1 second is packetized and transmitted.
【0072】まず、ステップS34において、映像音声
パケット生成部2は、映像音声データ取得部5に対し、
映像音声ファイルの先頭から0.1秒間の内容の取得を
指示する。First, in step S 34, the video / audio packet generator 2 sends a video / audio data acquisition unit 5
Instruct the acquisition of the contents for 0.1 second from the beginning of the video / audio file.
【0073】ステップS35において、映像音声データ
取得部5は、映像音声ファイル解析部6に対して、指定
された時間に対するデータが映像音声ファイルのどの部
分に保存されているかを問い合わせる。ここでは、映像
音声ファイル解析部6は、映像ストリーム及び音声スト
リームのそれぞれについて、先頭から0.1秒に相当す
るデータが保存されている範囲を解析して返す。この映
像音声ファイル解析部6が行う処理については後述す
る。In step S35, the video / audio data acquisition unit 5 inquires of the video / audio file analysis unit 6 in which part of the video / audio file the data for the designated time is stored. Here, the video / audio file analysis unit 6 analyzes and returns a range in which data corresponding to 0.1 second from the beginning is stored for each of the video stream and the audio stream. The processing performed by the video / audio file analysis unit 6 will be described later.
【0074】ステップS36において、映像音声データ
取得部5は、映像音声ファイル解析部6に指定された範
囲の映像音声ファイルのデータを、映像音声ファイル保
存部4から取得する。In step S 36, the video / audio data acquiring unit 5 acquires the data of the video / audio file in the range specified by the video / audio file analyzing unit 6 from the video / audio file storage unit 4.
【0075】ステップS37において、映像音声パケッ
ト生成部2は、このデータをもとにRTPプロトコルな
ど所定のプロトコルに基づいてパケットを生成し、映像
音声パケット出力部3から映像音声受信装置20に対し
て送信させる。映像音声パケット出力部3は、映像音声
受信装置20にパケットを送信する。In step S 37, the video / audio packet generator 2 generates a packet based on the data based on a predetermined protocol such as the RTP protocol, and sends the video / audio packet output unit 3 to the video / audio receiver 20. Send. The video / audio packet output unit 3 transmits a packet to the video / audio receiving device 20.
【0076】そして、ステップS38において、映像音
声パケット生成部2は、内部の時刻を更新し、ステップ
S32に戻る。引き続き再生中の状態であれば繰り返し
ステップS34以降を実行し、先に送信した映像音声デ
ータの次の時間に相当するパケットを生成して送信す
る。Then, in step S38, the video / audio packet generator 2 updates the internal time, and returns to step S32. If the reproduction is continued, steps S34 and subsequent steps are repeatedly executed to generate and transmit a packet corresponding to the next time of the previously transmitted video and audio data.
【0077】次に、本実施形態の映像音声配信装置の映
像音声ファイル解析部6及び映像音声ファイル解析結果
保存部7の処理手順について図10及び図11を参照し
ながら説明する。Next, the processing procedure of the video / audio file analysis unit 6 and the video / audio file analysis result storage unit 7 of the video / audio distribution device of the present embodiment will be described with reference to FIGS.
【0078】ここでは、映像音声ファイル解析結果保存
部7には、映像音声ファイルの解析結果が未だ何も格納
されていない状態で、映像音声ファイルf1の映像音声
ストリームを先頭から0.1秒間送信する場合を例にと
りながら説明する。Here, the video / audio file f1 is transmitted for 0.1 second from the beginning with no video / audio file analysis result stored in the video / audio file analysis result storage unit 7. An example will be described.
【0079】この映像音声ファイルf1は、図2、図3
及び図4で説明したものと同一のもので、映像ストリー
ムは毎秒30フレームの可変ビットレート、音声は毎秒
50フレームの可変ビットレートとする。This video / audio file f1 is shown in FIGS.
The video stream has a variable bit rate of 30 frames per second, and the audio has a variable bit rate of 50 frames per second.
【0080】さて、映像音声受信装置20から映像音声
ファイルf1に対する送信要求を受けると、前述したよ
うにして、ステップS35において、映像音声ファイル
解析部6は、映像音声データ取得部5から問い合わせを
受ける。When the transmission request for the video / audio file f1 is received from the video / audio receiving device 20, the video / audio file analysis unit 6 receives the inquiry from the video / audio data acquisition unit 5 in step S35 as described above. .
【0081】この場合、まず、ステップS51におい
て、映像音声ファイル解析部6は、映像音声データ取得
部5に要求された映像音声ファイルf1に関するデータ
の解析結果が、映像音声ファイル解析結果保存部7に保
存されているかどうか調べる。In this case, first, in step S 51, the video / audio file analysis unit 6 stores the data analysis result of the video / audio file f 1 requested by the video / audio data acquisition unit 5 in the video / audio file analysis result storage unit 7. Check if it is saved.
【0082】保存されていない場合(例えば、以前に映
像音声ファイルf1を送信したことがない場合、送信し
たことはあるがすでに解析結果が削除されている場合、
など)には、ステップS52に進み、映像音声ファイル
保存部4から映像音声ファイルf1を読み、内容を解析
して、ステップS53に進む。映像音声ファイル全体に
関する情報は、例えば図3で示す形式で、映像音声ファ
イル解析結果保存部7に記録される。なお、映像音声フ
ァイルf1の解析は、映像音声ファイルf1の送信の再
生を要求された時点で行うことも、送信要求が来る前に
あらかじめ行うことも可能である。If not stored (for example, if the video / audio file f1 has never been transmitted before, if it has been transmitted but the analysis result has already been deleted,
Etc.), the process proceeds to step S52, the video / audio file f1 is read from the video / audio file storage unit 4, the contents are analyzed, and the process proceeds to step S53. Information on the entire video / audio file is recorded in the video / audio file analysis result storage unit 7, for example, in the format shown in FIG. The analysis of the video / audio file f1 can be performed at the time when the reproduction of the transmission of the video / audio file f1 is requested, or can be performed before the transmission request is received.
【0083】ステップS51において映像音声ファイル
全体に関するデータが映像音声ファイル解析結果保存部
7にある場合は、ステップS55に進み、映像音声デー
タ取得部4に要求された時間帯に含まれるすべてのフレ
ームの情報があるかどうか調べる。映像音声ファイル解
析部6は、映像音声ファイル解析結果保存部7に記録さ
れた図3及び図4に示す形式の情報を参照する。If the data relating to the entire video / audio file is present in the video / audio file analysis result storage unit 7 in step S51, the process proceeds to step S55, in which all the frames included in the time zone requested by the video / audio data acquisition unit 4 Check for information. The video / audio file analysis unit 6 refers to the information in the format shown in FIGS. 3 and 4 recorded in the video / audio file analysis result storage unit 7.
【0084】ステップS55において要求された時間帯
に含まれるフレームの情報の全部または一部がないと判
断された場合には、ステップS53において、当該解析
結果が保存されていないフレームの情報を求めるため
に、映像音声ファイルf1を映像音声ファイル保存部4
から読み出して解析する。そして、ステップS54にお
いて、映像音声ファイル解析結果保存部7に解析結果を
保存する主記憶領域があれば、ステップS57におい
て、その解析結果を映像音声ファイル解析結果保存部7
に図12で示すように格納する。この情報より映像音声
の先頭から0.1秒間の映像データが映像音声ファイル
f1のどの位置に格納されているかが分かる。If it is determined in step S55 that all or part of the information of the frame included in the requested time zone is not present, in step S53, the information of the frame in which the analysis result is not stored is obtained. And the video / audio file f1 is stored in the video / audio file storage unit 4.
And analyze it. If there is a main storage area for storing the analysis result in the video / audio file analysis result storage unit 7 in step S54, the analysis result is stored in the video / audio file analysis result storage unit 7 in step S57.
As shown in FIG. From this information, it is possible to know in which position of the video / audio file f1 the video data for 0.1 second from the beginning of the video / audio is stored.
【0085】ステップS51において映像音声ファイル
f1に関するデータの解析結果がないと判断されてステ
ップS52において解析が行われた場合にも、ステップ
S53に移り、上記の解析及び格納を行う。If it is determined in step S51 that there is no analysis result of the data related to the video / audio file f1, and the analysis is performed in step S52, the process proceeds to step S53, and the above analysis and storage are performed.
【0086】なお、ステップS54において、映像音声
ファイル解析結果保存部7に解析結果を保存する主記憶
領域がない場合については、後述する。The case where there is no main storage area for storing the analysis result in the video / audio file analysis result storage unit 7 in step S54 will be described later.
【0087】さて、ステップS55において要求された
時間帯に含まれるフレームの情報の全部があると判断さ
れ、またはステップS53,S57の解析及び格納が完
了すると(本例では映像音声ファイル解析結果保存部7
には映像音声ファイルの解析結果が未だ何も格納されて
いないものとしているので、後者に該当する)、ステッ
プS56において、映像音声ファイル解析部6は、図1
2に示すデータを参照して映像音声データ取得部5に情
報を返す。本例の場合、映像ストリームは、映像音声フ
ァイルf1のoffset1vバイト目からsize1
v+size2v+size3vバイトを取得し、音声
ストリームは映像音声ファイルf1のoffset1a
バイト目からsize1a+size2a+size3
a+size4a+size5aバイトを取得するよ
う、映像音声データ取得部4に返す。When it is determined in step S55 that there is all the information of the frame included in the requested time zone, or when the analysis and storage in steps S53 and S57 are completed (in this example, the video / audio file analysis result storage unit) 7
, It is assumed that no analysis result of the video / audio file has been stored yet, which corresponds to the latter). In step S56, the video / audio file analysis unit 6
The information is returned to the video / audio data acquisition unit 5 with reference to the data shown in FIG. In the case of this example, the video stream is size1 from offset1v byte of the video / audio file f1.
v + size2v + size3v bytes are obtained, and the audio stream is offset1a of the video / audio file f1.
From the byte, size1a + size2a + size3
It returns to the video / audio data acquisition unit 4 to acquire a + size4a + size5a bytes.
【0088】続いて、本例において、映像音声ファイル
f1の映像音声ストリームを、先頭から0.1秒後のと
ころから0.2秒後のところまでの内容について送信す
るものとする。この場合、前回の先頭から0.1秒間の
送信の際に映像音声ファイル全体の解析が行われ、その
結果が映像音声ファイル解析結果保存部7に保存されて
いるので、ステップS52の解析をする必要はない。た
だし、要求された時間帯に含まれるフレームの情報は未
だない。したがって、ステップS51,S55,S5
3,S57を実行して、0.1秒後から0.2秒後まで
の解析を行い、映像音声ファイル解析結果保存部7に図
13に示す情報が記録される。また、この時間帯のフレ
ームに関するオフセットの情報は映像音声ファイルに記
録されていないので、映像音声データの取得位置は前回
取得したデータの次の位置からとなる。つまり、 offset4v=offset1v+size1v+
size2v+size3v、 offset6a=offset1a+size1a+
size2a+size3a+size4a+size
5aである。Subsequently, in this example, it is assumed that the video / audio stream of the video / audio file f1 is transmitted with respect to the content from 0.1 seconds after the beginning to 0.2 seconds after the head. In this case, the analysis of the entire video / audio file is performed at the time of transmission for 0.1 second from the last time, and the result is stored in the video / audio file analysis result storage unit 7, so the analysis in step S52 is performed. No need. However, there is no information on the frames included in the requested time zone. Therefore, steps S51, S55, S5
Step S57 is executed to perform analysis from 0.1 seconds to 0.2 seconds later, and the information shown in FIG. Further, since the offset information relating to the frame in this time zone is not recorded in the video / audio file, the acquisition position of the video / audio data is from the position next to the previously acquired data. That is, offset4v = offset1v + size1v +
size2v + size3v, offset6a = offset1a + size1a +
size2a + size3a + size4a + size
5a.
【0089】その結果、映像音声データ取得部4に、映
像ストリームは映像音声ファイルf1のoffset4
vバイト目からsize4v+size5v+size
6vバイトを取得し、音声ストリームは、offset
6aバイト目からsize6a+size7a+siz
e8a+size9a+size10aバイトを取得す
るよう返す。As a result, the video / audio data acquisition unit 4 outputs the video stream to the offset4 of the video / audio file f1.
From the v-th byte, size4v + size5v + size
6v bytes, the audio stream is offset
From size 6a byte size6a + size7a + siz
Returns to acquire e8a + size9a + size10a bytes.
【0090】ここでは、映像音声ファイルf1のフレー
ム情報を要求に応じて逐次解析した。しかし、映像音声
の再生において、現在送信したフレームの後続のフレー
ムは、次に再生される確率が他のフレームよりも高いと
考えられる。そこで、フレームの解析は、要求されたフ
レームよりも先まで行うことができる。これによって、
映像音声ファイルを逐次解析するよりも映像音声ファイ
ル保存部4へのアクセス回数を減らし、負荷を軽減する
ことができる。Here, the frame information of the video / audio file f1 was sequentially analyzed as required. However, in the reproduction of video and audio, a frame subsequent to the currently transmitted frame is considered to have a higher probability of being reproduced next than other frames. Therefore, the analysis of the frame can be performed before the requested frame. by this,
The number of accesses to the video / audio file storage unit 4 can be reduced as compared with the sequential analysis of the video / audio file, and the load can be reduced.
【0091】次に、現在の映像音声の送信先とは異なる
映像音声受信装置20が、現在送信中の映像音声ファイ
ルと同一の映像音声ファイルf1に対して送信要求を出
した場合を考える。Next, it is assumed that the video / audio receiving device 20 different from the current video / audio transmission destination issues a transmission request for the same video / audio file f1 as the currently transmitted video / audio file.
【0092】ステップS51において、先に解析映像音
声ファイルf1の全体に関する結果は映像音声ファイル
解析結果保存部7に保存されているので、映像音声ファ
イルf1の解析は行う必要がない。つまり、映像音声フ
ァイルf1の解析を行う時間が短縮でき、映像音声ファ
イル保存部4を映像音声ファイルf1から読むための負
荷を軽減することができる。In step S51, since the result regarding the entire analysis video / audio file f1 is stored in the video / audio file analysis result storage unit 7, it is not necessary to analyze the video / audio file f1. That is, the time for analyzing the video / audio file f1 can be reduced, and the load for reading the video / audio file storage unit 4 from the video / audio file f1 can be reduced.
【0093】パケットを生成する際に必要なフレーム情
報の解析結果も、映像音声ファイル解析結果保存部7に
保存されている。そのため、映像音声ファイルf1のフ
レーム情報の解析を行うことなく、映像音声データの記
録範囲を取得することができる。The analysis result of the frame information necessary for generating the packet is also stored in the video / audio file analysis result storage unit 7. Therefore, the recording range of the video and audio data can be obtained without analyzing the frame information of the video and audio file f1.
【0094】このように、映像音声ファイルf1の送信
要求に対する応答時間を短縮することができる。また、
このように、映像音声ファイルf1の解析結果を他の送
信要求と共有するので、映像音声ファイル解析結果保存
部7の主記憶の使用量を抑えることができる。As described above, the response time to the transmission request of the video / audio file f1 can be shortened. Also,
As described above, since the analysis result of the video / audio file f1 is shared with another transmission request, it is possible to suppress the use amount of the main memory of the video / audio file analysis result storage unit 7.
【0095】なお、映像音声ファイル保存部4がデータ
キャッシュを備えている場合、映像音声ストリームを記
録媒体から読み出す処理を軽減することが可能である。When the video / audio file storage unit 4 has a data cache, the process of reading the video / audio stream from the recording medium can be reduced.
【0096】次に、映像音声受信装置20が映像音声再
生の早送りを指示した場合を考える。例えば、先頭から
5.1秒先の位置から再生する場合を考える。Next, consider the case where the video / audio receiving apparatus 20 instructs fast-forward of video / audio reproduction. For example, consider the case where reproduction is performed from a position 5.1 seconds ahead of the head.
【0097】映像音声ファイル解析部6は、映像音声フ
ァイルf1のメタ情報を解析し、5.1秒目に相当する
フレームの番号を検索する。MP4ファイル形式におい
ては、フレームの再生時刻ではなく再生時間が記録され
ているので、先頭からすべてのフレームの再生時間を足
してフレーム時刻を求めればよい。The video / audio file analyzer 6 analyzes the meta information of the video / audio file f1, and searches for a frame number corresponding to the 5.1 second. In the MP4 file format, since the reproduction time is recorded instead of the reproduction time of the frame, the frame time may be obtained by adding the reproduction times of all the frames from the beginning.
【0098】その結果、図14で示すように、映像スト
リームにおいて映像音声受信装置20が指定した時刻
は、154番フレームであることを検出する。このフレ
ームは単独では再生することができず、単独で再生でき
るフレーム(Iframe)の再生を必要とする。映像
音声ファイル解析部6は、151番フレームから再生す
る必要があることを検出する。そこで、映像音声ファイ
ル解析部6は、151番以降のフレームのデータを取得
するよう情報を返す。同様に、音声ストリームも解析の
結果、指定した時刻は256番フレームであるが単独で
再生することができないので、前にある251番フレー
ムからデータを取得するよう情報を返す。映像音声デー
タ取得部4は、この情報に基づいて取得した映像音声デ
ータ及びその再生時間を映像音声パケット生成部2に返
す。As a result, as shown in FIG. 14, it is detected that the time designated by the video / audio receiving apparatus 20 in the video stream is the 154th frame. This frame cannot be played back alone, but requires playback of a frame (Iframe) that can be played back alone. The video / audio file analysis unit 6 detects that reproduction from the 151st frame is necessary. Therefore, the video / audio file analysis unit 6 returns information to acquire data of the 151st and subsequent frames. Similarly, as a result of the analysis, the specified time is the 256th frame as a result of the analysis, but since it cannot be reproduced alone, information is returned to acquire data from the preceding 251st frame. The video / audio data acquisition unit 4 returns the video / audio data acquired based on this information and the reproduction time thereof to the video / audio packet generation unit 2.
【0099】次に、図14の状態において、さらに別の
映像音声受信装置20から、別の映像音声ファイルf2
に対する送信要求がきた場合を考える。Next, in the state shown in FIG. 14, another video / audio file f2
Consider a case where a transmission request is received for.
【0100】この映像音声ファイルf2は、図2、図3
及び図5で説明したものと同一のもので、映像ストリー
ムは毎秒30フレームの可変ビットレート、音声は毎秒
50フレームの固定ビットレートとする。This video / audio file f2 is shown in FIGS.
The video stream has a variable bit rate of 30 frames per second, and the audio has a fixed bit rate of 50 frames per second.
【0101】ここでは、映像音声ファイルf1を要求さ
れた場合と同様に、ステップS52で解析が行われ、ス
テップS57で解析結果が図15で示すように映像音声
ファイル解析結果保存部7に記録される。Here, as in the case where the video / audio file f1 is requested, the analysis is performed in step S52, and the analysis result is recorded in the video / audio file analysis result storage unit 7 as shown in FIG. 15 in step S57. You.
【0102】この場合は、音声ストリームはフレームの
再生時間が固定されているので、再生時刻から直ちにフ
レーム番号を求めることができる。また、フレームのサ
イズが固定されているので、データが連続する領域に記
録されている場合は、連続領域の先頭のオフセットとフ
レーム番号から直ちにフレームのオフセットを求めるこ
とができる。In this case, since the reproduction time of the frame of the audio stream is fixed, the frame number can be immediately obtained from the reproduction time. Further, since the frame size is fixed, when data is recorded in a continuous area, the frame offset can be immediately obtained from the start offset of the continuous area and the frame number.
【0103】以下では、図10のステップS53の解析
結果を映像音声ファイル解析結果保存部7に格納する際
に、ステップS54において、映像音声ファイル解析結
果保存部7に解析結果を保存する主記憶領域がない場合
について説明する。In the following, when the analysis result of step S53 in FIG. 10 is stored in the video / audio file analysis result storage unit 7, in step S54, the main storage area for storing the analysis result in the video / audio file analysis result storage unit 7 The case where there is no description will be described.
【0104】この場合には、図11のステップS61に
おいて、映像音声ファイル解析結果保存部7から情報を
削除するフレームを選択し、ステップS62において、
映像音声ファイル解析結果保存部7から選択したフレー
ムの情報を削除し、ステップS63においてある映像音
声ファイルのすべてのフレームに関する情報が削除され
ていればステップS64においてその映像音声ファイル
全体に関する情報を削除した後に、図10のステップS
57において、ステップS53の解析結果を映像音声フ
ァイル解析結果保存部7に格納する。In this case, in step S61 of FIG. 11, a frame from which information is to be deleted is selected from the video / audio file analysis result storage unit 7, and in step S62,
The information of the selected frame is deleted from the video / audio file analysis result storage unit 7. If the information on all the frames of the video / audio file is deleted in step S63, the information on the entire video / audio file is deleted in step S64. Later, step S in FIG.
At 57, the analysis result of step S53 is stored in the video / audio file analysis result storage unit 7.
【0105】ここで、映像音声ファイルf1及びf2の
再生が進行し、新たにフレーム情報の解析結果を保存す
るための、映像音声ファイル解析結果保存部7に割り当
てられた主記憶が不足した場合を例にとってより詳しく
説明する。Here, the case where the reproduction of the video / audio files f1 and f2 progresses and the main memory allocated to the video / audio file analysis result storage unit 7 for storing the analysis result of the frame information newly becomes insufficient. This will be explained in more detail for an example.
【0106】上記のように、主記憶が不足した場合は、
記録されている情報を削除しなければならない。削除す
る情報を選ぶ方針として、最も以前にアクセスされたフ
レームに関する情報を選ぶことができる。この方針に従
うと、これまで示した具体例の場合には、映像音声ファ
イルf1のフレーム1が最も好ましく、以下、フレーム
2、フレーム3の順になる。例えば、1秒間のフレーム
情報を選び、映像ストリームのフレーム1から30まで
と、音声ストリームのフレーム1から50までの情報を
削除することができる。As described above, when the main memory is insufficient,
The recorded information must be deleted. As a policy for selecting information to be deleted, information on the most recently accessed frame can be selected. According to this policy, in the case of the specific examples shown so far, frame 1 of the video / audio file f1 is most preferable, and thereafter, frame 2 and frame 3 are arranged in this order. For example, one second of frame information can be selected, and information of frames 1 to 30 of the video stream and information of frames 1 to 50 of the audio stream can be deleted.
【0107】他の方針として、フレームのオフセットを
フレームのサイズから計算によって求めて保存している
場合、オフセットを求めたフレームの一部を優先的に残
し、それ以外のフレーム情報を先に削除する方法もあ
る。As another policy, when the offset of a frame is calculated and stored from the size of the frame and stored, a part of the frame for which the offset is obtained is preferentially left, and other frame information is deleted first. There are ways.
【0108】例えば、映像ストリームにおいて同期可能
なフレームが0.5秒おきに出現する場合、先頭の1番
フレームと0.5秒目の16番フレームを残し、他のフ
レームすなわち2番から15番と17番から30番フレ
ームを削除する。同様に、音声ストリームについても、
映像ストリームで残した1番及び16番フレームとそれ
ぞれ同一時刻にある1番フレームと26番フレームが同
期可能であればその情報を残し、同期可能でなければ他
の同期可能なフレームの情報を残す。For example, when a frame that can be synchronized appears in the video stream every 0.5 seconds, the first frame at the beginning and the 16th frame at 0.5 second are left, and the other frames, that is, the 2nd through 15th frames are left. And delete the 17th to 30th frames. Similarly, for audio streams,
If the 1st and 16th frames left at the same time as the 1st and 16th frames left in the video stream can be synchronized, the information is retained if it can be synchronized, and if not, the information of other synchronizable frames is left. .
【0109】この結果、映像音声ファイルf1に関する
フレームの解析情報は、図16で示すようになる。As a result, the analysis information of the frame relating to the video / audio file f1 is as shown in FIG.
【0110】このように、映像音声ファイル解析結果保
存部7の主記憶領域を効率的に利用することができる。As described above, the main storage area of the video / audio file analysis result storage unit 7 can be used efficiently.
【0111】映像音声ファイルのフレーム情報を削除し
た結果、フレーム情報がすべて無くなった場合は、映像
音声ファイル全体の情報を削除することができる。例え
ば、映像音声ファイルf1に対するすべての映像音声配
信装置からの送信要求が停止され、映像音声ファイルf
2に対する送信が引き続き行われた結果、映像音声ファ
イルf1に関するフレーム情報がすべて削除されたとす
る。この場合は、図3で示す形式の映像音声ファイルf
1全体に関する情報を、映像音声ファイル解析結果保存
部7から削除することができる。When all the frame information is lost as a result of deleting the frame information of the video / audio file, the information of the entire video / audio file can be deleted. For example, transmission requests from all video and audio distribution devices for the video and audio file f1 are stopped, and the
It is assumed that as a result of continuing the transmission to No. 2, all the frame information relating to the video / audio file f1 has been deleted. In this case, the video / audio file f in the format shown in FIG.
1 can be deleted from the video / audio file analysis result storage unit 7.
【0112】なお、ある映像音声ファイルが更新された
場合は、そのファイルに関する映像音声ファイルの解析
結果はすべて消去し、必要に応じて再び解析すればよい
(例えば、その後にはじめて送信要求されたときに解析
を行ってその結果を保存する方法や、直ちに解析を行っ
てその結果を保存する方法などがある)。これによっ
て、映像音声ファイルの内容に関する一貫性を、映像音
声ファイル保存装置4、映像音声ファイル解析結果保存
部7及び映像音声パケット生成部2の間で保つことがで
きる。When a video / audio file is updated, all analysis results of the video / audio file relating to the file may be deleted and analyzed again as needed (for example, when a transmission request is made for the first time thereafter). There is a method of performing an analysis and storing the result, or a method of immediately performing an analysis and storing the result). As a result, consistency of the contents of the video / audio file can be maintained between the video / audio file storage device 4, the video / audio file analysis result storage unit 7, and the video / audio packet generation unit 2.
【0113】以上説明してきたように、本実施形態によ
れば、映像音声の送信要求から送信を開始するまでの応
答時間を短縮し、映像音声配信装置の主記憶の使用量を
抑えることが可能である。As described above, according to the present embodiment, it is possible to shorten the response time from the transmission request of the video and audio to the start of the transmission, and to suppress the use of the main memory of the video and audio distribution device. It is.
【0114】なお、前述したように、以上の各機能は、
ソフトウェアとして実現可能である。また、本実施形態
は、コンピュータに所定の手段を実行させるための(あ
るいはコンピュータを所定の手段として機能させるため
の、あるいはコンピュータに所定の機能を実現させるた
めの)プログラムとして実施することもでき、該プログ
ラムを記録したコンピュータ読取り可能な記録媒体とし
て実施することもできる。As described above, each of the above functions is
It can be realized as software. In addition, the present embodiment can be implemented as a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions), The present invention can also be implemented as a computer-readable recording medium on which the program is recorded.
【0115】なお、この発明の実施の形態で例示した構
成は一例であって、それ以外の構成を排除する趣旨のも
のではなく、例示した構成の一部を他のもので置き換え
たり、例示した構成の一部を省いたり、例示した構成に
別の機能あるいは要素を付加したり、それらを組み合わ
せたりすることなどによって得られる別の構成も可能で
ある。また、例示した構成と論理的に等価な別の構成、
例示した構成と論理的に等価な部分を含む別の構成、例
示した構成の要部と論理的に等価な別の構成なども可能
である。また、例示した構成と同一もしくは類似の目的
を達成する別の構成、例示した構成と同一もしくは類似
の効果を奏する別の構成なども可能である。また、この
発明の実施の形態で例示した各種構成部分についての各
種バリエーションは、適宜組み合わせて実施することが
可能である。また、この発明の実施の形態は、個別装置
としての発明、関連を持つ2以上の装置についての発
明、システム全体としての発明、個別装置内部の構成部
分についての発明、またはそれらに対応する方法の発明
等、種々の観点、段階、概念またはカテゴリに係る発明
を包含・内在するものである。従って、この発明の実施
の形態に開示した内容からは、例示した構成に限定され
ることなく発明を抽出することができるものである。The configuration illustrated in the embodiment of the present invention is merely an example, and is not intended to exclude other configurations, and a part of the illustrated configuration is replaced with another one or illustrated. Another configuration obtained by omitting a part of the configuration, adding another function or element to the illustrated configuration, or combining them is also possible. Also, another configuration that is logically equivalent to the illustrated configuration,
Another configuration including a portion logically equivalent to the illustrated configuration, another configuration logically equivalent to a main part of the illustrated configuration, and the like are also possible. Further, another configuration that achieves the same or similar purpose as the illustrated configuration, another configuration that achieves the same or similar effect as the illustrated configuration, and the like are also possible. Various variations of the various components exemplified in the embodiments of the present invention can be implemented in appropriate combinations. Further, the embodiments of the present invention relate to an invention as an individual device, an invention about two or more related devices, an invention as a whole system, an invention about components inside an individual device, or a method corresponding thereto. It encompasses and includes inventions related to various aspects, stages, concepts or categories, such as inventions. Therefore, the present invention can be extracted from the contents disclosed in the embodiments of the present invention without being limited to the illustrated configuration.
【0116】本発明は、上述した実施の形態に限定され
るものではなく、その技術的範囲において種々変形して
実施することができる。The present invention is not limited to the above-described embodiments, but can be implemented with various modifications within the technical scope.
【0117】[0117]
【発明の効果】本発明によれば、映像音声に対する複数
の独立な送信要求に対して、映像音声ファイルの解析を
共通化して必要に応じて行い、解析結果を共有するの
で、映像音声の送信要求に対する応答時間を短縮し、映
像音声配信装置の主記憶の使用量を抑えることが可能に
なる。According to the present invention, in response to a plurality of independent transmission requests for video and audio, the analysis of the video and audio files is performed as required, and the analysis results are shared. The response time to the request can be shortened, and the usage amount of the main memory of the video and audio distribution device can be suppressed.
【図1】本発明の一実施形態に係る映像音声配信装置の
構成例を示す図FIG. 1 is a diagram showing a configuration example of a video and audio distribution device according to an embodiment of the present invention.
【図2】同実施形態に係る映像音声ファイル解析結果保
存部に記録された情報の一例を示す図FIG. 2 is an exemplary view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment.
【図3】同実施形態に係る映像音声ファイル解析結果保
存部に記録された情報の一例を示す図FIG. 3 is an exemplary view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図4】同実施形態に係る映像音声ファイル保存部に記
録された映像音声ファイルの構造の一例及び映像音声フ
ァイル解析結果保存部に記録された情報の一例を示す図FIG. 4 is an exemplary view showing an example of a structure of a video / audio file recorded in a video / audio file storage unit and an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図5】同実施形態に係る映像音声ファイル保存部に記
録された映像音声ファイルの構造の一例及び映像音声フ
ァイル解析結果保存部に記録された情報の一例を示す図FIG. 5 is an exemplary view showing an example of a structure of a video / audio file recorded in a video / audio file storage unit and an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図6】同実施形態における映像音声送信要求入力部の
処理の一例を示すフローチャートFIG. 6 is an exemplary flowchart illustrating an example of processing of a video / audio transmission request input unit according to the embodiment.
【図7】同実施形態における映像音声送信要求入力部の
処理の一例を示すフローチャートFIG. 7 is an exemplary flowchart illustrating an example of processing of a video / audio transmission request input unit according to the embodiment.
【図8】同実施形態における映像音声パケットの生成処
理の一例を示すフローチャートFIG. 8 is a flowchart showing an example of a video / audio packet generation process according to the embodiment;
【図9】同実施形態における映像音声パケットの生成処
理の一例を示すフローチャートFIG. 9 is an exemplary flowchart illustrating an example of processing of generating a video / audio packet according to the embodiment.
【図10】同実施形態における映像音声ファイル解析部
の処理の一例を示すフローチャートFIG. 10 is an exemplary flowchart illustrating an example of processing of a video / audio file analysis unit according to the embodiment.
【図11】同実施形態における映像音声ファイル解析部
の処理の一例を示すフローチャートFIG. 11 is an exemplary flowchart illustrating an example of processing of a video / audio file analysis unit according to the embodiment.
【図12】同実施形態に係る映像音声ファイル解析結果
保存部に記録された情報の一例を示す図FIG. 12 is a view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図13】同実施形態に係る映像音声ファイル解析結果
保存部に記録された情報の一例を示す図FIG. 13 is a view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment.
【図14】同実施形態に係る映像音声ファイル解析結果
保存部に記録された情報の一例を示す図FIG. 14 is an exemplary view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図15】同実施形態に係る映像音声ファイル解析結果
保存部に記録された情報の一例を示す図FIG. 15 is a view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment;
【図16】同実施形態に係る映像音声ファイル解析結果
保存部に記録された情報の一例を示す図FIG. 16 is an exemplary view showing an example of information recorded in a video / audio file analysis result storage unit according to the embodiment.
1…映像音声送信要求入力部 2,2a,2b…映像音声パケット生成部 3…映像音声パケット出力部 4…映像音声ファイル保存部 5…映像音声データ取得部 6…映像音声ファイル解析部 7…映像音声ファイル解析結果保存部 10…映像音声配信装置 20…映像音声受信装置 DESCRIPTION OF SYMBOLS 1 ... Video / audio transmission request input part 2, 2a, 2b ... Video / audio packet generation part 3: Video / audio packet output part 4 ... Video / audio file storage part 5 ... Video / audio data acquisition part 6 ... Video / audio file analysis part 7 ... Video Audio file analysis result storage unit 10 Video / audio distribution device 20 Video / audio receiving device
───────────────────────────────────────────────────── フロントページの続き (72)発明者 今井 徹 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5C052 GA03 GB01 GB06 GB07 GC05 GE08 5C053 FA23 GB37 HA29 JA01 LA11 LA14 5C064 BA07 BC16 BC20 BC23 BC25 BD02 BD08 BD13 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Toru Imai 1 Toshiba-cho, Komukai Toshiba-cho, Saisaki-ku, Kawasaki-shi, Kanagawa F-term in the Toshiba R & D Center (reference) JA01 LA11 LA14 5C064 BA07 BC16 BC20 BC23 BC25 BD02 BD08 BD13
Claims (7)
ルの送信要求に応じて、該当する映像音声フレームを含
むパケットを生成して該要求元に送信する映像音声配信
装置であって、 フレームごとに分割された映像及び音声からなるストリ
ーム並びにストリームの各フレーム及び当該ファイル全
体に関するメタ情報を含む映像音声ファイルを保存する
ための第1の保存手段と、 前記パケットを生成する際に、前記送信要求に該当する
映像音声フレームを前記第1の保存手段から取得する取
得手段と、 前記第1の保存手段に保存された前記映像音声ファイル
のフレームに関する解析情報及び前記映像音声ファイル
全体に関する解析情報を前記取得手段に応答するため
に、必要に応じて前記映像音声ファイルを解析するため
の解析手段と、 前記解析手段により作成された前記解析情報の全部また
は一部を保存するための第2の保存手段とを備え、 前記解析手段により作成された前記解析情報を前記第2
の保存手段に保存する場合に、前記映像音声ファイル全
体に関する解析情報はその内容をすべて保存しておくと
ともに、前記映像音声ファイルのフレームに関する解析
情報は少なくとも所定の一部のフレームについて保存し
ておき、 前記解析手段は、前記取得手段から前記解析情報を要求
された場合に、該当する解析情報が前記第2の保存手段
に保存されているならば、該保存されている情報を応答
し、保存されていないならば、前記第1の保存手段に保
存された前記映像音声ファイルを解析して作成した解析
情報を応答することを特徴とする映像音声配信装置。1. A video / audio distribution apparatus which generates a packet including a relevant video / audio frame in response to a transmission request of a video / audio file received from an external request source, and transmits the packet to the request source. First storage means for storing a stream composed of video and audio divided into a plurality of frames and a video / audio file including meta information on each frame of the stream and the entire file; and, when the packet is generated, the transmission request Acquiring means for acquiring a video / audio frame corresponding to the above from the first storage means; and analyzing information relating to the frame of the video / audio file stored in the first storage means and analysis information relating to the entire video / audio file. Analysis means for analyzing the video / audio file as needed to respond to the acquisition means; A second storage unit for storing all or a part of the analysis information created by the analysis unit, wherein the analysis information created by the analysis unit is stored in the second storage unit.
In the case of saving in the storage means, the analysis information on the entire video / audio file is stored in its entirety, and the analysis information on the frames of the video / audio file is stored on at least a part of predetermined frames. The analysis means, when the analysis information is requested from the acquisition means, and the corresponding analysis information is stored in the second storage means, responds the stored information; If not, the video / audio distribution apparatus responds with analysis information created by analyzing the video / audio file stored in the first storage unit.
フレームに関する解析情報を保存する記録領域を前記第
2の保存手段に確保できない場合は、削除対象とするフ
レームを選択して該フレームに関連する解析情報を前記
第2の保存手段から削除することを特徴とする請求項1
に記載の映像音声配信装置。2. The method according to claim 1, wherein the analyzing unit selects a frame to be deleted and associates the frame with the frame if the recording area for storing the analysis information on the frame of the video / audio file cannot be secured in the second storing unit. 2. The analysis information to be deleted from the second storage means.
2. The video and audio distribution device according to claim 1.
存されている映像音声ファイルの内容に変更があった場
合には、前記第2の保存手段に保存されている当該映像
音声ファイルに関連する解析情報を削除し、直ちにまた
は変更後にはじめて送信要求を受けたときに更新するこ
とを特徴とする請求項1に記載の映像音声配信装置。3. The video / audio file stored in the second storage means when the content of the video / audio file stored in the first storage means is changed. 2. The video and audio distribution apparatus according to claim 1, wherein the analysis information related to the information is deleted and updated when a transmission request is received immediately or for the first time after the change.
ルのフレームに関する解析情報を保存するにあたって
は、該映像音声ファイルのフレームのうち、他のフレー
ムを復号することなく再生可能なフレームについては該
映像音声ファイルにおける該フレームの記録位置及び該
フレームのビット数による長さを保存し、他のフレーム
の復号を必要とするフレームについては該映像音声ファ
イルにおける該フレームの記録位置は保存せず該フレー
ムのビット数による長さを保存することを特徴とする請
求項1に記載の映像音声配信装置。4. When storing the analysis information relating to the frame of the video / audio file in the second storage means, among the frames of the video / audio file, a frame which can be reproduced without decoding other frames is used. The recording position of the frame in the video / audio file and the length in terms of the number of bits of the frame are stored, and the recording position of the frame in the video / audio file is not stored for a frame that requires decoding of another frame. The video / audio distribution apparatus according to claim 1, wherein a length according to the number of bits of the frame is stored.
らなるストリーム並びにストリームの各フレーム及び当
該ファイル全体に関するメタ情報を含む映像音声ファイ
ルを保存するための第1の保存手段と、外部の要求元か
ら受信した映像音声ファイルの送信要求に応じて、該当
する映像音声フレームを該第1の保存手段から取得し、
該映像音声フレームを含むパケットを生成して該要求元
に送信するための処理手段と、前記第1の保存手段に保
存された前記映像音声ファイルのフレームに関する解析
情報及び前記映像音声ファイル全体に関する解析情報を
前記処理手段に応答するために、必要に応じて前記映像
音声ファイルを解析するための解析手段と、前記解析手
段により作成された前記解析情報の全部または一部を保
存するための第2の保存手段とを備えた映像音声配信装
置における映像音声ファイル解析方法であって、 前記解析手段は、 前記処理手段から前記解析情報を要求された場合に、該
当する解析情報が前記第2の保存手段に保存されている
ならば、該保存されている情報を応答し、保存されてい
ないならば、前記第1の保存手段に保存された前記映像
音声ファイルを解析して作成した解析情報を応答し、 該当する解析情報が前記第2の保存手段に保存されてい
ないために前記解析情報を作成した場合には、作成した
前記解析情報のうち、前記映像音声ファイル全体に関す
る解析情報はその内容をすべて保存しておくとともに、
前記映像音声ファイルのフレームに関する解析情報は少
なくとも所定の一部のフレームについて保存しておくこ
とを特徴とする映像音声ファイル解析方法。5. A first storage means for storing a stream composed of video and audio divided for each frame and a video / audio file including meta information on each frame of the stream and the entire file, and an external request source In response to the transmission request for the video and audio file received from
Processing means for generating a packet including the video / audio frame and transmitting the packet to the request source; analysis information relating to the frame of the video / audio file stored in the first storage means; and analysis relating to the entire video / audio file Analyzing means for analyzing the video / audio file as necessary to respond information to the processing means; and a second means for storing all or a part of the analysis information created by the analyzing means. A video / audio file analysis method in a video / audio distribution device, comprising: a storage unit, wherein, when the analysis information is requested from the processing unit, the analysis information is stored in the second storage unit. If stored in the means, respond the stored information; if not, the video and audio stored in the first storage means Responding to the analysis information created by analyzing the file, if the analysis information is created because the corresponding analysis information is not stored in the second storage unit, Analysis information on the entire video / audio file should be saved in its entirety,
A video / audio file analysis method, wherein analysis information on frames of the video / audio file is stored for at least a part of predetermined frames.
ルの送信要求に応じて、該当する映像音声フレームを含
むパケットを生成して該要求元に送信する映像音声配信
装置としてコンピュータを機能させるためのプログラム
を記録したコンピュータ読取り可能な記録媒体であっ
て、 フレームごとに分割された映像及び音声からなるストリ
ーム並びにストリームの各フレーム及び当該ファイル全
体に関するメタ情報を含む映像音声ファイルを保存する
ための第1の保存機能と、 前記パケットを生成する際に、前記送信要求に該当する
映像音声フレームを前記第1の保存機能から取得する取
得機能と、 前記第1の保存機能に保存された前記映像音声ファイル
のフレームに関する解析情報及び前記映像音声ファイル
全体に関する解析情報を前記取得機能に応答するため
に、必要に応じて前記映像音声ファイルを解析するため
の解析機能と、 前記解析機能により作成された前記解析情報の全部また
は一部を保存するための第2の保存機能とを含むととも
に、 前記解析機能により作成された前記解析情報を前記第2
の保存機能に保存する場合に、前記映像音声ファイル全
体に関する解析情報はその内容をすべて保存しておくと
ともに、前記映像音声ファイルのフレームに関する解析
情報は少なくとも所定の一部のフレームについて保存し
ておくように機能させ、 前記解析機能が前記取得機能から前記解析情報を要求さ
れた場合に、該当する解析情報が前記第2の保存機能に
保存されているならば、該保存されている情報を前記解
析機能から前記取得機能へ応答し、保存されていないな
らば、前記第1の保存機能に保存された前記映像音声フ
ァイルを解析して作成した解析情報を前記解析機能から
前記取得機能へ応答するように機能させるためのプログ
ラムを記録したコンピュータ読取り可能な記録媒体。6. A computer functioning as a video / audio distribution device for generating a packet including a relevant video / audio frame in response to a video / audio file transmission request received from an external request source and transmitting the packet to the request source. A computer-readable recording medium having recorded thereon a stream of video and audio divided for each frame, and a video and audio file including meta information about each frame of the stream and the entire file. 1 storage function; an acquisition function of obtaining a video / audio frame corresponding to the transmission request from the first storage function when generating the packet; and the video / audio stored in the first storage function. The analysis information on the frame of the file and the analysis information on the entire video / audio file are collected. An analysis function for analyzing the video / audio file as needed to respond to the function; a second storage function for storing all or a part of the analysis information created by the analysis function; And the analysis information created by the analysis function is stored in the second
In the case of storing in the storage function, the analysis information on the entire video / audio file stores all its contents, and the analysis information on the frames of the video / audio file is stored on at least a predetermined part of the frames. When the analysis function is requested by the acquisition function for the analysis information, if the corresponding analysis information is stored in the second storage function, the stored information is stored in the second storage function. Respond from the analysis function to the acquisition function, and if not stored, respond to the acquisition function from the analysis function with analysis information created by analyzing the video / audio file stored in the first storage function. Computer-readable recording medium on which a program for causing the computer to function is recorded.
ルの送信要求に応じて、該当する映像音声フレームを含
むパケットを生成して該要求元に送信する映像音声配信
装置としてコンピュータを機能させるためのプログラム
であって、 フレームごとに分割された映像及び音声からなるストリ
ーム並びにストリームの各フレーム及び当該ファイル全
体に関するメタ情報を含む映像音声ファイルを保存する
ための第1の保存機能と、 前記パケットを生成する際に、前記送信要求に該当する
映像音声フレームを前記第1の保存機能から取得する取
得機能と、 前記第1の保存機能に保存された前記映像音声ファイル
のフレームに関する解析情報及び前記映像音声ファイル
全体に関する解析情報を前記取得機能に応答するため
に、必要に応じて前記映像音声ファイルを解析するため
の解析機能と、 前記解析機能により作成された前記解析情報の全部また
は一部を保存するための第2の保存機能とを含むととも
に、 前記解析機能により作成された前記解析情報を前記第2
の保存機能に保存する場合に、前記映像音声ファイル全
体に関する解析情報はその内容をすべて保存しておくと
ともに、前記映像音声ファイルのフレームに関する解析
情報は少なくとも所定の一部のフレームについて保存し
ておくように機能させ、 前記解析機能が前記取得機能から前記解析情報を要求さ
れた場合に、該当する解析情報が前記第2の保存機能に
保存されているならば、該保存されている情報を前記解
析機能から前記取得機能へ応答し、保存されていないな
らば、前記第1の保存機能に保存された前記映像音声フ
ァイルを解析して作成した解析情報を前記解析機能から
前記取得機能へ応答するように機能させるためのプログ
ラム。7. A computer functioning as a video / audio distribution device for generating a packet including a relevant video / audio frame in response to a transmission request of a video / audio file received from an external request source and transmitting the packet to the request source. A first storage function for storing a stream composed of video and audio divided for each frame, and a video / audio file including meta information about each frame of the stream and the entire file; and An obtaining function for obtaining, from the first storage function, a video and audio frame corresponding to the transmission request when generating, analysis information regarding the frame of the video and audio file stored in the first storage function, and the video In order to respond to the acquisition function with the analysis information on the entire audio file, the An analysis function for analyzing an audio file; and a second storage function for storing all or a part of the analysis information created by the analysis function, and the analysis created by the analysis function. Information from the second
In the case of storing in the storage function, the analysis information on the entire video / audio file stores all its contents, and the analysis information on the frames of the video / audio file is stored on at least a predetermined part of the frames. When the analysis function is requested by the acquisition function for the analysis information, if the corresponding analysis information is stored in the second storage function, the stored information is stored in the second storage function. Respond from the analysis function to the acquisition function, and if not stored, respond to the acquisition function from the analysis function with analysis information created by analyzing the video / audio file stored in the first storage function. To make it work.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000395724A JP3670581B2 (en) | 2000-12-26 | 2000-12-26 | Video / audio distribution apparatus and video / audio file analysis method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000395724A JP3670581B2 (en) | 2000-12-26 | 2000-12-26 | Video / audio distribution apparatus and video / audio file analysis method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002199370A true JP2002199370A (en) | 2002-07-12 |
| JP3670581B2 JP3670581B2 (en) | 2005-07-13 |
Family
ID=18861139
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000395724A Expired - Fee Related JP3670581B2 (en) | 2000-12-26 | 2000-12-26 | Video / audio distribution apparatus and video / audio file analysis method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3670581B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7739716B2 (en) | 2003-11-19 | 2010-06-15 | Onkyo Corporation | Network AV system |
-
2000
- 2000-12-26 JP JP2000395724A patent/JP3670581B2/en not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7739716B2 (en) | 2003-11-19 | 2010-06-15 | Onkyo Corporation | Network AV system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3670581B2 (en) | 2005-07-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5894220B2 (en) | Video distribution system including progressive playback | |
| US6487564B1 (en) | Multimedia playing apparatus utilizing synchronization of scenario-defined processing time points with playing of finite-time monomedia item | |
| JP3523218B2 (en) | Media data processor | |
| US8667158B2 (en) | Video splitting and distributed placement scheme for clustered video servers | |
| US7941554B2 (en) | Sparse caching for streaming media | |
| US7325073B2 (en) | Peer to peer video on demand system selectively using client and server to forward the requested video program to another client | |
| JP2013021574A (en) | Generation device, distribution server, generation method, reproduction device, reproduction method, reproduction system, generation program, reproduction program, recording medium, and data structure | |
| WO2018076952A1 (en) | Method and apparatus for storage and playback positioning of video file | |
| WO2008148268A1 (en) | An implementation method and system for a media-on-demand frame-spanning playing mode in a peer-to-peer network | |
| WO2008061416A1 (en) | A method and a system for supporting media data of various coding formats | |
| JP4846002B2 (en) | File transfer system and file transfer method | |
| CN112839238B (en) | Screen projection playing method and device and storage medium | |
| JP2008262686A (en) | Method and device for recording broadcast data | |
| JP2012213198A (en) | Dynamic media serving infrastructure | |
| JP4944484B2 (en) | Playback apparatus, playback method, and program | |
| WO2020052017A1 (en) | Data distribution system and method, and computer readable storage medium | |
| JP2004140488A (en) | Multimedia content editing device and multimedia content playback device | |
| CN112351299B (en) | Propaganda and education broadcasting method and device | |
| JP3670581B2 (en) | Video / audio distribution apparatus and video / audio file analysis method | |
| JP4812934B2 (en) | Synchronous broadcast data access method and apparatus | |
| JP4373229B2 (en) | Video browsing method and video browsing system | |
| JP2015510727A (en) | Method and system for providing file data for media files | |
| JP2002077857A (en) | Multimedia data transmission device | |
| CN119031194B (en) | Video recording device and audio and video synchronous output method | |
| JP6258897B2 (en) | Content acquisition device, content acquisition method, metadata distribution device, and metadata distribution method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050104 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050307 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050412 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050414 |
|
| LAPS | Cancellation because of no payment of annual fees |