[go: up one dir, main page]

JP2004040502A - Information reproducing apparatus, information reproducing method and information reproducing system - Google Patents

Information reproducing apparatus, information reproducing method and information reproducing system Download PDF

Info

Publication number
JP2004040502A
JP2004040502A JP2002195121A JP2002195121A JP2004040502A JP 2004040502 A JP2004040502 A JP 2004040502A JP 2002195121 A JP2002195121 A JP 2002195121A JP 2002195121 A JP2002195121 A JP 2002195121A JP 2004040502 A JP2004040502 A JP 2004040502A
Authority
JP
Japan
Prior art keywords
data
scene
divided
image data
thumbnail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002195121A
Other languages
Japanese (ja)
Other versions
JP4165134B2 (en
Inventor
Daisuke Imiya
井宮 大輔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002195121A priority Critical patent/JP4165134B2/en
Publication of JP2004040502A publication Critical patent/JP2004040502A/en
Application granted granted Critical
Publication of JP4165134B2 publication Critical patent/JP4165134B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form a thumbnail image in a player based on image data from a server unit and display the thumbnail image. <P>SOLUTION: In a thumbnail forming module 31 of a player 2, a thumbnail maker 35 receives thumbnail video data Dsn fed from a server, and reproduction process is carried out. On the basis of content information Re, thumbnail data, which are divided from thumbnail video data Dsn into two or more scene ranges, is generated sequentially for each scene and stored sequentially by a thumbnail file 38. Then, the thumbnail data of all scenes are displayed by the thumbnail user interface 36. When a desired thumbnail data is appointed, image data, reproduced by a normal reproducing module 21, are displayed on a normal data user interface 26 so that the image data corresponds to the appointed scene range of the thumbnail data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、ネットワークを介してサーバ装置から供給される画像データを再生する情報再生装置、情報再生方法および情報再生システムに関するものである。
【0002】
【従来の技術】
従来、サーバ装置からネットワークを介して供給される圧縮された画像データを伸張してリアルタイムで再生するいわゆるストリーミング再生を可能とするプレーヤにおいては、図12に従来のプレーヤの再生位置の変更を示すように、再生アイコン125を図示しないマウスポインターでクリックすることにより、ユーザーインターフェース121上に再生して表示されている図12Aに示す再生位置変更前の再生データ122を、現在の再生位置を表す水平バーアイコン123を図示しないマウスポインターでクリックして矢印で示す変更位置124まで水平方向にドラッグすることにより、図12Bに示す再生位置変更後の再生データ128を、ユーザーインターフェース121上に再生して表示するようにしていた。
なお、画像データの再生を停止するときは、停止アイコン126を図示しないマウスポインターでクリックするようにしていた。
【0003】
また、図13に従来のプレーヤの再生位置の変更を示すように、録画アイコン136を図示しないマウスポインターでクリックして、サーバ装置から画像データをダウンロードして録画する際に、ダウンロードした画像データの蓄積量を水平バーアイコン137の移動可能範囲133で斜線のように表示し、再生アイコン135を図示しないマウスポインターでクリックすることによりユーザーインターフェース131上に再生データ132を再生する際に、水平バーアイコン137を図示しないマウスポインターでクリックして移動可能範囲133内で水平方向にドラッグすることにより、その移動可能範囲133でのみ蓄積した画像データの再生位置の変更をするようにしていた。
なお、画像データの再生を停止するときは、停止アイコン135を図示しないマウスポインターでクリックするようにしていた。
【0004】
また、サーバ装置上で、コンテンツ作成時に同時に親指大の画像情報を示すサムネイル情報を作成し、プレーヤはそのサムネイル画像の情報をネットワーク越しにサーバ装置から取り出すことにより、プレーヤではストリーミング再生において、サムネイル画像の表示を可能としていた。つまり、事前にサムネイル画像をサーバーで作成しておき、それをプレーヤが取り出すようにしていた。
【0005】
【発明が解決しようとする課題】
しかし、上述した従来のプレーヤでは、再生位置を変更する場合に、ユーザは水平バーアイコンを動かすことで次の再生位置を変更するので、この場合、ユーザにはそのサーバから供給される動画コンテンツの情報がプレーヤ上には何も表示されないため、事前に動画コンテンツの内容をある程度把握していない限り、見たい場面に再生位置を変更することはできないという不都合があった。
【0006】
また、上述した従来のプレーヤでは、サーバ装置がサムネイル画像の情報を作成し、それを保存しなくてはならず、そのための特別な処理および構成を必要とするためサーバ装置の処理および構成が複雑化するという不都合があった。
【0007】
また、プレーヤはサーバ装置にサムネイル画像の情報が保存されていることを認識し、さらにその保存された場所よりサムネイル画像の情報を取りだすための特別な処理および構成を必要とするためサーバ装置の処理および構成が複雑化するという不都合があった。
【0008】
このため、既存のサーバ装置、例えば、リアルタイムサーバ、クイックサーバ、ストリーミングサーバなどでは、通常の処理ではサムネイル画像を作成していない。従って、プレーヤがサムネイル画像を取り出すことができないため、プレーヤはサムネイル画像の表示を行うことができないという不都合があった。
【0009】
そこで、本発明は、かかる点に鑑みてなされたものであり、既存のサーバ装置からの画像データにより、プレーヤにおいてサムネイル画像を作成し、それを表示する情報再生装置、情報再生方法および情報再生システムを提供することを課題とする。
【0010】
【課題を解決するための手段】
本発明の情報再生装置は、サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、画像データに関するコンテンツ情報に基づいて分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、通常データ再生手段により再生処理された画像データを通常データ表示手段に表示するように制御する制御手段とを有するものである。
【0011】
また、本発明の情報再生方法は、サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、画像データに関するコンテンツ情報に基づいて分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成ステップと、分割場面データ生成ステップにより順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶ステップと、分割場面データ記憶ステップにより記憶された全場面の分割場面データを表示する分割場面データ表示ステップと、分割場面データ表示ステップにより表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、通常画像データの再生処理を制御し、通常画像データを表示処理するように制御する制御ステップとを備えたものである。
【0012】
また、本発明の情報再生システムは、サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、画像データに関するコンテンツ情報に基づいて分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、通常データ再生手段により再生処理された画像データを上記通常データ表示手段に表示するように制御する制御手段とを有する情報再生装置のみで生成された分割場面データに基づいてサーバ装置から供給された画像データを再生して表示するものである。
【0013】
従って本発明によれば、以下の作用をする。
サーバ装置からネットワークを介して供給される圧縮された画像データを伸張してリアルタイムで再生するいわゆるストリーミング再生を可能とする情報再生装置において、既存のサーバ装置に機能を付加することなく、分割場面データを作成する。ユーザはこの分割場面データより場面を選択して、再生位置の変更を行う。
【0014】
情報再生装置における分割場面データの作成は、場面毎に分割場面データ用画像データをサーバ装置に要求し、その場面の一枚の静止画が作成される毎に次の場面の分割場面データ用画像データをサーバ装置に要求することで順次作成する。また、分割場面データの中から場面の静止画が選択されると、情報再生装置はその場面の画像データをサーバ装置に要求し、情報再生装置はその場面からの再生を開始する。
【0015】
【発明の実施の形態】
以下に、本発明の実施の形態を説明する。
以下、提案手法を用いてサムネイル画像を作成するプレーヤを具体的に説明する。ここで、サーバ装置からネットワークを介してプレーヤへ動画コンテンツを流し、プレーヤで動画コンテンツを制御するためのプロトコルは特に規定しないが、以下の説明では、RTP(Real−time Transport Protocol RFC1890)/UDP(User Datagram Protocol)、RTSP(Real time Streaming Protocol RFC2326)を使用した場合について説明する。
【0016】
図1は、サムネイル作成を行うプレーヤでのストリーミングを示す図である。ここで、ストリーミングとはプレーヤにおいてサーバから供給されるストリーミングデータの再生を行うことをいう。
【0017】
図1において、プレーヤ2からサーバ1へ通常データ5を要求することにより、サーバ1からネットワークの通常データ用通信プロトコルを介して通常データ用通信速度6で通常データ5がプレーヤ2に供給され、プレーヤ2では再生アイコン10を図示しないマウスポインターでクリックすることにより、通常データ用ユーザインターフェース3上に通常データ5による画像が表示される。
【0018】
なお、画像データの再生を停止するときは、停止アイコン11を図示しないマウスポインターでクリックするようにし、画像データを録画するときは、録画アイコン12を図示しないマウスポインターでクリックする。
【0019】
ここで、プレーヤ2からサーバ1へ通常データ5を要求する際に、サムネイル用のビデオデータ7もプレーヤ2からサーバ1へ要求する。
【0020】
これにより、サーバ1からネットワークのサムネイルデータ用通信プロトコルを介してサムネイル用通信速度8でサムネイル用ビデオデータ7がプレーヤ2に供給される。サムネイル用通信速度8は通常データ用通信速度6よりも速い速度で設定されることにより、サーバ1からプレーヤ2へサムネイル用ビデオデータ7が通常データ5よりも先行して伝送される。これにより、プレーヤ2内でサムネイル用ビデオデータ7に基づいてサムネイルデータSn1,Sn2,Sn3,Sn4,Sn5が生成されて、サムネイル用ユーザインターフェース4上に9で示すように、サムネイルデータSn1,Sn2,Sn3,Sn4,Sn5が表示される。
【0021】
ここで、再生位置を変更するときには、図示しないマウスポインタで水平バーアイコン14をクリックして水平方向にドラッグして、水平バーアイコン14の移動範囲を全再生時間としたとき、全再生時間に対して選択する画像が再生される時間に対応する位置に移動する。移動された水平バーアイコン14の位置に対応する場面の分割データとして、サムネイル用ユーザインターフェース4上に9で示すようにサムネイルデータSn1,Sn2,Sn3,Sn4,Sn5が表示される。このサムネイルデータSn1,Sn2,Sn3,Sn4,Sn5の何れかを図示しないマウスポインターでダブルクリックすることにより、サムネイルデータSn1,Sn2,Sn3,Sn4,Sn5に対応する再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が表示される。
【0022】
図2は、通常データの再生時間とサムネイルデータの作成時間とを示す図である。ここでは、通常データの再生時間とサムネイルデータの作成時間とを模式的に示している。
図2Aに示す通常データ5は、T1時点におけるV1、T2時点におけるV2、T3時点におけるV3、T4時点におけるV4、T5時点におけるV5、T6時点におけるV6、T7時点におけるV7、T8時点におけるV8、T9時点におけるV9、T10時点におけるV10、T11時点におけるV11、T12時点におけるV12、T13時点におけるV13、T14時点におけるV14、T15時点におけるV15のように、T1時点〜T15時点の期間の間プレーヤ2で連続して再生される。
【0023】
このとき、図2Bに示すサムネイル場面データは、後述するコンテンツ情報に基づいて、T1時点におけるSn1、T4時点におけるSn2、T7時点におけるSn3、T10時点におけるSn4、T13時点におけるSn5のようにT1時点〜T15時点の期間を5場面に分割した各先頭の5場面分割データのみ、プレーヤ2からサーバ1へサムネイル用ビデオデータ7として要求される。
【0024】
これにより、図2Cに示すサムネイルデータは、T1時点におけるSn1、T1−2時点におけるSn2、T2時点におけるSn3、T2−1時点におけるSn4、T3時点におけるSn5のように、サーバ1からプレーヤ2へサムネイル用データ5として伝送される。
【0025】
従って、図2Aに示す通常データ5のT1時点〜T15時点の期間の内のT1時点におけるV1、T2時点におけるV2およびT3時点におけるV3がプレーヤ2で再生される期間までに、プレーヤ2において、図2Cに示すサムネイルデータのT1時点におけるSn1、T1−2時点におけるSn2、T2時点におけるSn3、T2−1時点におけるSn4およびT3時点におけるSn5が作成されることがわかる。
【0026】
図3は、場面を表示するサムネイルの例を示す図である。
図示しないマウスポインタで水平バーアイコン14をクリックして水平方向にドラッグして、水平バーアイコン14の移動範囲を全再生時間としたとき、全再生時間に対して選択する画像が再生される時間に対応する位置に移動する。移動された水平バーアイコン14の位置に対応する場面の分割データとして、以下に示すサムネイルデータ9が表示される。
【0027】
図3において、サムネイル用ユーザインターフェース4上に、「0:01:12」時点における第1場面のサムネイルデータSn1、「0:03:10」時点における第2場面のサムネイルデータSn2、「0:10:05」時点における第3場面のサムネイルデータSn3、「0:14:40」時点における第4場面のサムネイルデータSn4、「0:16:20」時点における第5場面のサムネイルデータSn5で示すようなサムネイルデータ9が表示される。
【0028】
ユーザは、サムネイル用ユーザインターフェース4上に9で示すように表示された第1場面のサムネイルデータSn1の位置を図示しないマウスポインターでダブルクリックして決定することにより、サムネイルデータSn1に対応する「0:01:12」時点における第1場面の再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が再生して表示される。
【0029】
また、ユーザは、サムネイル用ユーザインターフェース4上に9で示すように表示された第2場面のサムネイルデータSn2の位置を図示しないマウスポインターでダブルクリックして決定することにより、サムネイルデータSn2に対応する「0:03:10」時点における第2場面の再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が再生して表示される。
【0030】
また、ユーザは、サムネイル用ユーザインターフェース4上に9で示すように表示された第3場面のサムネイルデータSn3の位置を図示しないマウスポインターでダブルクリックして決定することにより、サムネイルデータSn3に対応する「0:10:05」時点における第3場面の再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が再生して表示される。
【0031】
また、ユーザは、サムネイル用ユーザインターフェース4上に9で示すように表示された第4場面のサムネイルデータSn4の位置を図示しないマウスポインターでダブルクリックして決定することにより、サムネイルデータSn4に対応する「0:14:40」時点における第4場面の再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が再生して表示される。
【0032】
また、ユーザは、サムネイル用ユーザインターフェース4上に9で示すように表示された第5場面のサムネイルデータSn5の位置を図示しないマウスポインターでダブルクリックして決定することにより、サムネイルデータSn5に対応する「0:16:20」時点における第5場面の再生位置から通常データ用ユーザインターフェース3上に通常データ5による画像が再生して表示される。
【0033】
図4は、プレーヤ内部の構成を示すブロック図である。ここで、図示はしないが、プレーヤ内部を制御する制御手段としてのコントローラがプレーヤ内部に設けられている。
各場面のサムネイルを作成するために、プレーヤ2は通常再生のために動画コンテンツを要求する以外に、サムネイル作成のための動画コンテンツも要求する。また、プレーヤ2内部は、大きく分けて通常再生用モジュール21と、サムネイル作成用モジュール31に分かれる。各モジュールは以下のように構成される。
【0034】
まず、通常再生用モジュール21について説明する。パケットレシーバ22は、サーバ1からRTP/UDPプロトコルにより送信される通常ビデオデータDVのパケットおよび通常オーディオデータDAのパケットを受信し、ソースIDを調べることにより通常ビデオデータDVのパケットおよび通常オーディオデータDAのパケットが正しいサーバ1から送信されたものであるか否かの確認を行う。
【0035】
デパケッタイザ23は、通常ビデオデータDVのパケットおよび通常オーディオデータDAのパケットのヘッダ部分を取り除き、同時にヘッダ部分に含まれる例えばパケット番号やタイムスタンプなどの情報を取り出す。
【0036】
デコーダ24は、圧縮されて送信された通常ビデオデータDVおよび通常オーディオデータDAを伸張処理する。この際、通常ビデオデータDVの場合には、1フレーム単位のデータを順に作成し、通常オーディオデータDAの場合には、オーディオユニット単位のデータを順に作成する。
【0037】
レンダラ25は、デコーダ24から供給されるデコードされた通常ビデオデータDVに順番に表示処理を施してユーザインターフェース26上に表示し、通常オーディオデータDAの場合には、スピーカなどのオーディオデバイスに出力する。
【0038】
次に、サムネイル作成用モジュール31について説明する。パケットレシーバ32は、サーバ1からRTP/UDPプロトコルにより送信されるサムネイル用ビデオデータDsnのパケットを受信し、ソースIDを調べることによりサムネイル用ビデオデータDsnのパケットが正しいサーバ1から送信されたものであるか否かの確認を行う。
【0039】
デパケッタイザ33は、サムネイル用ビデオデータDsnのパケットのヘッダ部分を取り除き、同時にヘッダ部分に含まれる例えばパケット番号やタイムスタンプなどの情報を取り出す。
【0040】
デコーダ34は、圧縮されて送信されたサムネイル用ビデオデータDsnを伸張処理する。この際、デコーダ34は、サムネイル用ビデオデータDsnから、1フレーム単位の静止画データを順に作成する。ここで、デコーダ34は、例えばMPEG(Moving Picture Experts Group)4に準拠した圧縮データをデコードするが、この際に、GOP(Group OfPicture)を構成するIピクチャー、PピクチャーおよびBピクチャーのうちのIピクチャーの静止画データのみを取り出してもよい。
【0041】
サムネイルメーカー37は、分割場面のサムネイル画像の作成を制御するため、まず、サムネイル用ユーザインターフェース36から分割場面が指定された場合に、その分割場面のデータを要求するため、サーバ1へRTSPプロトコルを用いてコンテンツ情報要求コマンドCoを送信し、サーバ1からSDPプロトコルを用いてコンテンツ情報Reを受信し、受信したコンテンツ情報Reに基づいてサムネイルデータを作成する。サムネイルメーカー37は、作成されサムネイルデータをサムネイルファイル38へ保存する。
【0042】
レンダラ35は、サムネイルファイル38から読み出されるサムネイルデータに順番に表示処理を施し、ユーザインターフェース26上に表示する。
【0043】
図5は、サムネイルメーカーの構成を示すブロック図である。図5は、サムネイルメーカーの機能を示すものである。
図5において、サムネイルメーカー37は、画像データに関するコンテンツ情報の要求コマンドをサーバ1に送信するコンテンツ情報要求部43と、画像データに関するコンテンツ情報をサーバ1から受信するコンテンツ情報受信部44と、コンテンツ情報受信部44により受信したコンテンツ情報Reに画像データの場面位置情報I8が含まれているか否かを判定する位置情報判定部45と、位置情報判定部45によりコンテンツ情報Reから取り出された全体位置情報I4から全場面の分割すべき範囲を示す全体場面数I5を決定する全体場面数決定部46と、全体場面数決定部46により決定された全体場面数I5から分割すべき範囲を示す場面位置情報I6を作成する場面位置情報作成部46とを有して構成される。
【0044】
また、サムネイルメーカー37は、全体場面数決定部46により取り出された全体場面数I5に基づいてサムネイル作成場面情報I7を出力するサムネイル作成場面判定部48と、コンテンツ情報要求部43に場面範囲データ要求/停止情報I3を供給すると共にデコーダ34から供給されるサムネイル用ビデオデータDsnから場面位置情報I6またはI8に基づいて1フレームサムネイルデータSnを作成するサムネイル1フレーム作成部49と、サムネイル1フレーム作成部49により作成された1フレームサムネイルデータSnをサムネイルファイル38に保存処理するサムネイル保存部50とを有して構成される。
【0045】
また、サムネイルメーカー37は、サムネイル伝送プロトコルによるサムネイル用通信速度I1を設定するサムネイル用通信速度設定部41と、サムネイル用通信速度設定部41により設定されたサムネイル用通信速度I1に基づいてサムネイル用データの解像度を可変して解像度情報I2をコンテンツ情報要求部43に供給するサムネイル解像度可変部42とを有して構成される。ここで、低解像度の場合は、テレビ会議システムやテレビ電話システムなどに用いられる例えば、H.261、H.263などの規格に基づく複数段階の解像度に可変して設定するようにしてもよい。
【0046】
このように構成されたプレーヤの動作を以下に説明する。
まず、通常再生モジュール21の動作を説明する。
パケットレシーバ22は、サーバ1からRTP/UDPプロトコルにより送信される通常ビデオデータDVのパケットおよび通常オーディオデータDAのパケットを受信する。
【0047】
次に、デパケッタイザ23は、通常ビデオデータDVのパケットおよび通常オーディオデータDAのパケットのヘッダ部分を取り除き、実際の動画コンテンツのデータを取り出す。デコーダ24は、圧縮されて送信された動画コンテンツのデータを伸張処理し、1フレーム単位のデータに復号する。レンダラ25は、デコーダ24から供給されるデコードされた通常ビデオデータDVを順番に表示処理を施してユーザインターフェース26上に表示し、通常オーディオデータDAの場合には、スピーカなどのオーディオデバイスに出力する。
【0048】
次に、サムネイル作成用モジュール31の動作を説明する。
図6は、サムネイル作成の手順を示すフローチャートである。
図6において、ステップS1で、サーバにコンテンツ情報を要求する。具体的には、ストリーミング再生を行うコンテンツがユーザーインターフェース上のユーザの選択により決定されると、サムネイルメーカー37において、サムネイル1フレーム作成部49はコンテンツ情報要求部43に場面範囲データ要求情報I3を供給する。コンテンツ情報要求部43は画像データに関するコンテンツ情報の要求コマンドCoとしてディスクライブ(DESCRIBE)メソッドをRTSPプロトコルを用いてサーバ1に送信する。コンテンツ情報受信部44はSDP(Session Description Protocol RFC2327)プロトコルを用いて送信される画像データに関するコンテンツ情報Reをサーバ1から受信する。このコンテンツ情報Reはコンテンツ情報の要求コマンドCoのレスポンス(Response)として送られてくる。コンテンツ情報Reは、サムネイルメーカー37において、制御情報として用いられる。
【0049】
図7は、SDP情報の例を示す図である。このSDP情報とは、サーバ1からプレーヤ2へコンテンツ情報の要求コマンドCoのレスポンス(Response)として送られてくるコンテンツ情報Reである。
【0050】
図7において、SDP情報は、セッションディスクリプション(Session description)71と、タイムディスクリプション(Time description)72と、メディアディスクリプション(Media description)73とを有して構成される。
【0051】
セッションディスクリプション(Session description)71は以下の要素で構成される。例えば、v=プロトコルバージョン(protocol version)、o=オーナー/クリエイターおよびセッションアイデンティファイアー(owner/creator and sessionidentifier)、s=セッションネーム(session name)、i=セッションインフォメイション(session information)、u=URLオブディスクリプション(URL of description)、e=eメイルアドレス(email address)、c=コネクションインフォメーション(cnnection information)などで構成される。
【0052】
また、タイムディスクリプション(Time description)72は、t=セッションアクティブタイム(time the session is active)、a=セッションアトリビュートライン(zero or more session atribute lines)などで構成される。
【0053】
また、メディアディスクリプション(Media description)73は、m=メディアネームアンドトランスポートアドレス(media name and transport address)、a=セッションアトリビュートライン(zero or more session atribute lines)などで構成される。
【0054】
ステップS2で、コンテンツ情報に場面の位置情報が含まれているか否かを判断し、位置情報が含まれていないときはステップS3へ進み、位置情報が含まれているときはステップS5へ進む。具体的には、サムネイルメーカー37において、位置情報判定部45はコンテンツ情報受信部44により受信したコンテンツ情報Reに画像データの場面の位置情報I8が含まれているか否かを判定する。
【0055】
図8および図9は、SDP情報に含まれる位置情報の例を示す図である。
この場面位置情報I8とは、例えば図8に示すように、SDPの拡張ヘッダを利用して時間的な場面の位置を表すようにすることができる。図8において、81に示すように、「a=」の記述は拡張可能であって、「a=」の後に記述するものはアプリケーションが独自のものを指定することが可能である。場面の位置情報82は、イベントの開始時間−終了時間を指定することができるものである。
また、図9において示すように、場面の位置情報91は、イベントの開始時間のみを指定することができるものである。
【0056】
ステップS3で、全体の場面数の決定を行う。具体的には、サムネイルメーカー37において、全体場面数決定部46は位置情報判定部45により判定され取り出された全体位置情報I4から全場面の分割すべき範囲を示す全体場面数I5を決定する。コンテンツ情報には予めコンテンツの全体再生時間を示す全体位置情報I4が含まれているので、その情報をもとに全体の場面数を決定するようにする。場面数は時間あたりの場面数をユーザが設定して、全体再生時間より計算するようにしてもよい。例えば、1場面/5分と設定して、全体再生時間が90分あった場合、全体の場面数は18場面となる。コンテンツ情報に全体再生時間が含まれていない場合には、場面数を決めることができないため、サムネイル画像を作成することができない。
【0057】
ステップS4で、場面の位置情報の作成を行う。具体的には、サムネイルメーカー37において、場面位置情報作成部47は全体場面数決定部46により作成された全体場面数I5から分割すべき範囲を示す場面位置情報I6を作成する。位置情報は場面の範囲で表され、開始位置と終了位置で表される。ここでは、全体の場面数より開始位置を決め、次の場面の開始位置を終了時間とする。例えば、全体再生時間が90分、場面数が18の場合、一つの場面の範囲は5分となり、場面1は0〜5分、場面2は5〜10分、場面3は10〜15分となる。
【0058】
ステップS5で、サムネイルが作成されていない場面があるか否かを判断して、作成されていない場面があるときはステップS6へ進み、作成されていない場面がないときは終了する。具体的には、サムネイルメーカー37において、サムネイル作成場面判定部48は全体場面数決定部46により決定された全体場面数I5に基づいてサムネイル作成場面情報I7を出力する。
【0059】
ステップS6で、サーバに場面の範囲のデータを要求する。具体的には、サムネイルメーカー37において、サムネイル1フレーム作成部49はコンテンツ情報要求部43に場面の位置情報(開始時間−終了時間)を範囲とした場面範囲データ要求情報I3を供給する。コンテンツ情報要求部43は場面の位置情報の要求コマンドCoとしてプレイ(PLAY)メソッドのレンジ(RANGE)フィールドで時間を指定してRTSPプロトコルを用いてサーバ1に送信する。また、RTSPプロトコルではなくHTTP1.1プロトコルを用いた場合、ゲット(GET)メソッドで場面範囲のデータを要求する。この場合レンジ(Range)は場面の範囲をデータ単位(byte)で示すこととなる。(例えば、開始位置(byte)−終了位置(byte)で示す)
【0060】
図10は、場面の範囲のデータを要求するRTSPコマンドの例を示す図である。このRTSPコマンドとは、コンテンツ情報要求部43からRTSPプロトコルを用いて時間を指定してサーバ1に送信する場面範囲データの要求コマンドCoである。ここで、場面範囲のデータは通常データより早い伝送速度で伝送するが、RTSPプロトコルの場合、103で示すようにスケール(Scale:2)を指定して場面範囲のデータを早い速度で伝送する。
【0061】
図10において、場面範囲データ要求コマンド101として、クライアント(Cliant)のプレーヤ2からサーバ(Server)1へプレイ(PLAY)コマンドを送信する。このとき、レンジ(RANGE)フィールドのnpt(normal play time)で、102で示すように範囲120秒−130秒の範囲の時間を指定する。なお、CSeqは、RTSPを用いた送信および受信の対のシーケンシャルナンバーであり、Sessionは、RTSPを用いた送信および受信のデータを識別するためのヘッダーアイデンティファイアーである。
【0062】
サムネイル作成用モジュール31において、パケットレシーバ32は、サーバ1からRTP/UDPプロトコルにより送信されるサムネイル用ビデオデータDsnのパケットを受信し、デパケッタイザ33は、サムネイル用ビデオデータDsnのパケットのヘッダ部分を取り除き、同時にヘッダ部分に含まれる例えばパケット番号やタイムスタンプなどの情報を取り出す。デコーダ34は、圧縮されて送信されたサムネイル用ビデオデータDsnを伸張処理する。この際、サムネイル用ビデオデータDsnは、1フレーム単位のデータを順に作成してサムネイルメーカー37に供給する。
【0063】
ステップS7で、1フレーム作成できたか否かを判断して、作成できたときはステップS8へ進み、作成できないときはステップS5へ戻ってステップS5〜ステップS8までの判断および処理を繰り返す。具体的には、サムネイルメーカー37は場面の1枚の静止画となる1フレームのデータを生成する。場面の範囲で1フレームのデータが作成されない場合には、ステップS5へ戻る。サムネイルメーカー37において、サムネイル1フレーム作成部49はデコーダ34から供給されるサムネイル用ビデオデータDsnから場面位置情報I6に基づいて1フレームサムネイルデータSnを作成する。
【0064】
ステップS8で、サーバにデータの送信停止を要求する。具体的には、サムネイルメーカー37において、サムネイル1フレーム作成部49はサーバ1に場面範囲データ停止情報I3を供給する。
【0065】
図11は、データの送信停止要求を行うRTSPコマンドの例を示す図である。このRTSPコマンドとは、コンテンツ情報要求部43からRTSPプロトコルを用いてサーバ1に送信する場面範囲データ停止の要求コマンドCoである。
【0066】
図11において、データ送信停止要求コマンド111として、クライアント(Cliant)のプレーヤ2からサーバ(Server)1へストップ(STOP)コマンドを送信する。
【0067】
ステップS9で、1フレームをサムネイルファイルに保存して、ステップS5へ戻ってステップS5〜ステップS8までの判断および処理を繰り返す。具体的には、サムネイルメーカー37において、サムネイルファイル保存部50はサムネイル1フレーム作成部49により作成された全場面の1フレームサムネイルデータSnをサムネイルファイル38に保存処理する。
【0068】
サムネイルメーカー37は、サムネイル用ユーザーインターフェース36の所定位置に図3に示すようにサムネイル画像を表示する。
【0069】
次に、このようにして作成され、サムネイル用ユーザーインターフェース36に表示されたサムネイル画像を選択して指定することにより、再生位置を移動する場合について説明する。
【0070】
プレーヤ2では、場面毎の1フレームのサムネイル静止画像がサムネイル用ユーザインターフェース36に表示される。ユーザは、このサムネイル用ユーザインターフェース36に表示された場面毎の1フレームのサムネイル静止画像の中から、次に見たい場面を選択して再生位置を移動することができる。場面の選択は、例えば、マウスポインタで水平バーアイコンをクリックして水平方向にドラッグして、水平バーアイコンの移動範囲を全再生時間としたとき、全再生時間に対して選択する画像が再生される時間に対応する位置に移動する。このとき、水平バーアイコンを水平バーアイコンの移動範囲の中央付近の位置に移動した場合、中央付近のいくつかの場面のサムネイル静止画像がサムネイルメーカー37によりサムネイルファイル38から取り出されてその取り出されたいくつかの場面のサムネイル静止画像がレンダラ35によりサムネイル用ユーザインターフェース36に表示される。
【0071】
表示されたいくつかの場面のサムネイル静止画像のうちの選択する画像の位置にマウスポインタのカーソルを合わせてダブルクリックすることで、選択された場面に再生位置を移動するようにすることができる。サムネイル静止画像の個数は、表示されるサムネイル用ユーザインターフェース36のウインドウサイズに応じた数を設定することができるが、10個程度表示するのが適当と思われる。
【0072】
以下に具体的な動作を示す。
まず、サムネイルメーカー37において、位置情報判定部45により取り出された全体位置情報I4から、プレーヤ2の図示しないコントローラは選択された場面の1フレームのサムネイル静止画像の位置情報を取り出す。
【0073】
選択された場面の1フレームのサムネイル静止画像の位置情報が取り出されるとプレーヤ2の図示しないコントローラは再生範囲情報を作成する。この再生範囲情報は開始位置情報と終了位置情報とで表され、開始位置はサムネイルメーカー37においてサムネイル1フレーム作成部49により要求された場面の位置情報(開始時間〜終了時間)の内の開始位置、終了位置はコンテンツ終了位置とする。
【0074】
最後に、プレーヤ2の図示しないコントローラはサーバ1に作成された再生範囲情報に基づいて通常ビデオデータDVを要求し、サーバ1から受信した通常ビデオデータDVは通常再生用モジュール21により再生処理が行われて、通常データ用ユーザインターフェース26上に再生範囲の動画像が再生される。
【0075】
上述した本実施の形態によれば、通常再生のために動画像のコンテンツをサーバ1からプレーヤ2がダウンロードする以外に、コンテンツ全体に対して場面毎に分割した分割場面データをプレーヤ2がダウンロードしておくことにより、プレーヤ2内で各場面の分割場面データに基づくサムネイル画像を作成して表示することができる。
【0076】
また、プレーヤ2において、場面毎に1フレームの静止画像としてサムネイル画像を連続配置して表示して選択的に指定可能にすることにより、ユーザが見たい場面に再生位置を変更することができる。
【0077】
また、現状のサーバ1に新たな機能を付加することなく、プレーヤ2のみでサムネイル作成用モジュール31を実装することで、場面毎のサムネイル用ビデオデータのダウンロード、およびサムネイル画像による場面情報の表示を行うことができる。これにより、既存の全てのサーバの動画像のコンテンツに対してもサムネイル画像の表示をすることができる。
【0078】
なお、プレーヤ2は、詳細には、以下のように構成され、以下のような動作をする。
サーバ1からネットワークを介して供給される圧縮処理されてエンコード処理されたビデオ入力を伸張処理およびデコード処理した後にNTSC(National Television System Cmmittee)方式またはPAL(Phase Alternation Line)方式の画像に変換してディスプレイにビデオ出力するビデオコーデックと、NTSC方式またはPAL方式のビデオデータを記憶するVRAM(Video Random Access Memory)と、VRAMにグラフィックイメージを描画するグラフィックエンジンとを有する。
【0079】
また、プレーヤ2は、サーバ1からネットワークを介して供給されるオーディオ入力を所定の方式に変換してスピーカにオーディオ出力するオーディオコーデックと、インターネットを介してプロバイダからPSTN(高速通信回線)により供給される通信データを受信データに変換するモデムと、IR(赤外線)、シリアル、パラレルおよびその他のインターフェースを行うインターフェース回路とを有する。
【0080】
また、プレーヤ2は、グラフィックエンジンと、オーディオコーデックと、モデムと、インターフェース回路とのデータを通すローカルバスと、所定のプログラムが格納されるフラッシュメモリおよびハードディスク装置(HDD)と、プレーヤ2の動作を制御するCPU(Central Processing Unit)と、CPUの動作のための制御データが格納されるメモリと、CPUおよびメモリのデータを通すホストバスと、ローカルバスとホストバスとのデータのやりとりをするバスブリッジとを有して構成される。なお、サーバ1もプレーヤ2と同様の構成を有している。
【0081】
このように構成されたプレーヤ2は、以下のような動作をする。
電源を入れると、ホストバスおよびローカルバスを用いてCPUはデータのやりとりを行うことにより、フラッシュメモリおよびハードディスク装置(HDD)に格納される制御手段のアプリケーションのアプリケーションプログラムが起動される。モデムにより設定に必要なコンテンツ情報が例えばネットワークを介して受信される。受信された設定に必要なデータをCPUが解析して、グラフィックエンジンに供給する。グラフィックエンジンはVRAMにグラフィックイメージを描画してCPUが分析する。グラフィックイメージをNTSC/PALコーデックがNTSC方式またはPAL方式の画像に変換して、プレーヤ2におけるディスプレイへ供給可能に処理する。次に、プレーヤ2からサーバ1に対する必要な情報のリクエスト信号の送信時には、モデムにより必要なコンテンツ情報のリクエスト信号が例えばインターネットを介して介してサーバ1へ送信される。
【0082】
プレーヤ2の有効確認時では、サーバ1のCPUは、設定対象となるプレーヤ2が有効になっているか否かを、例えば所定のコマンドの送信に対する確認信号の有無などで確認する。
サーバ1からプレーヤ2に対する動画像データの送信時には、動画像データが例えばネットワークを介して介してプレーヤ2へ送信される。
【0083】
プレーヤ2において、動画像データの受信時には、ビデオコーデックは、ネットワークを介してプロバイダから供給された動画像データをNTSC方式またはPAL方式の画像データに変換する。サムネイルメーカー37により作成されたサムネイルデータはサムネイルファイル38に記憶される。サムネイルデータはCPUが解析して、サムネイル用ユーザインターフェース36に供給される。ユーザがサムネイル画像を選択して指定することにより、選択されたサムネイル画像に対応する場面のビデオコーデックで変換された動画像データをVRAMに保持した後にグラフィックエンジンに供給する。グラフィックエンジンは、VRAMに保持した動画像データに基づいてグラフィックイメージを描画し、画像をディスプレイへ供給する。
【0084】
上述した本実施の形態によれば、サーバから供給されるストリーミングデータの再生の際に、再生される動画像データに先行してサムネイル画像を作成することができる。さらに、サムネイル画像を選択して指定することにより、動画像データの再生位置を変更することができる。
【0085】
なお、上述した本実施の形態に限らず、本発明の特許請求の範囲を逸脱しない限り、種々の構成が取り得ることはいうまでもない。
【0086】
【発明の効果】
この発明の情報再生装置は、ネットワークを介してサーバ装置から供給される画像データを取得して上記画像データを再生する情報再生装置において、上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生手段と、上記通常データ再生手段により再生処理された通常データ用画像データを表示する通常データ表示手段と、上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、上記分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、上記分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、上記分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、上記通常データ再生手段により再生処理された画像データを上記通常データ表示手段に表示するように制御する制御手段とを有するので、通常再生のために通常データ用画像データをサーバ装置からダウンロードする以外に、コンテンツ全体に対して場面毎に分割した分割場面データ用画像データをダウンロードしておくことにより、情報再生装置内で各場面の分割場面データに基づくサムネイル画像を作成して表示することができるという効果を奏する。
【0087】
また、この発明の情報再生装置は、上述において、上記通常データ伝送プロトコルによる通常データ通信速度よりも上記分割場面データ伝送プロトコルによる分割場面データ通信速度を速くしたので、サーバ装置から供給される通常データ用画像データの再生の際に、再生される通常データ用画像データに先行して分割場面データに基づくサムネイル画像を作成することができるという効果を奏する。
【0088】
また、この発明の情報再生装置は、上述において、上記分割場面データ伝送プロトコルにおいて、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、上記画像データに関するコンテンツ情報を上記サーバ装置から受信するので、コンテンツ情報に基づいて場面の範囲を示す情報を生成しておいて、分割場面データに基づくサムネイル画像の作成に使用することができるという効果を奏する。
【0089】
また、この発明の情報再生装置は、上述において、上記分割場面データ生成手段は、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信するコンテンツ情報要求部と、上記画像データに関するコンテンツ情報を上記サーバ装置から受信するコンテンツ情報受信部と、上記コンテンツ情報受信部により受信したコンテンツ情報に画像データの位置情報が含まれているか否かを判定する位置情報判定部と、上記位置情報判定部により上記位置情報が含まれていないと判定されたときに全場面の分割すべき範囲を示す全体場面数を決定する全体場面数決定部と、上記全体場面数決定部から得られた上記全体場面数から分割すべき範囲を示す場面位置情報を作成する場面位置情報作成部と、上記全体場面数決定部により決定された上記全体場面数に基づいて各場面の範囲データから分割場面データを作成する分割場面データ作成部と、上記分割場面データ作成部により作成された全分割場面データを上記分割場面データ記憶手段に保存処理する分割場面データ保存処理部とを有するので、コンテンツ情報に基づいて全体場面数を決定し、全体場面数から場面位置情報を生成し、場面位置情報を用いて分割場面データに基づくサムネイル画像の作成をすることができるという効果を奏する。
【0090】
また、この発明の情報再生装置は、上述において、上記分割場面データ生成手段は、上記分割場面データ伝送プロトコルによる分割場面データ通信速度を設定する分割場面データ通信速度設定部と、上記分割場面データ通信速度設定部により設定された上記分割場面データ通信速度に基づいて分割場面データの解像度を可変して解像度情報を上記コンテンツ情報要求部に供給する分割場面データ解像度可変部とを有するので、コンテンツ情報をサーバ装置に要求する際に、分割場面データの解像度を可変して分割場面データの通信速度を変化するようにしてサーバ装置に要求することができるという効果を奏する。
【0091】
また、この発明の情報再生装置は、上述において、上記解像度可変部は、全画像データの容量に応じて、標準の解像度から比較的低解像度まで複数段階に可変するので、分割場面データの解像度を標準の解像度から比較的低解像度まで複数段階に可変して分割場面データの通信速度を標準の通信速度から比較的速い通信速度まで複数段階に変化するようにしてサーバ装置に要求することができるという効果を奏する。
【0092】
また、この発明の情報再生方法は、ネットワークを介してサーバ装置から供給される画像データを取得して上記画像データを情報再生装置により再生する情報再生方法において、上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成ステップと、上記分割場面データ生成ステップにより順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶ステップと、上記分割場面データ記憶ステップにより記憶された全場面の分割場面データを表示する分割場面データ表示ステップと、上記分割場面データ表示ステップにより表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、通常画像データの再生処理を制御し、上記通常画像データを表示処理するように制御する制御ステップと、上記制御ステップにおける再生処理により、上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生ステップと、上記制御ステップにおける表示処理により、上記通常データ再生ステップにより再生処理された通常データ用画像データを表示する通常データ表示ステップとを有するので、通常再生のために通常データ用画像データをサーバ装置からダウンロードする以外に、コンテンツ全体に対して場面毎に分割した分割場面データ用画像データをダウンロードしておくことにより、情報再生装置内で各場面の分割場面データに基づくサムネイル画像を作成して表示することができるという効果を奏する。
【0093】
また、この発明の情報再生方法は、上述において、上記分割場面データ伝送プロトコルにおいて、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、上記画像データに関するコンテンツ情報を上記サーバ装置から受信するので、コンテンツ情報に基づいて場面の範囲を示す情報を生成しておいて、分割場面データに基づくサムネイル画像の作成に使用することができるという効果を奏する。
【0094】
また、この発明の情報再生方法は、上述において、上記分割場面データ生成ステップは、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、上記画像データに関するコンテンツ情報を上記サーバ装置から受信し、上記コンテンツ情報受信部により受信したコンテンツ情報に画像データの位置情報が含まれているか否かを判定し、上記位置情報判定部により上記位置情報が含まれていないと判定されたとき全場面の分割すべき範囲を示す全体場面数を決定し、上記全体場面数から上記分割すべき範囲を示す場面位置情報を作成し、上記全体場面数に基づいて各場面の範囲データから分割場面データを作成し、上記全分割場面データを上記分割場面データ記憶手段に保存処理するので、コンテンツ情報に基づいて全体場面数を決定し、全体場面数から場面位置情報を生成し、場面位置情報を用いて分割場面データに基づくサムネイル画像の作成をすることができるという効果を奏する。
【0095】
また、この発明の情報再生システムは、画像データを供給するサーバ装置と、ネットワークと、上記ネットワークを介して上記サーバ装置から供給される画像データを取得して上記画像データを再生する情報再生装置とを有する情報再生システムであって、上記情報再生装置は、上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生手段と、上記通常データ再生手段により再生処理された通常データ用画像データを表示する通常データ表示手段と、上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、上記分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、上記分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、上記分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、上記通常データ再生手段により再生処理された画像データを上記通常データ表示手段に表示するように制御する制御手段とを有し、上記情報再生装置のみで生成された分割場面データに基づいて上記サーバ装置から供給された画像データを再生して表示するので、サーバ装置に新たな機能を付加することなく、情報再生装置のみで分割場面データ生成手段を実装することで、場面毎の分割場面データのダウンロード、および分割場面データによるサムネイル画像の表示を行うことができる。これにより、既存の全てのサーバ装置の動画像のコンテンツに対しても分割場面データによるサムネイル画像の表示をすることができるという効果を奏する。
【図面の簡単な説明】
【図1】本実施の形態に適用されるサムネイル作成を行うプレーヤでのストリーミングを示す図である。
【図2】通常データの再生時間とサムネイルデータの作成時間とを示す図であり、図2Aは通常データ、図2Bはサムネイル場面データ、図2Cはサムネイルデータである。
【図3】場面を表示するサムネイルの例を示す図である。
【図4】プレーヤの内部構成を示す図である。
【図5】サムネイルメーカーの構成を示すブロック図である。
【図6】サムネイル作成の手順を示すフローチャートである。
【図7】SDP情報の例を示す図である。
【図8】SDPに含まれる位置情報の例を示す図である。
【図9】SDPに含まれる位置情報の例を示す図である。
【図10】場面の範囲のデータを要求するRTSPコマンドの例を示す図である。
【図11】データの送信停止要求を行うRTSPコマンドの例を示す図である。
【図12】従来のプレーヤの再生位置の変更を示す図であり、図12Aは再生位置変更前、図12Bは再生位置変更後である。
【図13】従来のプレーヤの再生位置の変更を示す図である。
【符号の説明】
1……サーバ、2……プレーヤ、3……通常データ用ユーザインターフェース、4……サムネイル用ユーザインターフェース、5……通常データ、6……通常データ用通信速度、7……サムネイル用ビデオデータ、8……サムネイル用通信速度、9……サムネイルデータ、10……再生アイコン、11……停止アイコン、12……録画アイコン、13……水平バーアイコン、21……通常再生用モジュール、22……パケットレシーバ、23……デパケッタイザ、24……デコーダ、25……レンダラ、26……通常データ用ユーザインターフェース、31……サムネイル作成用モジュール、32……パケットレシーバ、33……デパケッタイザ、34……デコーダ、35……レンダラ、36……サムネイル用ユーザインターフェース、37……サムネイルメーカー、38……サムネイルファイル、DV……通常ビデオデータ(RTP/UDP)、DA……オーディオデータ(RTP/UDP)、Dsn……サムネイル用ビデオデータ(RTP/UDP)、Co……コンテンツ情報要求コマンド(RTSP)、Re……コンテンツ情報(SDP)、41……サムネイル用通信速度設定部、42……サムネイル解像度可変部、43……コンテンツ情報要求部、44……コンテンツ情報受信部、45……位置情報判定部、46……全体場面数決定部、47……場面位置情報作成部、48……サムネイル作成場面判定部、49……サムネイル1フレーム作成部、50……サムネイルファイル保存部、71……セッションディスクリプション、72……タイムディスクリプション、73……メディアディスクリプション、82……場面の位置情報、91……場面の位置情報、101……場面範囲データ要求コマンド、111……データ転送停止要求コマンド
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information reproducing apparatus, an information reproducing method, and an information reproducing system for reproducing image data supplied from a server device via a network, for example.
[0002]
[Prior art]
Conventionally, in a player capable of so-called streaming reproduction in which compressed image data supplied from a server device via a network is expanded and reproduced in real time, FIG. 12 shows a change in the reproduction position of the conventional player. By clicking the playback icon 125 with a mouse pointer (not shown), the playback data 122 before playback position change shown in FIG. 12A played back and displayed on the user interface 121 is displayed on the horizontal bar representing the current playback position. By clicking the icon 123 with a mouse pointer (not shown) and horizontally dragging the icon 123 to a change position 124 indicated by an arrow, the reproduction data 128 after the change of the reproduction position shown in FIG. 12B is reproduced and displayed on the user interface 121. Was like that.
When the reproduction of the image data is stopped, the stop icon 126 is clicked with a mouse pointer (not shown).
[0003]
Further, as shown in FIG. 13 showing a change in the playback position of the conventional player, when the recording icon 136 is clicked with a mouse pointer (not shown) to download and record the image data from the server device, The accumulated amount is displayed as a hatched area in the movable range 133 of the horizontal bar icon 137. When the reproduction data 132 is reproduced on the user interface 131 by clicking the reproduction icon 135 with a mouse pointer (not shown), the horizontal bar icon 137 is displayed. By clicking 137 with a mouse pointer (not shown) and dragging in the horizontal direction within the movable range 133, the reproduction position of the image data stored only in the movable range 133 is changed.
When the reproduction of the image data is stopped, the stop icon 135 is clicked with a mouse pointer (not shown).
[0004]
Also, on the server device, thumbnail information indicating thumb-sized image information is created at the same time as content creation, and the player extracts the information of the thumbnail image from the server device over the network. Could be displayed. That is, a thumbnail image is created in the server in advance, and the player retrieves the thumbnail image.
[0005]
[Problems to be solved by the invention]
However, in the above-described conventional player, when changing the playback position, the user changes the next playback position by moving the horizontal bar icon, and in this case, the user is provided with the moving image content supplied from the server. Since no information is displayed on the player, there is an inconvenience that the playback position cannot be changed to a desired scene unless the content of the moving image content is grasped to some extent in advance.
[0006]
Further, in the above-described conventional player, the server device has to create and store the information of the thumbnail image, and special processing and configuration for the information are required, so that the processing and configuration of the server device are complicated. There was an inconvenience.
[0007]
In addition, the player recognizes that the information of the thumbnail image is stored in the server device, and further requires a special process and configuration for extracting the information of the thumbnail image from the stored location. In addition, there is a disadvantage that the configuration is complicated.
[0008]
For this reason, existing server devices, such as a real-time server, a quick server, and a streaming server, do not create thumbnail images in normal processing. Therefore, since the player cannot take out the thumbnail image, there is a disadvantage that the player cannot display the thumbnail image.
[0009]
Therefore, the present invention has been made in view of the above points, and an information reproducing apparatus, an information reproducing method, and an information reproducing system that create a thumbnail image in a player based on image data from an existing server device and display the thumbnail image. The task is to provide
[0010]
[Means for Solving the Problems]
The information reproducing apparatus of the present invention performs processing for receiving and reproducing the image data for divided scene data supplied from the server device via the divided scene data transmission protocol, and performs processing for dividing the divided scene data based on content information regarding the image data. Scene data generating means for sequentially generating data of a predetermined range of each divided scene when each of the divided image data is divided into a plurality of scene ranges, and each of the plurality of scenes sequentially generated by the divided scene data generating means. Divided scene data storage means for sequentially storing divided scene data for each range of scenes, divided scene data display means for displaying divided scene data of all scenes stored by the divided scene data storage means, and divided scene data display means When the range of the scene of the arbitrary divided scene data is specified among the displayed divided scene data of all the scenes, the specified So as to correspond to the range of scene scene data, and a control means for controlling to display the image data reproduction process by a conventional data reproducing unit in the normal data display unit.
[0011]
In addition, the information reproducing method of the present invention performs a process of receiving and reproducing image data for divided scene data supplied from a server device via a divided scene data transmission protocol, and performing division based on content information related to image data. When the image data for scene data is divided into a plurality of scene ranges, a divided scene data generating step of sequentially generating data of a predetermined range of each divided scene for each scene range and a divided scene data generating step are sequentially generated. A divided scene data storing step for sequentially storing divided scene data for each range of each scene, a divided scene data displaying step for displaying divided scene data of all scenes stored by the divided scene data storing step, and a divided scene data display The scene range of any of the divided scene data among the divided scene data of all the scenes displayed by the step Control step of controlling the reproduction processing of the normal image data so as to correspond to the range of the scene of the specified divided scene data, and controlling the display processing of the normal image data. is there.
[0012]
Further, the information reproducing system of the present invention performs a process of receiving and reproducing image data for divided scene data supplied from a server device via a divided scene data transmission protocol, and dividing the image data based on content information related to the image data. Divided scene data generating means for sequentially generating data of a predetermined range of each divided scene when the image data for scene data is divided into a plurality of scene ranges for each scene range, and sequentially generated by the divided scene data generating means Divided scene data storage means for sequentially storing divided scene data for each range of each scene, divided scene data display means for displaying divided scene data of all scenes stored by the divided scene data storage means, and divided scene data display When a range of a scene of an arbitrary divided scene data is designated from among the divided scene data of all the scenes displayed by the Control means for controlling the image data reproduced by the normal data reproducing means to be displayed on the normal data display means so as to correspond to the range of the scene of the divided scene data thus generated. The image data supplied from the server device is reproduced and displayed based on the divided scene data thus obtained.
[0013]
Therefore, according to the present invention, the following operations are performed.
In an information reproducing apparatus capable of so-called streaming reproduction, in which compressed image data supplied from a server device over a network is expanded and reproduced in real time, divided scene data is added without adding a function to an existing server device. Create The user selects a scene from the divided scene data and changes the reproduction position.
[0014]
Creation of the divided scene data in the information reproducing apparatus requests the divided scene data image data from the server device for each scene, and every time one still image of the scene is created, the divided scene data image of the next scene is created. The data is sequentially created by requesting data from the server device. When a still image of a scene is selected from the divided scene data, the information reproducing apparatus requests the server apparatus for image data of the scene, and the information reproducing apparatus starts reproduction from the scene.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described.
Hereinafter, a player that creates a thumbnail image using the proposed method will be specifically described. Here, a protocol for streaming moving image content from the server device to the player via the network and controlling the moving image content by the player is not particularly defined. However, in the following description, RTP (Real-time Transport Protocol RFC1890) / UDP ( The case where User Datagram Protocol (RTSP) and Real Time Streaming Protocol RFC2326 (RTSP) are used will be described.
[0016]
FIG. 1 is a diagram showing streaming in a player who creates thumbnails. Here, streaming means that the player plays back streaming data supplied from the server.
[0017]
In FIG. 1, by requesting normal data 5 from the player 2 to the server 1, the normal data 5 is supplied from the server 1 to the player 2 at a normal data communication speed 6 via a network normal data communication protocol. In 2, by clicking the reproduction icon 10 with a mouse pointer (not shown), an image based on the normal data 5 is displayed on the user interface 3 for normal data.
[0018]
In order to stop the reproduction of the image data, the stop icon 11 is clicked with a mouse pointer (not shown), and when recording the image data, the recording icon 12 is clicked with a mouse pointer (not shown).
[0019]
Here, when the player 2 requests the server 1 for the normal data 5, the player 2 also requests the server 1 for the video data 7 for thumbnails.
[0020]
As a result, the server 2 supplies the thumbnail video data 7 to the player 2 at the thumbnail communication speed 8 via the network for thumbnail data communication. The thumbnail communication speed 8 is set at a higher speed than the normal data communication speed 6, so that the server 1 transmits the thumbnail video data 7 to the player 2 before the normal data 5. As a result, thumbnail data Sn1, Sn2, Sn3, Sn4, and Sn5 are generated in the player 2 based on the video data for thumbnail 7, and the thumbnail data Sn1, Sn2, and Sn3, Sn4, and Sn5 are displayed.
[0021]
Here, when the playback position is changed, the horizontal bar icon 14 is clicked and dragged in the horizontal direction with a mouse pointer (not shown). To the position corresponding to the time at which the selected image is reproduced. As divided data of a scene corresponding to the position of the moved horizontal bar icon 14, thumbnail data Sn1, Sn2, Sn3, Sn4, and Sn5 are displayed on the thumbnail user interface 4 as indicated by 9. By double-clicking any one of the thumbnail data Sn1, Sn2, Sn3, Sn4, and Sn5 with a mouse pointer (not shown), the normal data user interface 3 is shifted from the reproduction position corresponding to the thumbnail data Sn1, Sn2, Sn3, Sn4, and Sn5. An image based on the normal data 5 is displayed above.
[0022]
FIG. 2 is a diagram showing the reproduction time of the normal data and the creation time of the thumbnail data. Here, the reproduction time of the normal data and the creation time of the thumbnail data are schematically shown.
The normal data 5 shown in FIG. 2A includes V1 at time T1, V2 at time T2, V3 at time T3, V4 at time T4, V5 at time T5, V6 at time T6, V7 at time T7, and V8 and T9 at time T8. Like V9 at the time point, V10 at the time point T10, V11 at the time point T11, V12 at the time point T12, V13 at the time point T13, V14 at the time point T14, and V15 at the time point T15, the player 2 continues during the period from the time point T1 to the time point T15. To be played.
[0023]
At this time, the thumbnail scene data shown in FIG. 2B is based on the content information described later, Sn1 at the time T1, Sn2 at the time T4, Sn3 at the time T7, Sn4 at the time T10, and Sn5 at the time T13. Only the leading five-scene divided data obtained by dividing the period at T15 into five scenes is requested from the player 2 to the server 1 as the thumbnail video data 7.
[0024]
As a result, the thumbnail data shown in FIG. 2C is transmitted from the server 1 to the player 2 as shown by Sn1 at the time T1, Sn2 at the time T1-2, Sn3 at the time T2, Sn4 at the time T2-1, and Sn5 at the time T3. Is transmitted as application data 5.
[0025]
Accordingly, in the period from the time point T1 to the time point T15 of the normal data 5 shown in FIG. 2A, V1 at the time point T1, V2 at the time point T2, and V3 at the time point T3 are reproduced by the player 2. It can be seen that Sn1 at time T1, Sn2 at time T1-2, Sn3 at time T2, Sn4 at time T2-1 and Sn5 at time T3 of the thumbnail data shown in FIG. 2C are created.
[0026]
FIG. 3 is a diagram illustrating an example of a thumbnail displaying a scene.
When the horizontal bar icon 14 is clicked and dragged in the horizontal direction with a mouse pointer (not shown), and the moving range of the horizontal bar icon 14 is set to the entire playback time, the time at which the image selected for the entire playback time is played is Move to the corresponding position. The following thumbnail data 9 is displayed as divided data of a scene corresponding to the position of the moved horizontal bar icon 14.
[0027]
In FIG. 3, thumbnail data Sn1 of the first scene at the time “0:01:12”, thumbnail data Sn2 of the second scene at the time “0:03:10”, and “0:10” are displayed on the user interface 4 for thumbnails. : 05 ", thumbnail data Sn3 of the third scene at time" 0:14:40 ", thumbnail data Sn4 of the fifth scene at time" 0:16:20 ", and thumbnail data Sn5 of the fifth scene at time" 0:16:20 ". The thumbnail data 9 is displayed.
[0028]
The user double-clicks the position of the thumbnail data Sn1 of the first scene displayed on the user interface 4 for thumbnails as indicated by 9 with a mouse pointer (not shown) to determine “0” corresponding to the thumbnail data Sn1. : 01: 12 ”, an image based on the normal data 5 is reproduced and displayed on the normal data user interface 3 from the reproduction position of the first scene at the time point.
[0029]
Further, the user double-clicks the position of the thumbnail data Sn2 of the second scene displayed on the user interface 4 for thumbnails as indicated by 9 with a mouse pointer (not shown) to determine the position of the thumbnail data Sn2. An image based on the normal data 5 is reproduced and displayed on the normal data user interface 3 from the reproduction position of the second scene at “0:03:10”.
[0030]
Further, the user double-clicks the position of the thumbnail data Sn3 of the third scene displayed on the user interface 4 for thumbnails as indicated by 9 with a mouse pointer (not shown) to determine the position of the thumbnail data Sn3. The image based on the normal data 5 is reproduced and displayed on the normal data user interface 3 from the reproduction position of the third scene at “0:10:05”.
[0031]
Further, the user double-clicks the position of the thumbnail data Sn4 of the fourth scene displayed on the user interface 4 for thumbnails as indicated by 9 with a mouse pointer (not shown) to determine the position of the thumbnail data Sn4. An image based on the normal data 5 is reproduced and displayed on the normal data user interface 3 from the reproduction position of the fourth scene at “0:14:40”.
[0032]
Also, the user double-clicks the position of the thumbnail data Sn5 of the fifth scene displayed on the user interface 4 for thumbnails as indicated by 9 with a mouse pointer (not shown) to determine the position of the thumbnail data Sn5. From the reproduction position of the fifth scene at “0:16:20”, an image based on the normal data 5 is reproduced and displayed on the normal data user interface 3.
[0033]
FIG. 4 is a block diagram showing a configuration inside the player. Here, although not shown, a controller as control means for controlling the inside of the player is provided inside the player.
In order to create a thumbnail of each scene, the player 2 requests moving image content for thumbnail creation in addition to requesting moving image content for normal reproduction. The inside of the player 2 is roughly divided into a normal reproduction module 21 and a thumbnail creation module 31. Each module is configured as follows.
[0034]
First, the normal reproduction module 21 will be described. The packet receiver 22 receives the packet of the normal video data DV and the packet of the normal audio data DA transmitted from the server 1 by the RTP / UDP protocol, and checks the source ID to check the source ID. Is confirmed whether or not the packet is transmitted from the correct server 1.
[0035]
The depacketizer 23 removes the header portion of the packet of the normal video data DV and the packet of the normal audio data DA, and at the same time, extracts information such as a packet number and a time stamp included in the header portion.
[0036]
The decoder 24 decompresses the compressed and transmitted normal video data DV and normal audio data DA. At this time, in the case of the normal video data DV, data in units of one frame are sequentially created, and in the case of the normal audio data DA, data in units of audio units are sequentially created.
[0037]
The renderer 25 sequentially performs display processing on the decoded normal video data DV supplied from the decoder 24 and displays the same on the user interface 26. In the case of the normal audio data DA, the renderer 25 outputs the data to an audio device such as a speaker. .
[0038]
Next, the thumbnail creation module 31 will be described. The packet receiver 32 receives the packet of the video data for thumbnail Dsn transmitted from the server 1 by the RTP / UDP protocol, and checks the source ID so that the packet of the video data for thumbnail Dsn is transmitted from the correct server 1. Check if there is.
[0039]
The depacketizer 33 removes the header portion of the packet of the thumbnail video data Dsn, and at the same time, extracts information such as a packet number and a time stamp included in the header portion.
[0040]
The decoder 34 decompresses the compressed and transmitted thumbnail video data Dsn. At this time, the decoder 34 creates still image data in frame units in order from the thumbnail video data Dsn. Here, the decoder 34 decodes compressed data compliant with, for example, the Moving Picture Experts Group (MPEG) 4. At this time, the decoder 34 decodes the I picture, P picture, and B picture of a GOP (Group Of Picture). Only still image data of a picture may be extracted.
[0041]
In order to control the creation of a thumbnail image of a divided scene, first, when a divided scene is designated from the thumbnail user interface 36, the thumbnail maker 37 sends an RTSP protocol to the server 1 in order to request data of the divided scene. The content information request command Co is used to transmit the content information Re from the server 1 using the SDP protocol, and thumbnail data is created based on the received content information Re. The thumbnail maker 37 stores the created thumbnail data in the thumbnail file 38.
[0042]
The renderer 35 sequentially performs display processing on the thumbnail data read from the thumbnail file 38 and displays the thumbnail data on the user interface 26.
[0043]
FIG. 5 is a block diagram showing the configuration of the thumbnail maker. FIG. 5 shows the functions of the thumbnail maker.
In FIG. 5, a thumbnail maker 37 includes a content information requesting unit 43 that transmits a request command for content information related to image data to the server 1, a content information receiving unit 44 that receives content information related to image data from the server 1, A position information determining unit 45 that determines whether or not the content information Re received by the receiving unit 44 includes the scene position information I8 of the image data; and overall position information extracted from the content information Re by the position information determining unit 45. A total scene number determination unit 46 that determines a total scene number I5 indicating a range to be divided of all scenes from I4, and scene position information indicating a range to be divided based on the total scene number I5 determined by the whole scene number determination unit 46 And a scene position information creating unit 46 for creating I6.
[0044]
The thumbnail maker 37 outputs a thumbnail creation scene information I7 based on the total number of scenes I5 extracted by the total scene number determination unit 46, and a scene range data request to the content information requesting unit 43. A thumbnail 1 frame creating unit 49 for creating one frame thumbnail data Sn based on scene position information I6 or I8 from the thumbnail video data Dsn supplied from the decoder 34, and a thumbnail 1 frame creating unit. And a thumbnail storage unit 50 for storing the one-frame thumbnail data Sn created by 49 in the thumbnail file 38.
[0045]
The thumbnail maker 37 includes a thumbnail communication speed setting unit 41 for setting the thumbnail communication speed I1 according to the thumbnail transmission protocol, and thumbnail data based on the thumbnail communication speed I1 set by the thumbnail communication speed setting unit 41. And a thumbnail resolution variable unit 42 for supplying resolution information I2 to the content information requesting unit 43 by changing the resolution of the thumbnail image. Here, in the case of a low resolution, for example, H.264 used for a video conference system or a video phone system is used. 261, H .; 263 may be variably set to a multi-step resolution based on a standard such as H.263.
[0046]
The operation of the player thus configured will be described below.
First, the operation of the normal reproduction module 21 will be described.
The packet receiver 22 receives a packet of the normal video data DV and a packet of the normal audio data DA transmitted from the server 1 by the RTP / UDP protocol.
[0047]
Next, the depacketizer 23 removes the header part of the packet of the normal video data DV and the packet of the normal audio data DA, and extracts the actual moving image content data. The decoder 24 decompresses the data of the compressed and transmitted moving image content and decodes the data into data of one frame unit. The renderer 25 performs a display process on the decoded normal video data DV supplied from the decoder 24 in order and displays it on the user interface 26. In the case of the normal audio data DA, the renderer 25 outputs the data to an audio device such as a speaker. .
[0048]
Next, the operation of the thumbnail creation module 31 will be described.
FIG. 6 is a flowchart showing a procedure for creating a thumbnail.
In FIG. 6, in step S1, the server requests content information. Specifically, when the content to be streamed and reproduced is determined by the user's selection on the user interface, in the thumbnail maker 37, the thumbnail 1 frame creation unit 49 supplies the scene range data request information I3 to the content information request unit 43. I do. The content information requesting unit 43 transmits a description (DESCRIBE) method to the server 1 using the RTSP protocol as a request command Co for content information regarding image data. The content information receiving unit 44 receives from the server 1 the content information Re regarding the image data transmitted using the SDP (Session Description Protocol RFC2327) protocol. The content information Re is sent as a response (Response) to the content information request command Co. The content information Re is used as control information in the thumbnail maker 37.
[0049]
FIG. 7 is a diagram illustrating an example of the SDP information. The SDP information is the content information Re sent from the server 1 to the player 2 as a response (Response) of the content information request command Co.
[0050]
In FIG. 7, the SDP information includes a session description (Session description) 71, a time description (Time description) 72, and a media description (Media description) 73.
[0051]
The session description (Session description) 71 includes the following elements. For example, v = protocol version, o = owner / creator and session identifier, s = session name, i = session information, u = session information, u = session information, u = session information, u = The URL is composed of a URL description, e = email address, c = connection information, and the like.
[0052]
In addition, the time description (Time description) 72 includes t = session active time, a = session attribute line (zero or more session attributes), and the like.
[0053]
The media description 73 includes m = media name and transport address, a = session attribute line (zero or more attribute lines), and the like.
[0054]
In step S2, it is determined whether or not the position information of the scene is included in the content information. If the position information is not included, the process proceeds to step S3, and if the position information is included, the process proceeds to step S5. Specifically, in the thumbnail maker 37, the position information determination unit 45 determines whether the content information Re received by the content information reception unit 44 includes the position information I8 of the scene of the image data.
[0055]
FIG. 8 and FIG. 9 are diagrams illustrating examples of the position information included in the SDP information.
For example, as shown in FIG. 8, the scene position information I8 can indicate a temporal position of a scene using an SDP extension header. In FIG. 8, as shown at 81, the description of “a =” is extendable, and the application described after “a =” can be specified by the application. The scene position information 82 can designate the start time-end time of the event.
As shown in FIG. 9, the scene position information 91 can specify only the start time of the event.
[0056]
In step S3, the total number of scenes is determined. Specifically, in the thumbnail maker 37, the total scene number determination unit 46 determines the total scene number I5 indicating the range to be divided of all scenes from the entire position information I4 determined and extracted by the position information determination unit 45. Since the content information includes the entire position information I4 indicating the entire reproduction time of the content in advance, the total number of scenes is determined based on the information. The number of scenes may be calculated from the total playback time by setting the number of scenes per time by the user. For example, if 1 scene / 5 minutes is set and the total playback time is 90 minutes, the total number of scenes is 18 scenes. If the entire reproduction time is not included in the content information, the number of scenes cannot be determined, and thus a thumbnail image cannot be created.
[0057]
In step S4, position information of a scene is created. Specifically, in the thumbnail maker 37, the scene position information creating unit 47 creates scene position information I6 indicating a range to be divided from the total scene number I5 created by the overall scene number determining unit 46. The position information is represented by a range of a scene, and is represented by a start position and an end position. Here, the start position is determined from the total number of scenes, and the start position of the next scene is set as the end time. For example, if the total playback time is 90 minutes and the number of scenes is 18, the range of one scene is 5 minutes, scene 1 is 0 to 5 minutes, scene 2 is 5 to 10 minutes, and scene 3 is 10 to 15 minutes. Become.
[0058]
In step S5, it is determined whether or not there is a scene where a thumbnail has not been created. If there is a scene where a thumbnail has not been created, the process proceeds to step S6, and if there is no scene where no thumbnail has been created, the process ends. Specifically, in the thumbnail maker 37, the thumbnail creation scene determination unit 48 outputs thumbnail creation scene information I7 based on the total scene number I5 determined by the total scene number determination unit 46.
[0059]
In step S6, the server requests data of the range of the scene. Specifically, in the thumbnail maker 37, the thumbnail 1 frame creation unit 49 supplies the content information requesting unit 43 with the scene range data request information I3 having the position information (start time-end time) as the range. The content information requesting unit 43 specifies the time in the range (RANGE) field of the play (PLAY) method as the request command Co of the position information of the scene, and transmits it to the server 1 using the RTSP protocol. When the HTTP 1.1 protocol is used instead of the RTSP protocol, data of a scene range is requested by a GET method. In this case, the range indicates the range of the scene in a data unit (byte). (E.g., start position (byte) -end position (byte))
[0060]
FIG. 10 is a diagram showing an example of an RTSP command requesting data in a range of a scene. The RTSP command is a request command Co for scene range data transmitted from the content information requesting unit 43 to the server 1 by specifying a time using the RTSP protocol. Here, the data in the scene range is transmitted at a higher transmission speed than the normal data. However, in the case of the RTSP protocol, as shown by 103, a scale (Scale: 2) is designated and the data in the scene range is transmitted at a higher speed.
[0061]
In FIG. 10, a play (PLAY) command is transmitted as a scene range data request command 101 from a player 2 of a client (Client) to a server (Server) 1. At this time, as shown by 102, a time in the range of 120 seconds to 130 seconds is designated by npt (normal play time) in the range (RANGE) field. Note that CSeq is a sequential number of a pair of transmission and reception using RTSP, and Session is a header identifier for identifying data of transmission and reception using RTSP.
[0062]
In the thumbnail creation module 31, the packet receiver 32 receives the packet of the thumbnail video data Dsn transmitted from the server 1 by the RTP / UDP protocol, and the depacketizer 33 removes the header portion of the packet of the thumbnail video data Dsn. At the same time, information such as a packet number and a time stamp included in the header portion is extracted. The decoder 34 decompresses the compressed and transmitted thumbnail video data Dsn. At this time, the thumbnail video data Dsn creates data in units of one frame in order and supplies it to the thumbnail maker 37.
[0063]
In step S7, it is determined whether or not one frame has been created. If it can be created, the process proceeds to step S8. If it cannot be created, the process returns to step S5, and the determination and processing of steps S5 to S8 are repeated. Specifically, the thumbnail maker 37 generates one frame of data that becomes one still image of a scene. If one frame of data is not created in the range of the scene, the process returns to step S5. In the thumbnail maker 37, the thumbnail 1 frame creation section 49 creates 1 frame thumbnail data Sn from the thumbnail video data Dsn supplied from the decoder 34 based on the scene position information I6.
[0064]
In step S8, the server requests the server to stop transmitting data. More specifically, in the thumbnail maker 37, the thumbnail 1 frame creation section 49 supplies the scene range data stop information I3 to the server 1.
[0065]
FIG. 11 is a diagram showing an example of an RTSP command for making a data transmission stop request. The RTSP command is a scene range data stop request command Co transmitted from the content information requesting unit 43 to the server 1 using the RTSP protocol.
[0066]
In FIG. 11, as a data transmission stop request command 111, a stop (STOP) command is transmitted from the player 2 of the client (Client) to the server (Server) 1.
[0067]
In step S9, one frame is stored in the thumbnail file, and the process returns to step S5 to repeat the determination and processing in steps S5 to S8. Specifically, in the thumbnail maker 37, the thumbnail file storage unit 50 stores the one-frame thumbnail data Sn of all scenes created by the thumbnail one-frame creation unit 49 in the thumbnail file 38.
[0068]
The thumbnail maker 37 displays a thumbnail image at a predetermined position on the thumbnail user interface 36 as shown in FIG.
[0069]
Next, a case will be described in which the reproduction position is moved by selecting and specifying a thumbnail image created in this manner and displayed on the thumbnail user interface 36.
[0070]
In the player 2, one frame of thumbnail still image for each scene is displayed on the thumbnail user interface. The user can select the next scene to be viewed from among the thumbnail still images of one frame for each scene displayed on the thumbnail user interface 36 and move the reproduction position. For example, when the horizontal bar icon is clicked with the mouse pointer and dragged in the horizontal direction, and the moving range of the horizontal bar icon is set to the entire playback time, an image to be selected for the entire playback time is played. Move to the position corresponding to the time. At this time, when the horizontal bar icon is moved to a position near the center of the moving range of the horizontal bar icon, thumbnail still images of some scenes near the center are extracted from the thumbnail file 38 by the thumbnail maker 37 and the extracted thumbnail images are extracted. Thumbnail still images of some scenes are displayed on the thumbnail user interface 36 by the renderer 35.
[0071]
By moving the cursor of the mouse pointer to the position of the selected image among the thumbnail still images of some displayed scenes and double-clicking, the reproduction position can be moved to the selected scene. The number of thumbnail still images can be set according to the window size of the thumbnail user interface 36 to be displayed, but it is considered appropriate to display about 10 thumbnail images.
[0072]
The specific operation will be described below.
First, in the thumbnail maker 37, the controller (not shown) of the player 2 extracts the position information of the thumbnail still image of one frame of the selected scene from the entire position information I4 extracted by the position information determination unit 45.
[0073]
When the position information of the thumbnail still image of one frame of the selected scene is extracted, a controller (not shown) of the player 2 creates reproduction range information. The reproduction range information is represented by start position information and end position information. The start position is the start position in the position information (start time to end time) of the scene requested by the thumbnail 1 frame creation unit 49 in the thumbnail maker 37. The end position is the content end position.
[0074]
Finally, the controller (not shown) of the player 2 requests the normal video data DV based on the reproduction range information created by the server 1, and the normal video data DV received from the server 1 is subjected to reproduction processing by the normal reproduction module 21. Then, the moving image in the reproduction range is reproduced on the normal data user interface 26.
[0075]
According to the above-described embodiment, in addition to the player 2 downloading the moving image content from the server 1 for normal reproduction, the player 2 downloads divided scene data obtained by dividing the entire content for each scene. By doing so, a thumbnail image based on the divided scene data of each scene can be created and displayed in the player 2.
[0076]
Further, in the player 2, a thumbnail image is continuously arranged and displayed as a one-frame still image for each scene so that the thumbnail image can be selectively designated, so that the playback position can be changed to a scene desired by the user.
[0077]
Also, by installing the thumbnail creation module 31 only with the player 2 without adding a new function to the current server 1, downloading of video data for thumbnails for each scene and display of scene information by thumbnail images can be performed. It can be carried out. As a result, thumbnail images can be displayed for the contents of moving images of all existing servers.
[0078]
The player 2 is configured in detail as follows, and operates as follows.
The compressed and encoded video input supplied from the server 1 via the network is decompressed and decoded, and then converted into an NTSC (National Television System Committee) or PAL (Phase Alteration Line) image. It has a video codec for outputting video to a display, a VRAM (Video Random Access Memory) for storing NTSC or PAL video data, and a graphic engine for drawing graphic images in the VRAM.
[0079]
The player 2 converts an audio input supplied from the server 1 via a network into a predetermined format and outputs the audio to a speaker, and a provider via the Internet via a PSTN (high-speed communication line). And an interface circuit that performs IR (infrared), serial, parallel, and other interfaces.
[0080]
Further, the player 2 includes a graphic engine, an audio codec, a modem, a local bus through which data of the interface circuit passes, a flash memory and a hard disk device (HDD) in which a predetermined program is stored, and an operation of the player 2. A controlling CPU (Central Processing Unit), a memory storing control data for operating the CPU, a host bus passing data of the CPU and the memory, and a bus bridge for exchanging data between a local bus and the host bus And is configured. The server 1 has the same configuration as the player 2.
[0081]
The player 2 configured as described above operates as follows.
When the power is turned on, the CPU exchanges data using the host bus and the local bus, so that an application program of a control unit application stored in the flash memory and the hard disk device (HDD) is started. Content information necessary for setting is received by the modem via, for example, a network. The CPU analyzes the data necessary for the received setting and supplies it to the graphic engine. The graphic engine draws a graphic image in the VRAM and the CPU analyzes the graphic image. The NTSC / PAL codec converts the graphic image into an NTSC or PAL image and processes the graphic image so that it can be supplied to the display of the player 2. Next, when transmitting a request signal of necessary information from the player 2 to the server 1, a request signal of necessary content information is transmitted to the server 1 by the modem, for example, via the Internet.
[0082]
When confirming the validity of the player 2, the CPU of the server 1 confirms whether or not the player 2 to be set is valid, for example, by the presence or absence of a confirmation signal for transmitting a predetermined command.
When the moving image data is transmitted from the server 1 to the player 2, the moving image data is transmitted to the player 2 via, for example, a network.
[0083]
When the player 2 receives the moving image data, the video codec converts the moving image data supplied from the provider via the network into the NTSC or PAL image data. The thumbnail data created by the thumbnail maker 37 is stored in the thumbnail file 38. The thumbnail data is analyzed by the CPU and supplied to the thumbnail user interface 36. When the user selects and specifies a thumbnail image, the moving image data converted by the video codec of the scene corresponding to the selected thumbnail image is stored in the VRAM and then supplied to the graphic engine. The graphic engine draws a graphic image based on the moving image data held in the VRAM and supplies the image to the display.
[0084]
According to the above-described embodiment, when reproducing streaming data supplied from a server, a thumbnail image can be created prior to moving image data to be reproduced. Furthermore, by selecting and specifying a thumbnail image, the reproduction position of the moving image data can be changed.
[0085]
It is needless to say that the present invention is not limited to the above-described embodiment, and various configurations can be adopted without departing from the scope of the present invention.
[0086]
【The invention's effect】
An information reproducing apparatus according to the present invention is an information reproducing apparatus for acquiring image data supplied from a server device via a network and reproducing the image data. Normal data reproducing means for receiving and reproducing data image data; normal data displaying means for displaying normal data image data reproduced by the normal data reproducing means; and divided scene data from the server device. While receiving and reproducing the divided scene data image data supplied via the transmission protocol, the divided scene data image data was divided into a plurality of scene ranges based on the content information on the image data. Divided scenes in which a predetermined range of data of each divided scene is sequentially generated for each range of each scene Data generating means, divided scene data storing means for sequentially storing divided scene data for each range of each scene sequentially generated by the divided scene data generating means, and all scenes stored by the divided scene data storing means. A divided scene data display unit for displaying the divided scene data; and a designated divided scene when a range of a scene of an arbitrary divided scene data among the divided scene data of all the scenes displayed by the divided scene data display unit is designated. Control means for controlling the image data reproduced by the normal data reproducing means to be displayed on the normal data display means so as to correspond to the range of the data scene. Image for divided scene data divided into scenes for the entire content in addition to downloading the image data for the server from the server device By previously downloaded over data, an effect that it is possible to create and display a thumbnail image based on the divided scene data for each scene in the information reproducing apparatus.
[0087]
Further, in the information reproducing apparatus of the present invention, since the divided scene data communication speed according to the divided scene data transmission protocol is higher than the normal data communication speed according to the normal data transmission protocol, the normal data supplied from the server device is used. When the image data for reproduction is reproduced, a thumbnail image based on the divided scene data can be created prior to the image data for normal data to be reproduced.
[0088]
Further, in the information reproducing apparatus of the present invention, in the above-mentioned divided scene data transmission protocol, a request command for content information on the image data is transmitted to the server device, and the content information on the image data is received from the server device. Therefore, there is an effect that information indicating a range of a scene is generated based on the content information and can be used to create a thumbnail image based on the divided scene data.
[0089]
Further, in the information reproducing apparatus of the present invention, in the above, the divided scene data generating means transmits a content information request command for the image data to the server device, and transmits the content information regarding the image data to the server device. A content information receiving unit that receives from the server device, a position information determining unit that determines whether or not the content information received by the content information receiving unit includes positional information of the image data; and An overall scene number determining unit that determines the overall scene number indicating a range to be divided into all scenes when it is determined that the position information is not included, and the overall scene number obtained from the overall scene number determining unit From the scene position information creating unit for creating scene position information indicating the range to be divided from the A divided scene data creating unit for creating divided scene data from the range data of each scene based on the total number of scenes, and all the divided scene data created by the divided scene data creating unit in the divided scene data storage unit. Since it has a divided scene data storage processing unit for performing storage processing, the total number of scenes is determined based on the content information, scene position information is generated from the total number of scenes, and a thumbnail image based on the divided scene data is used using the scene position information. Is produced.
[0090]
Further, in the information reproducing apparatus of the present invention, in the above, the divided scene data generating means includes: a divided scene data communication speed setting unit for setting a divided scene data communication speed according to the divided scene data transmission protocol; A divided scene data resolution variable unit that varies the resolution of the divided scene data based on the divided scene data communication speed set by the speed setting unit and supplies resolution information to the content information requesting unit. When making a request to the server device, the resolution of the divided scene data can be varied to change the communication speed of the divided scene data, and the request can be made to the server device.
[0091]
Further, in the information reproducing apparatus according to the present invention, in the above, the resolution variable section varies the resolution of the divided scene data in a plurality of steps from a standard resolution to a relatively low resolution according to the capacity of all image data. It is possible to request the server device to change the communication speed of the divided scene data in a plurality of stages from the standard communication speed to a relatively high resolution and change the communication speed of the divided scene data from the standard communication speed to a relatively high communication speed in a plurality of stages. It works.
[0092]
Further, the information reproducing method of the present invention is an information reproducing method for acquiring image data supplied from a server device via a network and reproducing the image data by the information reproducing device. And processing for receiving and playing back the divided scene data image data supplied via the CPU, and dividing the divided scene data image data into a plurality of scene ranges based on the content information on the image data. A divided scene data generating step of sequentially generating data of a predetermined range of each divided scene for each range of each scene; and a dividing step of sequentially storing divided scene data of each range of each scene sequentially generated by the divided scene data generating step. A scene data storage step, and division of all scenes stored in the divided scene data storage step A divided scene data display step of displaying plane data; and, when a range of a scene of an arbitrary divided scene data among the divided scene data of all scenes displayed in the divided scene data display step is designated, the designated divided scene data A control step of controlling the reproduction processing of the normal image data so as to correspond to the range of the scene, and a control step of controlling the display processing of the normal image data. A normal data reproduction step for receiving and reproducing the normal data image data supplied via the transmission protocol, and a normal data image reproduced by the normal data reproduction step by the display processing in the control step. A normal data display step of displaying data, so that In addition to downloading the image data for normal data from the server device, the image data for divided scene data obtained by dividing the entire content for each scene is downloaded. This makes it possible to create and display a thumbnail image based on the thumbnail image.
[0093]
Further, in the information reproducing method of the present invention, in the above-described divided scene data transmission protocol, a request command for content information regarding the image data is transmitted to the server device, and content information regarding the image data is received from the server device. Therefore, there is an effect that information indicating a range of a scene is generated based on the content information and can be used to create a thumbnail image based on the divided scene data.
[0094]
Further, in the information reproducing method according to the present invention, in the above, the divided scene data generating step transmits a request command for content information relating to the image data to the server device, and receives content information relating to the image data from the server device. Then, it is determined whether or not the content information received by the content information receiving unit includes the position information of the image data. When the position information determining unit determines that the position information is not included, all scenes are determined. The number of whole scenes indicating the range to be divided is determined, the scene position information indicating the range to be divided is created from the number of whole scenes, and the divided scene data is obtained from the range data of each scene based on the number of whole scenes. Create and store all the divided scene data in the divided scene data storage means. Determining the number of bodies scene, it generates scene position information from the entire scene number, an effect that it is possible to create a thumbnail image based on the divided scene data using the scene position information.
[0095]
Further, an information reproducing system of the present invention includes a server device for supplying image data, a network, and an information reproducing device for acquiring image data supplied from the server device via the network and reproducing the image data. An information reproducing system comprising: a normal data reproducing unit that performs processing for receiving and reproducing image data for normal data supplied from the server device via a normal data transmission protocol; and Normal data display means for displaying the normal data image data reproduced by the normal data reproducing means, and receiving and reproducing the divided scene data image data supplied from the server device via the divided scene data transmission protocol. Processing, and based on the content information on the image data, Divided scene data generating means for sequentially generating data of a predetermined range of each divided scene when each of the divided image data is divided into a plurality of scene ranges, and sequentially generated by the divided scene data generating means. Divided scene data storage means for sequentially storing divided scene data for each scene range; divided scene data display means for displaying divided scene data of all scenes stored by the divided scene data storage means; When the range of the scene of the arbitrary divided scene data is designated from among the divided scene data of all the scenes displayed by the display means, the normal data reproducing means is adapted to correspond to the range of the scene of the designated divided scene data. Control means for controlling the image data subjected to the reproduction processing to be displayed on the normal data display means. Since the image data supplied from the server apparatus is reproduced and displayed based on the divided scene data, the divided scene data generating means is implemented only by the information reproducing apparatus without adding a new function to the server apparatus. Thus, it is possible to download divided scene data for each scene and display a thumbnail image based on the divided scene data. As a result, there is an effect that the thumbnail images can be displayed by the divided scene data even for the moving image contents of all the existing server devices.
[Brief description of the drawings]
FIG. 1 is a diagram showing streaming in a player that performs thumbnail creation applied to the present embodiment.
FIG. 2 is a diagram showing a reproduction time of normal data and a creation time of thumbnail data. FIG. 2A shows normal data, FIG. 2B shows thumbnail scene data, and FIG. 2C shows thumbnail data.
FIG. 3 is a diagram showing an example of a thumbnail displaying a scene.
FIG. 4 is a diagram showing an internal configuration of a player.
FIG. 5 is a block diagram illustrating a configuration of a thumbnail maker.
FIG. 6 is a flowchart showing a procedure for creating a thumbnail.
FIG. 7 is a diagram illustrating an example of SDP information.
FIG. 8 is a diagram illustrating an example of position information included in an SDP.
FIG. 9 is a diagram illustrating an example of position information included in an SDP.
FIG. 10 is a diagram illustrating an example of an RTSP command requesting data in a range of a scene.
FIG. 11 is a diagram illustrating an example of an RTSP command for requesting a data transmission stop;
12A and 12B are diagrams showing a change in a reproduction position of a conventional player, FIG. 12A showing a state before the reproduction position is changed, and FIG.
FIG. 13 is a diagram showing a change in a playback position of a conventional player.
[Explanation of symbols]
1 ... Server 2 ... Player 3 ... Normal data user interface 4 ... Thumbnail user interface 5 ... Normal data 6 ... Normal data communication speed 7 ... Thumbnail video data 8: Thumbnail communication speed, 9: Thumbnail data, 10: Playback icon, 11: Stop icon, 12: Recording icon, 13: Horizontal bar icon, 21: Normal playback module, 22 ... Packet receiver 23 Depacketizer 24 Decoder 25 Renderer 26 User interface for normal data 31 Thumbnail creation module 32 Packet receiver 33 Depacketizer 34 Decoder , 35 ... Renderer, 36 ... Thumbnail user interface, 37 ... Thumbnail maker, 38 ... Thumbnail file, DV ... Normal video data (RTP / UDP), DA ... Audio data (RTP / UDP), Dsn ... Thumbnail video data (RTP / UDP), Co ... Content Information request command (RTSP), Re: Content information (SDP), 41: Thumbnail communication speed setting unit, 42: Thumbnail resolution variable unit, 43: Content information request unit, 44: Content information receiving unit, 45 position information determination unit, 46 total scene number determination unit 47 scene position information creation unit 48 thumbnail creation scene determination unit 49 thumbnail one frame creation unit 50 thumbnail file storage Section, 71: Session description, 72: Time description, 73 ... Deer description, 82 location information ...... scene, 91 position information ...... scene, 101 ...... scene range data request command, 111 ...... data transfer stop request command

Claims (10)

ネットワークを介してサーバ装置から供給される画像データを取得して上記画像データを再生する情報再生装置において、
上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生手段と、
上記通常データ再生手段により再生処理された通常データ用画像データを表示する通常データ表示手段と、
上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、
上記分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、
上記分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、
上記分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、上記通常データ再生手段により再生処理された画像データを上記通常データ表示手段に表示するように制御する制御手段と
を有することを特徴とする情報再生装置。
An information reproducing apparatus for acquiring image data supplied from a server device via a network and reproducing the image data,
A normal data reproducing unit that performs processing for receiving and reproducing the normal data image data supplied from the server device via the normal data transmission protocol,
Normal data display means for displaying the normal data image data reproduced by the normal data reproduction means,
The server device receives and reproduces the divided scene data image data supplied from the server device via the divided scene data transmission protocol, and generates a plurality of the divided scene data image data based on the content information on the image data. Divided scene data generating means for sequentially generating data of a predetermined range of each divided scene when divided into a range of scenes for each scene range,
Divided scene data storage means for sequentially storing divided scene data for each range of each scene sequentially generated by the divided scene data generation means,
Divided scene data display means for displaying divided scene data of all scenes stored by the divided scene data storage means,
When specifying the range of the scene of the arbitrary divided scene data among the divided scene data of all the scenes displayed by the above-mentioned divided scene data display means, the normal range is set so as to correspond to the range of the scene of the specified divided scene data. Control means for controlling the image data reproduced by the data reproducing means to be displayed on the normal data display means.
上記通常データ伝送プロトコルによる通常データ通信速度よりも上記分割場面データ伝送プロトコルによる分割場面データ通信速度を速くしたことを特徴とする請求項1記載の情報再生装置。2. The information reproducing apparatus according to claim 1, wherein a divided scene data communication speed according to the divided scene data transmission protocol is higher than a normal data communication speed according to the normal data transmission protocol. 上記分割場面データ伝送プロトコルにおいて、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、上記画像データに関するコンテンツ情報を上記サーバ装置から受信することを特徴とする請求項1記載の情報再生装置。2. The information reproducing apparatus according to claim 1, wherein in the divided scene data transmission protocol, a request command for content information related to the image data is transmitted to the server device, and content information related to the image data is received from the server device. apparatus. 上記分割場面データ生成手段は、
上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信するコンテンツ情報要求部と、
上記画像データに関するコンテンツ情報を上記サーバ装置から受信するコンテンツ情報受信部と、
上記コンテンツ情報受信部により受信したコンテンツ情報に画像データの位置情報が含まれているか否かを判定する位置情報判定部と、
上記位置情報判定部により上記位置情報が含まれていないと判定されたときに全場面の分割すべき範囲を示す全体場面数を決定する全体場面数決定部と、
上記全体場面数決定部から得られた上記全体場面数から分割すべき範囲を示す場面位置情報を作成する場面位置情報作成部と、
上記全体場面数決定部により決定された上記全体場面数に基づいて各場面の範囲データから分割場面データを作成する分割場面データ作成部と、
上記分割場面データ作成部により作成された全分割場面データを上記分割場面データ記憶手段に保存処理する分割場面データ保存処理部と
を有することを特徴とする請求項1記載の情報再生装置。
The divided scene data generating means includes:
A content information requesting unit that transmits a request command for content information regarding the image data to the server device,
A content information receiving unit that receives content information related to the image data from the server device,
A position information determining unit that determines whether or not the position information of the image data is included in the content information received by the content information receiving unit;
When the position information determination unit determines that the position information is not included, the entire scene number determination unit determines the total scene number indicating the range to be divided of all scenes,
A scene position information creating unit that creates scene position information indicating a range to be divided from the overall scene number obtained from the overall scene number determination unit,
A divided scene data creating unit that creates divided scene data from the range data of each scene based on the overall scene number determined by the overall scene number determining unit;
2. The information reproducing apparatus according to claim 1, further comprising: a divided scene data storage processing unit that stores all divided scene data created by the divided scene data creation unit in the divided scene data storage unit.
上記分割場面データ生成手段は、
上記分割場面データ伝送プロトコルによる分割場面データ通信速度を設定する分割場面データ通信速度設定部と、
上記分割場面データ通信速度設定部により設定された上記分割場面データ通信速度に基づいて分割場面データの解像度を可変して解像度情報を上記コンテンツ情報要求部に供給する分割場面データ解像度可変部と
を有することを特徴とする請求項2記載の情報再生装置。
The divided scene data generating means includes:
A division scene data communication speed setting unit for setting a division scene data communication speed according to the division scene data transmission protocol;
A split scene data resolution changing unit that changes resolution of the split scene data based on the split scene data communication speed set by the split scene data communication speed setting unit and supplies resolution information to the content information requesting unit. 3. The information reproducing apparatus according to claim 2, wherein:
上記解像度可変部は、全画像データの容量に応じて、標準の解像度から比較的低解像度まで複数段階に可変することを特徴とする請求項5記載の情報再生装置。6. The information reproducing apparatus according to claim 5, wherein the resolution changing unit changes the resolution from a standard resolution to a relatively low resolution in a plurality of steps according to the capacity of all image data. ネットワークを介してサーバ装置から供給される画像データを取得して上記画像データを情報再生装置により再生する情報再生方法において、
上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成ステップと、
上記分割場面データ生成ステップにより順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶ステップと、
上記分割場面データ記憶ステップにより記憶された全場面の分割場面データを表示する分割場面データ表示ステップと、
上記分割場面データ表示ステップにより表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、通常画像データの再生処理を制御し、上記通常画像データを表示処理するように制御する制御ステップと、
上記制御ステップにおける再生処理により、上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生ステップと、
上記制御ステップにおける表示処理により、上記通常データ再生ステップにより再生処理された通常データ用画像データを表示する通常データ表示ステップと、
を有することを特徴とする情報再生方法。
In an information reproducing method of acquiring image data supplied from a server device via a network and reproducing the image data by an information reproducing device,
The server device receives and reproduces the divided scene data image data supplied from the server device via the divided scene data transmission protocol, and generates a plurality of the divided scene data image data based on the content information on the image data. A divided scene data generating step of sequentially generating data of a predetermined range of each divided scene when divided into a range of scenes for each range of each scene;
A divided scene data storing step of sequentially storing divided scene data for each range of each scene sequentially generated by the divided scene data generating step;
A divided scene data display step of displaying divided scene data of all scenes stored by the divided scene data storage step;
When the range of the scene of the arbitrary divided scene data is designated from among the divided scene data of all the scenes displayed in the above-mentioned divided scene data display step, the normal image is displayed so as to correspond to the range of the scene of the designated divided scene data. A control step of controlling data reproduction processing and controlling the display processing of the normal image data;
A normal data reproducing step of performing a process of receiving and reproducing normal data image data supplied from the server device via a normal data transmission protocol by the reproducing process in the control step;
A normal data display step of displaying the normal data image data reproduced by the normal data reproduction step by the display processing in the control step;
An information reproducing method comprising:
上記分割場面データ伝送プロトコルにおいて、上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、上記画像データに関するコンテンツ情報を上記サーバ装置から受信することを特徴とする請求項7記載の情報再生方法。8. The information reproducing apparatus according to claim 7, wherein in the divided scene data transmission protocol, a request command for content information related to the image data is transmitted to the server device, and content information related to the image data is received from the server device. Method. 上記分割場面データ生成ステップは、
上記画像データに関するコンテンツ情報の要求コマンドを上記サーバ装置に送信し、
上記画像データに関するコンテンツ情報を上記サーバ装置から受信し、
上記コンテンツ情報受信部により受信したコンテンツ情報に画像データの位置情報が含まれているか否かを判定し、
上記位置情報判定部により上記位置情報が含まれていないと判定されたとき全場面の分割すべき範囲を示す全体場面数を決定し、
上記全体場面数から上記分割すべき範囲を示す場面位置情報を作成し、
上記全体場面数に基づいて各場面の範囲データから分割場面データを作成し、
上記全分割場面データを上記分割場面データ記憶手段に保存処理する
ことを特徴とする請求項7記載の情報再生方法。
The divided scene data generating step includes:
Transmitting a request command for content information regarding the image data to the server device,
Receiving content information on the image data from the server device,
Determine whether or not the position information of the image data is included in the content information received by the content information receiving unit,
When it is determined that the position information is not included by the position information determination unit, determine the total number of scenes indicating the range to be divided of all scenes,
Create scene position information indicating the range to be divided from the total number of scenes,
Create divided scene data from the range data of each scene based on the total number of scenes,
8. The information reproducing method according to claim 7, wherein said divided scene data is stored in said divided scene data storage means.
画像データを供給するサーバ装置と、ネットワークと、上記ネットワークを介して上記サーバ装置から供給される画像データを取得して上記画像データを再生する情報再生装置とを有する情報再生システムにおいて、
上記情報再生装置は、
上記サーバ装置から通常データ伝送プロトコルを介して供給された通常データ用画像データを受信して再生する処理をする通常データ再生手段と、
上記通常データ再生手段により再生処理された通常データ用画像データを表示する通常データ表示手段と、
上記サーバ装置から分割場面データ伝送プロトコルを介して供給された分割場面データ用画像データを受信して再生する処理をすると共に、上記画像データに関するコンテンツ情報に基づいて上記分割場面データ用画像データを複数の場面の範囲に分割したときの各分割場面の所定範囲のデータを各場面の範囲毎に順次生成する分割場面データ生成手段と、
上記分割場面データ生成手段により順次生成された各場面の範囲毎の分割場面データを順次記憶する分割場面データ記憶手段と、
上記分割場面データ記憶手段により記憶された全場面の分割場面データを表示する分割場面データ表示手段と、
上記分割場面データ表示手段により表示された全場面の分割場面データのうち任意の分割場面データの場面の範囲を指定したとき、指定された分割場面データの場面の範囲に対応するように、上記通常データ再生手段により再生処理された画像データを上記通常データ表示手段に表示するように制御する制御手段と
を有し、上記情報再生装置のみで生成された分割場面データに基づいて上記サーバ装置から供給された画像データを再生して表示することを特徴とするシステム。
An information reproducing system including a server device that supplies image data, a network, and an information reproducing device that acquires image data supplied from the server device via the network and reproduces the image data.
The information reproducing apparatus includes:
A normal data reproducing unit that performs processing for receiving and reproducing the normal data image data supplied from the server device via the normal data transmission protocol,
Normal data display means for displaying the normal data image data reproduced by the normal data reproduction means,
The server device receives and reproduces the divided scene data image data supplied from the server device via the divided scene data transmission protocol, and generates a plurality of the divided scene data image data based on the content information on the image data. Divided scene data generating means for sequentially generating data of a predetermined range of each divided scene when divided into a range of scenes for each scene range,
Divided scene data storage means for sequentially storing divided scene data for each range of each scene sequentially generated by the divided scene data generation means,
Divided scene data display means for displaying divided scene data of all scenes stored by the divided scene data storage means,
When specifying the range of the scene of the arbitrary divided scene data among the divided scene data of all the scenes displayed by the above-mentioned divided scene data display means, the normal range is set so as to correspond to the range of the scene of the specified divided scene data. Control means for controlling the image data reproduced by the data reproduction means to be displayed on the normal data display means, and supplied from the server device based on the divided scene data generated only by the information reproduction device. A system for reproducing and displaying the obtained image data.
JP2002195121A 2002-07-03 2002-07-03 Information reproducing apparatus, information reproducing method, and information reproducing system Expired - Fee Related JP4165134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002195121A JP4165134B2 (en) 2002-07-03 2002-07-03 Information reproducing apparatus, information reproducing method, and information reproducing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002195121A JP4165134B2 (en) 2002-07-03 2002-07-03 Information reproducing apparatus, information reproducing method, and information reproducing system

Publications (2)

Publication Number Publication Date
JP2004040502A true JP2004040502A (en) 2004-02-05
JP4165134B2 JP4165134B2 (en) 2008-10-15

Family

ID=31703631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002195121A Expired - Fee Related JP4165134B2 (en) 2002-07-03 2002-07-03 Information reproducing apparatus, information reproducing method, and information reproducing system

Country Status (1)

Country Link
JP (1) JP4165134B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006109381A1 (en) * 2005-04-05 2006-10-19 Matsushita Electric Industrial Co., Ltd. Communication terminal device
JP2007208330A (en) * 2006-01-30 2007-08-16 Kyocera Corp Mobile terminal device
JP2009016943A (en) * 2007-06-29 2009-01-22 Toshiba Corp Imaging device
JP2010178147A (en) * 2009-01-30 2010-08-12 Nec Corp Streaming distribution system, operation control method of the same, and program
JP2010530703A (en) * 2007-06-20 2010-09-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Method and apparatus for improved media session management
NL2007902C2 (en) * 2011-01-14 2012-07-17 Google Inc Video processing feedback.
JP2013051731A (en) * 2005-03-02 2013-03-14 United Video Properties Inc Playlist and bookmark in interactive media guidance application system
WO2014105317A1 (en) * 2012-12-26 2014-07-03 Intel Corporation Content presentation with enhanced user experience
EP3220650A1 (en) 2016-03-18 2017-09-20 Funai Electric Co., Ltd. Control apparatus
CN113741849A (en) * 2021-07-30 2021-12-03 卡莱特云科技股份有限公司 Scene list-based display picture adjusting method and device and computer equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109040822B (en) * 2018-07-16 2021-06-22 北京奇艺世纪科技有限公司 Player configuration method and device and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013051731A (en) * 2005-03-02 2013-03-14 United Video Properties Inc Playlist and bookmark in interactive media guidance application system
WO2006109381A1 (en) * 2005-04-05 2006-10-19 Matsushita Electric Industrial Co., Ltd. Communication terminal device
JP2007208330A (en) * 2006-01-30 2007-08-16 Kyocera Corp Mobile terminal device
JP2010530703A (en) * 2007-06-20 2010-09-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Method and apparatus for improved media session management
JP2009016943A (en) * 2007-06-29 2009-01-22 Toshiba Corp Imaging device
JP2010178147A (en) * 2009-01-30 2010-08-12 Nec Corp Streaming distribution system, operation control method of the same, and program
NL2007902C2 (en) * 2011-01-14 2012-07-17 Google Inc Video processing feedback.
EP2663960A1 (en) * 2011-01-14 2013-11-20 Google, Inc. Video processing feedback
US8849956B2 (en) 2011-01-14 2014-09-30 Google Inc. Video processing feedback
EP2663960A4 (en) * 2011-01-14 2014-10-08 Google Inc Video processing feedback
WO2014105317A1 (en) * 2012-12-26 2014-07-03 Intel Corporation Content presentation with enhanced user experience
EP3220650A1 (en) 2016-03-18 2017-09-20 Funai Electric Co., Ltd. Control apparatus
US11375254B2 (en) 2016-03-18 2022-06-28 Funai Electric Co., Ltd. Control apparatus
CN113741849A (en) * 2021-07-30 2021-12-03 卡莱特云科技股份有限公司 Scene list-based display picture adjusting method and device and computer equipment

Also Published As

Publication number Publication date
JP4165134B2 (en) 2008-10-15

Similar Documents

Publication Publication Date Title
US9317188B2 (en) Devices and methods for providing navigation images associated with adaptive bit rate video content
EP1233591B1 (en) Progressive streaming media rendering
CA2623835C (en) Content delivery system and method, and server apparatus and receiving apparatus used in this content delivery system
JP6150442B2 (en) Digital media content sharing method and system
JP5267165B2 (en) Streaming distribution system, operation control method thereof, and program
US20050071881A1 (en) Systems and methods for playlist creation and playback
US20060168291A1 (en) Interactive multichannel data distribution system
CN102347943B (en) The method and apparatus sent based on RTSP session and receive streaming data
CN113767608B (en) Method, apparatus and non-volatile computer readable medium for receiving media data of a session
WO2017063399A1 (en) Video playback method and device
CN102210160A (en) Systems and methods for delivering content
CN101415069A (en) Server and method for sending on-line play video
US10515476B2 (en) Image fetching for timeline scrubbing of digital media
JP2008503926A (en) Method and system for interactive control of media over a network
US12513346B2 (en) Method, system, and computer-readable recording medium for implementing fast-switching mode between channels in multi-live transmission environment
JP2022525366A (en) Methods, devices, and programs for receiving media data
JP4300443B2 (en) Imaging apparatus and method, and recording medium
JP4165134B2 (en) Information reproducing apparatus, information reproducing method, and information reproducing system
WO2017219575A1 (en) Online television playing method and apparatus
CN106789976A (en) The player method of media file, service end, client and system
CN104471947A (en) Content transmission device, content playback device, content delivery system, control method for content transmission device, control method for content playback device, data structure, control program, and recording medium
CN108632644B (en) Preview display method and device
JP2022526807A (en) How to receive media data for media content, devices, and computer programs
JP6063952B2 (en) Method for displaying multimedia assets, associated system, media client, and associated media server
JP2008048091A (en) Motion picture tagging program, motion picture tag system, and motion picture distributing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees