[go: up one dir, main page]

JP2015089099A - 配信管理装置 - Google Patents

配信管理装置 Download PDF

Info

Publication number
JP2015089099A
JP2015089099A JP2014086773A JP2014086773A JP2015089099A JP 2015089099 A JP2015089099 A JP 2015089099A JP 2014086773 A JP2014086773 A JP 2014086773A JP 2014086773 A JP2014086773 A JP 2014086773A JP 2015089099 A JP2015089099 A JP 2015089099A
Authority
JP
Japan
Prior art keywords
information
unit
communication terminal
data
management device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014086773A
Other languages
English (en)
Inventor
志田 春夫
Haruo Shida
春夫 志田
笠谷 潔
Kiyoshi Kasatani
潔 笠谷
佑一 河崎
Yuichi Kawasaki
佑一 河崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014086773A priority Critical patent/JP2015089099A/ja
Priority to US14/338,517 priority patent/US20150029196A1/en
Publication of JP2015089099A publication Critical patent/JP2015089099A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T11/23

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)

Abstract

【課題】ネットワークの帯域及び配信管理装置のリソースの消費量を制御しながら描画情報を端末に配信する。【解決手段】配信管理装置は、端末が受け付けた操作入力を示す操作情報を端末からネットワークを介して受信する受信部と、操作情報から端末に表示する描画情報を作成するブラウザと、描画情報をエンコードするエンコーダと、受信部が操作情報を受信した場合に、操作情報を受信してから所定の時間が経過するまで、エンコーダのフレームレートを上げる制御を行う操作情報制御部と、エンコードされた描画情報を端末に送信する送信部と、を備える。【選択図】図6

Description

本発明は、配信管理装置に関する。
従来、企業や教育機関、行政機関などでの会議などにおいて、大型ディスプレイに背景画像を表示させ、その上にユーザが文字や数字、図形などの描画画像を書き込み可能な電子情報ボードが利用されている。電子情報ボードは、接続されたパソコンの表示画面を拡大した表示画像を表示する拡大表示機能と、搭載されているタッチパネル機能を介して接続されているパソコンを操作するパソコン操作機能、および黒板に見立てたタッチパネルにユーザが手書きした文字などの描画画像をパソコンの表示画像に重畳して表示する電子黒板機能などを備える。このような電子情報ボードによれば、オフィスでの会議などで説明のための資料を表示する操作を行いながら、表示画像上に指摘事項などを直接書き込んだり、書き込まれた描画画像を記録したりすることが可能である。これにより、描画画像を再利用して効率的に会議の内容をまとめることができる。
なお、特許文献1には、電子黒板に手書きされたメモを資料に上書きした履歴データをサーバに保存することにより、遠隔会議の複数の拠点の電子黒板に描画画像を重畳して表示する技術が開示されている。
しかしながら、描画情報を端末に配信する従来の配信管理装置は、ネットワークの帯域及び配信管理装置のリソースの消費量を制御しながら、描画情報を端末に配信することができなかった。
本発明は、上記に鑑みてなされたものであって、ネットワークの帯域及び配信管理装置のリソースの消費量を制御しながら描画情報を端末に配信する配信管理装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる配信管理装置は、端末が受け付けた操作入力を示す操作情報を前記端末からネットワークを介して受信する受信部と、前記操作情報から前記端末に表示する描画情報を作成するブラウザと、前記描画情報をエンコードするエンコーダと、前記受信部が前記操作情報を受信した場合に、前記操作情報を受信してから所定の時間が経過するまで、前記エンコーダのフレームレートを上げる制御を行う操作情報制御部と、エンコードされた前記描画情報を前記端末に送信する送信部と、を備える。
本発明によれば、ネットワークの帯域及び配信管理装置のリソースの消費量を制御しながら描画情報を端末に配信することができるという効果を奏する。
図1は、本実施の形態に係る配信システムの概略図である。 図2は、基本的な配信方法を示す概念図である。 図3は、マルチキャストの概念図である。 図4は、配信管理装置を介して複数の通信端末を使った複合配信の概念図である。 図5は、配信管理装置のハードウェア構成の一例を示す図である。 図6は、主に配信管理装置の各機能を示す機能ブロック図である。 図7は、主に通信端末の各機能を示す機能ブロック図である。 図8は、端末管理装置の各機能を示す機能ブロック図である。 図9は、配信先選択メニュー画面の概念図である。 図10は、端末管理テーブルの概念図である。 図11は、利用可能端末管理テーブルの概念図である。 図12は、描画情報の一例を示す概念図である。 図13は、図12の描画情報と通信端末の表示画面との対応を示す図である。 図14は、電子ペン情報の一例を示す概念図である。 図15は、エンコーダブリッジ部の詳細図である。 図16は、変換部の各機能を示す機能ブロック図である。 図17は、配信管理装置の基本的な配信処理を示すシーケンス図である。 図18は、配信管理装置を利用した遠隔共有処理を示すシーケンス図である。 図19は、フレームレートの変更制御処理を示すフローチャートである。 図20は、フレームレートの変更制御処理(タイマー満了時)を示すフローチャートである。 図21は、操作データの解析処理を示すフローチャートである。 図22は、通信端末の画面領域の使用例を示す図である。 図23は、配信管理装置と通信端末との間で行われる時刻調整の処理を示すシーケンス図である。 図24は、配信管理装置から通信端末に送信するデータの回線適応制御の処理を示すシーケンス図である。 図25は、通信端末から配信管理装置に送信するデータの回線適応制御の処理を示すシーケンス図である。 図26は、実施の形態の変形例1のフレームレートの変更制御処理を示すフローチャートである。 図27は、実施の形態の変形例2のフレームレートの変更制御処理を示すフローチャートである。 図28は、実施の形態の変形例2のフレームレートの変更制御処理(タイマー満了時)を示すフローチャートである。 図29は、実施の形態の変形例3のフレームレートの変更制御処理を示すフローチャートである。 図30は、実施の形態の変形例3のフレームレートの変更制御処理のシーケンス図である。
以下に図面を用いて、本実施の形態に係る配信システムを詳細に説明する。以下に示す実施の形態は、クラウドコンピューティングを利用してウェブコンテンツを映像データ、音データ、又は映像データ及び音データに変換してパーソナルコンピュータや電子黒板等の通信端末に配信する配信システムとしての適用例である。なお、以下、映像及び音のうち少なくとも一方を示す場合には、「映像(音)」と表記する。
〔実施の形態の概略〕
まず、図1を用いて、本実施の形態の概略を説明する。図1は、本実施の形態に係る配信システム1の概略図である。
<システム構成の概略>
まず、配信システム1の構成の概略について説明する。
図1に示すように、本実施の形態の配信システム1は、配信管理装置2、複数の通信端末5a1,5a2,5b1,5b2〜5f1,5f2、端末管理装置7、及びウェブサーバ8を備えて構築されている。なお、以下では、複数の通信端末5a1,5a2,5b1,5b2〜5f1,5f2のうち、任意の通信端末を示す場合には、「通信端末5」と表記する。配信管理装置2、端末管理装置7、及びウェブサーバ8は、いずれもサーバコンピュータによって構築されている。
通信端末5は、配信システム1のサービスを受けるユーザが使用する端末である。このうち、通信端末5a1及び通信端末5a2は、ノートPC(Personal Computer)である。通信端末5b1及び通信端末5b2は、スマートフォンやタブレット端末等のモバイル端末である。通信端末5cは、コピー、スキャン、プリント、及びファックスの各機能が複合されたMFP(Multifunction Peripheral/Printer/Product)である。通信端末5dは、プロジェクタである。通信端末5eは、カメラ、マイク及びスピーカを備えたテレビ(ビデオ)会議端末である。通信端末5f1及び通信端末5f2は、ユーザ等によって描かれた内容を電子的に変換することが可能な電子黒板(ホワイトボード)である。
なお、通信端末5は、図1に示したような端末だけでなく、腕時計、自動販売機、ガスメータ、カーナビゲーション装置、ゲーム機、エアコン、照明器具、カメラ単体、マイク単体、スピーカ単体等であってもよい。
また、配信管理装置2、通信端末5、端末管理装置7、及びウェブサーバ8は、インターネットやLAN(Local Area Network)等の通信ネットワーク9によって通信することができる。この通信ネットワーク9には、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access)(登録商標)、LTE(Long Term Evolution)等の無線通信によるネットワークも含まれる。
なお、通信端末5によっては、通信端末5d等のように、通信ネットワーク9を介して他の端末やシステムと通信する機能を有していないものがある。しかし、ユーザが通信端末5dのUSB(Universal Serial Bus)やHDMI(登録商標)(High−Definition Multimedia Interface)のインターフェース部にドングルを差し込むことで、通信端末5は通信ネットワーク9を介して他の端末やシステムと通信可能となる。
配信管理装置2は、クラウド上に存在するウェブブラウザとしての、いわゆるクラウドブラウザ(以下、「ブラウザ20」と表記する)を有する。配信管理装置2は、ブラウザ20を用いてクラウド上でウェブコンテンツをレンダリングし、これにより得られたH.264やMPEG−4等の映像(音)データを通信端末5に配信する。
端末管理装置7は、管理サーバとしての機能を有し、例えば、通信端末5のログイン認証や、通信端末5の契約情報等の管理等を行う。また、端末管理装置7は、電子メールを送信するためのSMTP(Simple Mail Transfer Protocol)サーバの機能を有している。端末管理装置7は、例えば、クラウドのサービス(IaaS:Infrastructure as a Service)上に展開される仮想マシンとして実現することができる。端末管理装置7は、不測の事態に対応して継続的なサービス提供を行うために、多重化して運用することが望ましい。
なお、配信管理装置2のブラウザ20は、リアルタイムコミュニケーション(RTC:Real−time communication/collaboration)を可能にしている。更に、配信管理装置2が備える後述の図16のエンコード部19(エンコーダブリッジ部30)は、ブラウザ20によって生成された映像(音)データに対して、リアルタイムのエンコードを行うことができる。そのため、配信管理装置2の処理は、例えば、DVDプレーヤによって、DVDに記録されているリアルタイム性のない映像(音)データを読み出して配信する場合等とは異なる。
<各種配信方法の概略>
続いて、各種配信方法の概略について説明する。
(基本配信)
図2は、本実施の形態の配信システム1の基本的な配信方法を示す概念図である。配信システム1では、図2に示すように、配信管理装置2のブラウザ20がウェブサーバ8からウェブコンテンツデータ〔A〕を取得し、レンダリングすることにより、映像(音)データ〔A〕を生成する。そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコード等して、通信端末5に配信する。これにより、たとえHTML(HyperText Markup Language)やCSS(Cascading Style Sheets)等により作成されたウェブコンテンツがリッチであっても、H.264やMPEG−4等の映像(音)データとして配信されるため、低スペックの通信端末5であってもスムーズに映像(音)を再生することが可能になる。また、本実施の形態の配信システム1では、配信管理装置2のブラウザ20を最新化しておくことで、ローカルとしての通信端末5にコンテンツを提供するブラウザを最新化しなくても、最新のリッチなウェブコンテンツをスムーズに再生することが可能となる。
また、配信システム1は、上述の配信方法を応用し、図3及び図4に示すように、同一拠点又は複数の拠点にある複数の通信端末5に、ウェブコンテンツを映像(音)データとして配信することも可能である。ここで、図3及び図4に示す配信方法について説明する。
(マルチキャスト)
図3は、マルチキャストの概念図である。図3に示すように、配信管理装置2の単一のブラウザ20は、ウェブサーバ8からウェブコンテンツデータ〔A〕を取得してレンダリングすることで、映像(音)データ〔A〕を生成する。そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコードする。その後、配信管理装置2は、映像(音)データ〔A〕を複数の通信端末5f1,5f2,5f3に配信する。これにより、例えば複数の拠点に配置された複数の通信端末5f1,5f2,5f3において、同じ映像(音)が出力される。なお、この場合、複数の通信端末5f1,5f2,5f3が同じ表示再生能力(解像度が同じ等)を有する必要はない。このような配信方法は、例えば「マルチキャスト」と呼ぶ。
(複合配信)
図4は、配信管理装置2を利用した遠隔共有処理の概念図である。図4に示すように、第1の拠点(図4の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用され、第2の拠点(図4の左側)では、同じく電子黒板としての通信端末5f2及びテレビ会議端末としての通信端末5e2が利用されている。また、第1の拠点では、通信端末5f1にストロークによる文字等の操作データを表示させるための電子ペンP1が利用され、第2の拠点では、通信端末5f2にストロークによる文字等の操作データを表示させるための電子ペンP2が利用されている。なお、図4に示す例では、第1の拠点において、電子黒板としての通信端末5f1にテレビ会議端末としての通信端末5e1が接続され、通信端末5e1のカメラ・マイク・スピーカが、通信端末5f1の外付けのカメラ・マイク・スピーカとして利用されている。同様に、第2の拠点において、電子黒板としての通信端末5f2にテレビ会議端末としての通信端末5e2が接続され、通信端末5e2のカメラ・マイク・スピーカが、通信端末5f2の外付けのカメラ・マイク・スピーカとして利用されている。
また、第1の拠点では、通信端末5a1に表示された画面のキャプチャG1を利用するため、通信端末5a1と通信端末5f1とが、有線又は無線により接続されている。画面のキャプチャG1は、接続方法が有線の場合、画像伝送ケーブル(VGA、HDMI(登録商標)、DisplayPort又はDVI‐I/Dなど)を介して通信端末5f1のキャプチャデバイスに送信され、キャプチャデバイスから内部I/F(PCI−E又はUSBなど)を介してエンコード部60に送信される。
また、画面のキャプチャG1は、接続方法が無線の場合、無線通信によるディスプレイ伝送技術を利用して通信端末5f1の入力デバイスに送信され、入力デバイスから内部I/Fを介してエンコード部60に送信される。無線通信によるディスプレイ伝送技術には、例えばWi−Fi(登録商標)AllianceのMiracast接続や、Intel(登録商標)社のWireless Display接続などがある。
なお、通信端末5f1は、複数の通信端末5aから画面のキャプチャGを受信してもよい。この場合、通信端末5f1は、通信端末5f1の画面に、複数の画面のキャプチャGのサムネイルを表示し、ユーザが選択したサムネイルに対応する通信端末5aの画面のキャプチャGを利用できるようにする。
また、第2の拠点では、端末管理装置7によりログイン認証された通信端末5a2のコンテンツAが利用されている。通信端末5a2は、通信ネットワーク9を介してウェブサーバ8にコンテンツAをアップロードする。ウェブサーバ8は、通信端末5a2のコンテンツAをウェブコンテンツデータとして記憶する。
第1の拠点において、通信端末5e1によって取得された映像(音)データ〔E1〕は、エンコード部60でエンコードされた後に、配信管理装置2に送信される。その後、配信管理装置2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP1によって通信端末5f1に描かれたストローク等を示す操作データ〔p1〕は、配信管理装置2に送信され、ブラウザ20に入力される。また、通信端末5a1の画面キャプチャ〔G1〕は、エンコード部60でエンコードされた後に、配信管理装置2に送信される。その後、配信管理装置2のデコード部40でデコードされて、ブラウザ20に入力される。一方、第2の拠点においても、通信端末5e2によって取得された映像(音)データ〔E2〕は、エンコード部60でエンコードされた後に、配信管理装置2に送信される。その後、配信管理装置2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP2によって通信端末5f2に描かれたストローク等の操作データ〔p2〕は、配信管理装置2に送信され、ブラウザ20に入力される。
一方、ブラウザ20は、例えば、ウェブサーバ8から通信端末5f1,5f2のそれぞれのディスプレイに表示される背景画像のウェブコンテンツデータ〔A〕をウェブサーバ8から取得する。そして、ブラウザ20は、ウェブコンテンツデータ〔A〕、画面キャプチャデータ〔G1〕、操作データ〔p1〕,〔p2〕及び映像(音)データ〔E1〕,〔E2〕を結合してレンダリングすることで、所望のレイアウトに設置した映像(音)データを生成する。そして、エンコーダブリッジ部30は、映像(音)データをエンコードし、配信管理装置2が各拠点に同じ映像(音)データを配信する。これにより、第1の拠点では、通信端末5f1のディスプレイ上に、映像(〔A〕、〔G1〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e1のスピーカから音〔E2(音部分)〕が出力される。一方、第2の拠点でも、通信端末5f2のディスプレイ上に、映像(〔A〕、〔G1〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e2のスピーカから音〔E1(音部分)〕が出力される。なお、第1の拠点では、通信端末5f1のエコーキャンセル機能により、自拠点の音〔E1(音部分)〕は出力されない。一方、第2の拠点では、通信端末5f2のエコーキャンセル機能により、自拠点の音〔E2(音部分)〕は出力されない。
以上により、第1の拠点と第2の拠点とでは、遠隔地間においてリアルタイムで同じ情報を共有する遠隔共有処理を行うことができるため、本実施の形態の配信システム1は遠隔会議等に有効である。
〔実施の形態の詳細な説明〕
続いて、図5乃至図28を用いて、実施の形態の詳細な説明を行う。
<実施の形態のハードウェア構成>
まず、図5を用いて、本実施の形態のハードウェア構成を説明する。図5は、配信管理装置2のハードウェア構成の一例を示す図である。なお、通信端末5、端末管理装置7、及びウェブサーバ8のハードウェア構成は、配信管理装置2のハードウェア構成と同様であるため、説明を省略する。
図5に示すように、配信管理装置2は、配信管理装置2全体の動作を制御するCPU201、IPL等のCPU201の駆動に用いられるプログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203、プログラム等の各種データを記憶するHDD204、CPU201の制御にしたがってHDD204に対する各種データの読み出し又は書き込みを制御するHDC(Hard Disk Controller)205、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ207、各種情報を表示するディスプレイ208、通信ネットワーク9を利用してデータ送信するためのI/F209、キーボード211、マウス212、マイク213、スピーカ214、GPU(Graphics Processing Unit)215、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等のバスライン220を備えている。
なお、各通信端末、各システム又は各サーバ用のプログラムは、インストール可能な形式又は実行可能な形式のファイルで、上記記録メディア206等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
<実施の形態の機能構成>
次に、図6乃至図16を用い、本実施の形態の機能構成について説明する。図6は、主に配信管理装置2の各機能を示す機能ブロック図である。図6では、配信管理装置2が通信端末5f1に対して映像(音)データを配信する場合の機能構成を示しているが、配信先が通信端末5f1以外の場合も、同様の機能構成を有する。なお、配信管理装置2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。
(配信管理装置の機能構成)
配信管理装置2は、図5に例示したハードウェア構成及びプログラムによって、図6に示す各機能構成を実現する。具体的に、配信管理装置2は、ブラウザ20、送受信部21、ブラウザ管理部22、送信用FIFO24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、デコード部40、及び操作データ制御部41を有している。更に、配信管理装置2は、図5に示したHDD204によって構築される記憶部2000を有している。この記憶部2000には、認識部35から出力された後述の認識情報、及び後述の電子黒板情報(電子ペン情報及び描画情報)が記憶される。なお、ブラウザ20が取得したコンテンツデータは、キャッシュとして、記憶部2000に一時的に記憶しておくこともできる。
上述の各機能構成のうち、ブラウザ20は、配信管理装置2内で動作するウェブブラウザである。ブラウザ20は、ウェブコンテンツデータ等のコンテンツデータをレンダリングすることにより、RGBデータ(又はPCM(Pulse Code Modulation)データ)としての映像(音)データを生成する。ブラウザ20は、ウェブコンテンツのリッチ化に対応させて常に最新化されている。
また、本実施の形態の配信システム1では、配信管理装置2内に複数のブラウザ20を用意しており、これら複数のブラウザ20の中からユーザセッションに使用するクラウドブラウザが選択される。なお、ここでは、説明を簡略化するため、単一のブラウザ20が用意されている場合について、以下続けて説明する。
ブラウザ20は、例えば、Media Player、Flash Player、JavaScript(登録商標)、CSS(Cascading Style Sheets)及びHTML(HyperText Markup Language)レンダラを有する。なお、JavaScript(登録商標)には、標準規格のものと配信システム1独自のものが含まれる。ここで、Media Playerは、映像(音)ファイルなどのマルチメディアファイルをブラウザ20内で再生するためのブラウザプラグインである。Flash Playerは、Flashコンテンツをブラウザ20内で再生するためのブラウザプラグインである。独自のJavaScript(登録商標)は、配信システム1に固有のサービスのAPI(Application Programming Interface)を提供するJavaScript(登録商標)群である。CSSは、HTMLで記述されたウェブページの見栄えやスタイルを効率的に定義するための技術である。HTMLレンダラは、ウェブキットベースのHTMLレンダリングエンジンである。また、ブラウザ20は、後述の操作データ〔p〕を後述のブラウザ管理部22から受信し、当該操作データ〔p〕から描画情報、又は電子ペン情報(描画設定情報)を生成する。ブラウザ20は、当該描画情報又は電子ペン情報を記憶部2000に記憶する。描画情報及び電子ペン情報については後述する。
送受信部21は、端末管理装置7やウェブサーバ8との間で、各種データや要求等の送受信を行う。例えば、送受信部21は、ウェブサーバ8のコンテンツサイトからウェブコンテンツデータを取得する。また、送受信部21は、端末管理装置7との間で、認識情報、及び電子黒板情報(描画情報及び電子ペン情報)の送受信を行う。
ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30の管理を行う。例えば、ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30に、起動又は終了を指示したり、起動又は終了時にエンコーダIDを採番したりする。ここで、エンコーダIDは、ブラウザ管理部22がエンコーダブリッジ部30のプロセスを管理するために採番する識別情報である。また、ブラウザ管理部22は、ブラウザ20が起動されるたびに、ブラウザIDを採番して管理する。ここで、ブラウザIDは、ブラウザ管理部22がブラウザ20のプロセスを管理するために採番し、ブラウザ20を識別するための識別情報である。
また、ブラウザ管理部22は、送受信部31及び操作データ制御部41を介して通信端末5から各種操作データ〔p〕を取得し、ブラウザ20に出力する。なお、操作データ〔p〕は、通信端末5での操作イベント(キーボード211やマウス212等による操作や電子ペンPによるストローク等)によって生じたデータである。通信端末5に、温度センサ、湿度センサ、及び加速度センサ等の各種センサが設けられている場合には、ブラウザ管理部22は、通信端末5から各センサの出力信号であるセンサ情報を取得し、ブラウザ20に出力する。
送信用FIFO24は、ブラウザ20で生成された映像(音)データ〔AEp〕を格納するバッファである。
時刻管理部25は、配信管理装置2独自の時刻Tを管理している。時刻取得部26は、後述の通信端末5における時刻制御部56と連携して、時刻調整の処理を行う。具体的には、時刻取得部26は、時刻管理部25から配信管理装置2における時刻Tを示す時刻情報(T)を取得したり、送受信部31及び送受信部51を介して、後述の時刻制御部56から通信端末5における時刻tを示す時刻情報(t)を受信したり、時刻制御部56に時刻情報(t)及び時刻情報(T)を送信したりする。
回線適応制御部27は、送信遅延時間情報(D)に基づいて、再生遅延時間Uを計算したり、エンコーダブリッジ部30における後述の変換部10のフレームレートやデータの解像度等の動作条件を計算したりする。この再生遅延時間Uは、再生までにデータがバッファリングされることで、再生を遅延させるための時間である。
エンコーダブリッジ部30は、ブラウザ20で生成されて送信用FIFO24に格納された映像(音)データ〔AEp〕を、エンコーダブリッジ部30における後述の変換部10に出力する。エンコーダブリッジ部30については、図15及び図16を用いて、更に詳細に説明する。図15は、エンコーダブリッジ部30の詳細図である。また、図16は、変換部10の各機能を示す機能ブロック図である。
図15に示すように、エンコーダブリッジ部30は、生成・選択部310、及び選択部320と、これらの間に構築される複数の変換部10a,10b,10cとを備える。ここでは、3つの変換部10a,10b,10cを示したが、変換部の数はいくつであってもよい。なお、以下、任意の変換部を「変換部10」と表記する。
更に、変換部10は、図16に示すように、トリミング部11、リサイズ部12、及びエンコード部19を有する。トリミング部11、及びリサイズ部12は、音データの場合は、処理を行わない。
トリミング部11は、映像(画像)の一部だけを切り出す処理を行う。リサイズ部12は、映像(画像)の縮尺を変更する。
エンコード部19は、ブラウザ20で生成された映像(音)データをエンコードすることにより、通信ネットワーク9を介して通信端末5に映像(音)データを配信できるように変換する。また、エンコード部19は、映像が動かなければ(フレーム間で変化がなければ)、以降、映像が動くまでスキップフレームを挿入することで帯域をセーブする。なお、音の場合には、エンコードだけが行われる。
生成・選択部310は、新たに変換部10を作成したり、既に作成されている変換部10に対して入力させる映像(音)データを選択したりする。生成・選択部310が新たに変換部10を作成する場合としては、例えば、通信端末5における映像(音)データの再生能力に応じた変換が可能な変換部10を作成する場合等が挙げられる。また、生成・選択部310が変換部10に対して入力させる映像(音)データを選択する場合としては、既に作成されている変換部10を選択する。例えば、通信端末5aへの配信に加えて通信端末5bへの配信を開始するにあたって、通信端末5aへ配信している映像(音)データと同じ映像(音)データを通信端末5bへ配信する場合がある。このような場合で、更に、通信端末5bが通信端末5aにおける映像(音)データの再生能力と同じ再生能力を有する場合等が挙げられる。すなわち、このような場合、生成・選択部310は、通信端末5b用に新たな変換部10bを作成せずに、通信端末5a用に既に作成している変換部10aを利用する。
選択部320は、既に作成されている変換部10から所望のものを選択する。これら生成・選択部310と選択部320による選択によって、図4に示したような様々なパターンの配信を行うことができる。
図6に戻り、送受信部31は、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部31は、通信端末5のログイン処理において、通信端末5の後述する送受信部51に対し、ユーザにログイン要求を促すための認証画面データを送信する。その他に、送受信部31は、HTTPS(HyperText Transfer Protocol over Secure Socket Layer)サーバを介して、配信システム1独自のプロトコルにより、配信システム1のサービスを受けるために通信端末5にインストールされたアプリケーションプログラム(ユーザアプリやデバイスアプリ)へのデータ送信およびデータ受信を行う。この独自のプロトコルは、配信管理装置2と通信端末5との間でリアルタイムに途切れることなくデータを送受信するためのHTTPSベースのアプリケーション層プロトコルである。また、送受信部31は、送信レスポンス制御、リアルタイムのデータ作成、コマンド送信、受信レスポンス制御、受信データ分析、及びジェスチャ変換の各処理を行う。
送信レスポンス制御は、配信管理装置2から通信端末5にデータを送信するために、通信端末5からリクエスト(要求)されたダウンロード用のHTTPSセッションを管理する処理である。このダウンロード用のHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持する。送受信部31は、通信端末5に送るデータを動的にレスポンスのBody部に書き込む。また、再接続のコストをなくすため、通信端末5からは前のセッションが終了しないうちに別のリクエストが届くようにする。送受信部31を、前のリクエストが完了するまで待機させておくようにすることで、再接続を行っても、オーバヘッドを削除することができる。
リアルタイムのデータ作成は、図16のエンコード部19で生成された圧縮映像(および圧縮音)のデータ(RTPデータ)に独自のヘッダを付与して、通信端末5への下り用のHTTPSのBody部に書き込む処理である。
コマンド送信は、通信端末5に送信するコマンドデータを生成し、通信端末5への配信用(下り用)のHTTPSのBody部に書き込む処理である。
受信レスポンス制御は、配信管理装置2が通信端末5からデータを受信するために、通信端末5からリクエストされた送信用(上り用)のHTTPSセッションを管理する処理である。このHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持される。通信端末5は、配信管理装置2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。
受信データ分析は、通信端末5から送られてきたデータを種別ごとに分析し、必要なプロセスにデータを渡す処理である。
ジェスチャ変換は、ユーザが電子黒板としての通信端末5fに電子ペンPや手書きにより入力したジェスチャイベントを、ブラウザ20が受け取れる形式に変換する処理である。
受信用FIFO34は、デコード部40でデコードされた映像(音)データを格納するバッファである。
認識部35は、通信端末5から受信する映像(音)データ〔E〕に対しての処理を行う。具体的には、認識部35は、例えば、サイネージ向けに、後述のカメラ62で撮影された映像から人や動物の顔、年齢、及び性別などを認識する。また、認識部35は、オフィス向けに、後述のカメラ62で撮影された映像から顔認識による名前タグ付けや背景映像の差し替え処理などを行う。認識部35は、認識した内容を示す認識情報を記憶部2000に記憶させる。この認識部35は、認識拡張ボードで処理を行うことで高速化が実現される。
遅延情報取得部37aは、上り用の回線適応制御の処理に用いられる後述の遅延情報取得部57に対応して、下り用の回線適応制御の処理に用いられる。具体的には、遅延情報取得部37aは、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する。
回線適応制御部37bは、上り用の回線適応制御の処理に用いられる上述した回線適応制御部27に対応して、下り用の回線適応制御の処理に用いられる。具体的には、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する。また、回線適応制御部37bは、送受信部31及び後述の送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する。
デコード部40は、通信端末5から送信されて来た映像(音)データ〔E〕をデコードする。
操作データ制御部41は、送受信部31を介して通信端末5から操作データ〔p〕を受信した場合に、エンコーダブリッジ部30のフレームレートを制御する。具体的には、操作データ制御部41は、操作データ〔p〕を受信したときに、エンコーダブリッジ部30のフレームレートを上げる指示をエンコーダブリッジ部30に行い、タイマーをリセットする。そして、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する。
なお、操作データ制御部41は、操作データ〔p〕を受信したときに、既にタイマーがリセットされ、当該タイマーが動作しているときは、エンコーダブリッジ部30にフレームレートを上げる指示を行わない。この場合は、操作データ制御部41は、タイマーのリセットを行うことにより、新たに操作データ〔p〕を受信したときからタイマーをかけ直し、当該操作データ〔p〕をブラウザ管理部22に入力する。操作データ制御部41は、タイマーが満了(所定の時間が経過)すると、エンコーダブリッジ部30のフレームレートを元に戻す指示をエンコーダブリッジ部30に行う。
これにより、ブラウザ20により操作データ〔p〕に応じた描画情報を含む映像(音)データが生成され、エンコーダブリッジ部30が当該描画情報を含む映像(音)データをエンコードするときにフレームレートを上げることができる。すなわち、配信管理装置2が、即応性が要求される映像(音)データを配信する場合にフレームレートを上げるので、ネットワーク帯域及び配信管理装置2のリソースの消費を低減させることができる。
(通信端末の機能構成)
続いて、図7を用いて、通信端末5の機能構成について説明する。図7は、主に通信端末5の各機能を示す機能ブロック図である。図7では、通信端末5の1つとして通信端末5f1を例示しているが、通信端末5f1以外の通信端末5であっても、同様の機能構成を有する。なお、通信端末5のうち、ユーザアプリがインストールされた通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる。一方、デバイスアプリがインストールされた通信端末5は、映像(音)データの送受信や操作データの送信を行うのみで、上記インターフェースは持たない。以下では、便宜上、通信端末5にユーザアプリがインストールされているものとして説明する。
通信端末5は、図4と同様のハードウェア構成及びプログラム(ユーザアプリ)によって、図7に示す各機能構成を実現する。具体的に、通信端末5は、デコード部50、送受信部51、操作部52、再生制御部53、レンダリング部55、時刻制御部56、遅延情報取得部57、表示部58、及びエンコード部60を有している。更に、通信端末5は、RAM203によって構築される記憶部5000を有している。この記憶部5000には、後述の時刻差Δを示す時刻差情報(Δ)、及び通信端末5における時刻tを示す時刻情報(t)が記憶される。
デコード部50は、配信管理装置2から配信され、再生制御部53から出力された映像(音)データ〔AEp〕をデコードする。
送受信部51は、配信管理装置2の送受信部31、及び後述の端末管理装置7の送受信部71aとの間で、各種データや要求等の送受信を行う。例えば、送受信部51は、通信端末5のログイン処理において、操作部52による通信端末5の起動に基づき、端末管理装置7の送受信部71aにログイン要求を行う。
操作部52は、ユーザの操作入力を受け付ける処理を行う。例えば、操作部52は、電源スイッチ、キーボード、マウス、電子ペンP等による入力や選択等を受け付け、操作データ〔p〕として配信管理装置2のブラウザ管理部22に送信する。
再生制御部53は、送受信部51から受けた映像(音)データ〔AEp〕(リアルタイムデータのパケット)をバッファリングし、再生遅延時間Uを考慮してデコード部50に出力する。
レンダリング部55は、デコード部50によってデコードされたデータをレンダリングする。
時刻制御部56は、配信管理装置2の時刻取得部26と連携して、時刻調整の処理を行う。具体的には、時刻制御部56は、記憶部5000から通信端末5における時刻tを示す時刻情報(t)を取得する。また、時刻制御部56は、送受信部51及び送受信部31を介して、配信管理装置2の時刻取得部26に、配信管理装置2における時刻Tを示す時刻情報(T)を要求する。この場合、時刻情報(T)の要求と共に、時刻情報(t)が送信される。
遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する。なお、送信遅延時間情報(D)は、例えば、100フレームに1回送信される。
表示部58は、レンダリング部55によってレンダリングされたデータを再生する。
エンコード部60は、内蔵されたマイク213(図5参照)や、外付けのカメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理装置2のデコード部40に送信する。エンコード部60の動作条件は、回線適応制御部37bから受信した回線適応制御信号に基づいて変更される。更に、動作条件が変更されると、エンコード部60は、新たな動作条件に従って、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)とを、送受信部51及び送受信部31を介して、配信管理装置2のデコード部40に送信する。
なお、内蔵されたマイク213や、外付けのカメラ62及びマイク63は、入力手段の一例であり、エンコードやデコードが必要な各種デバイスである。入力手段は、映像(音)データの他に、触覚(touch)データや嗅覚(smell)データを出力することができてもよい。入力手段には、温度センサ、方位センサ、加速度センサ等の各種センサも含まれる。図7では、電子黒板としての通信端末5f1にテレビ会議端末としての通信端末5eが接続され、通信端末5eのカメラ及びマイクが、通信端末5f1の外付けのカメラ62及びマイク63として利用される例を示している。
(端末管理装置の機能構成)
続いて、図8を用いて、端末管理装置7の機能構成について説明する。図8は、端末管理装置7の各機能を示す機能ブロック図である。
端末管理装置7は、図5と同様のハードウェア構成及びプログラムによって、図8に示す各機能構成を実現する。具体的に、端末管理装置7は、送受信部71a、送受信部71b、及び認証部75を有している。更に、端末管理装置7は、図5に示したHDD204によって構築される記憶部7000を有している。この記憶部7000には、配信先選択メニューデータ7040、端末管理テーブル7010、利用可能端末管理テーブル7020及び電子黒板情報7030が記憶される。電子黒板情報7030は、描画情報及び電子ペン情報を含む。電子黒板情報7030は、定期的、及び通信端末5fの利用終了時に、配信管理装置2から受信して記憶する。端末管理装置7の電子黒板情報7030は、通信端末5fの電源断などによって電子黒板情報7030が消失した場合や、通信端末5fを次に使用するときに前回と同じ電子黒板情報7030を使用したい場合などに利用される。
配信先選択メニューデータ7040は、図9に示すような配信先選択メニュー画面を示すデータである。図9は、配信先選択メニュー画面の概念図である。この図9に示す配信先選択メニュー画面では、映像(音)データの配信先として選択できる通信端末5について、後述の共有ID及び表示名が一覧表示される。ユーザは、この配信先選択メニュー画面上で、映像(音)データの配信先として希望する通信端末5の項目にチェックを入れ、「OK」ボタンを押下することで、希望する通信端末5に映像(音)データを配信させることができる。
図10は、端末管理テーブル7010の概念図である。端末管理テーブル7010では、図10に示すように、登録されている通信端末5の端末ID、ユーザ証明書、ユーザが配信システム1のサービスを利用する際の契約情報、通信端末5の端末種別、各通信端末5のホームURL(Uniform Resource Locator)を示す設定情報、各通信端末5の実行環境情報、共有ID、設置位置情報、及び表示名情報が関連付けて管理されている。このうち、実行環境情報には、各通信端末5の「お気に入り」、「前回のCookie情報」、及び「キャッシュファイル」が含まれており、各通信端末5のログイン後に、設定情報と共に配信管理装置2に送信され、各通信端末5に対して個別のサービスを行うために利用される。
また、共有IDは、各ユーザが、自己の通信端末5に配信されている映像(音)データと同じ内容の映像(音)データを他の通信端末5にも配信させることで、遠隔共有処理を行う場合に利用されるIDであり、他の通信端末又は他の通信端末群を識別する識別情報である。図10に示す例では、端末ID「t006」の共有IDは「v006」であり、端末ID「t007」の共有IDは「v006」であり、また、端末ID「t008」の共有IDは「v006」である。更に、端末ID「t001」の通信端末5aから、共有ID「v006」の通信端末5f1,5f2,5f3との遠隔共有処理の要求があった場合には、配信管理装置2は、通信端末5f1,5f2,5f3に対して、通信端末5aに配信中の映像(音)データと同じ映像(音)データを配信する。但し、通信端末5aと通信端末5f1,5f2,5f3の表示部58の解像度が異なる場合には、これに応じて、配信管理装置2が映像(音)データを配信する。
設置位置情報は、例えば、図3に示したように、複数の通信端末5f1,5f2,5f3が並んで設置される場合の設置位置を示している。表示名情報は、図9に示した配信先選択メニュー画面の表示名の内容を表す情報である。
図11は、利用可能端末管理テーブル7020の概念図である。利用可能端末管理テーブル7020では、端末ID毎に、この端末IDによって示される通信端末5が遠隔共有処理することが可能な他の通信端末又は他の通信端末群を示す共有IDが関連付けて管理されている。
図12は、描画情報の一例を示す概念図である。描画情報は、デバイスID、背景画像特定情報、座標情報及び描画コマンド情報を含む。デバイスIDは、電子ペンPにより図形(文字、記号、図及び絵など)を描いた通信端末5fを識別する識別情報である。なお、本実施の形態では、デバイスIDは、端末管理テーブル7010の端末IDと同じである。背景画像特定情報は、通信端末5fの画面に表示される背景画像を特定するための情報である。例えば、背景画像がウェブページである場合、背景画像特定情報は、当該ウェブページのURLである。また、背景画像がコンピュータに記憶されている文書ファイルのデータである場合、背景画像特定情報は、当該文書ファイルの当該コンピュータ上の記憶位置を示すパス(ディレクトリ)情報、ファイル名及び当該文書ファイル内のページを示す情報などである。座標情報は、通信端末5fの画面に電子ペンPによって描かれた図形の書き始めの位置を示す背景画像内の座標である。描画コマンド情報は、電子ペンPによって描かれた図形を描画するコマンドを示す情報である。
図13は、図12の描画情報と通信端末5fの表示画面との対応を示す図である。図13の図形401に対応する図12の描画情報のデータは、デバイスID「T001」、背景画像特定情報「www.rocoh.co.jp」、座標情報「(x1,y1)」、描画コマンド「図形401」を描画するコマンドである。また、図13の図形402に対応する図12の描画情報のデータは、デバイスID「T002」、背景画像特定情報「www.rocoh.co.jp」、座標情報「(x2,y2)」、描画コマンド「図形402」を描画するコマンドである。また、図13の図形403に対応する図12の描画情報のデータは、デバイスID「T002」、背景画像特定情報「www.rocoh.co.jp」、座標情報「(x3,y3)」、描画コマンド「図形403」を描画するコマンドである。
すなわち、図13の表示画面は、デバイスID「T001」により識別される通信端末5f1に書き込まれた図形401と、デバイスID「T002」により識別される通信端末5f2に書き込まれた図形402及び図形403とを同時に表示した場合の例である。
図14は、電子ペン情報の一例を示す概念図である。電子ペン情報は、デバイスID、線種、太さ、色及び透過率を示す情報を含む。デバイスIDは、図形を描く電子ペンPを識別する情報である。線種は、実線や点線などの線の種類である。太さは、図形を描く線の太さである。色は、図形を描く線の色である。透過率は、図形を描く線を透過させる割合である。
次に、図8に戻り、各機能構成について説明する。
送受信部71aは、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部71aは、通信端末5の送受信部51から端末ID及びユーザ証明書を含むログイン要求を受信したり、送受信部51に対してログイン要求の認証結果を送信したりする。
送受信部71bは、配信管理装置2との間で、各種データや要求等の送受信を行う。例えば、送受信部71bは、配信管理装置2の送受信部21から配信先選択メニューのデータの要求を受信したり、送受信部21に対して、配信先選択メニューのデータを送信したりする。また、送受信部71bは、配信管理装置2の送受信部21から電子黒板情報7030のデータを受信したり、送受信部21に対して、電子黒板情報7030のデータを送信したりする。
認証部75は、通信端末5の送受信部51から受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5の認証を行う。
〔実施の形態の動作または処理〕
続いて、図17乃至図28を用いて、本実施の形態の動作または処理について説明する。
<基本的な配信処理>
まず、図17を用いて、配信管理装置2の基本的な配信方法における具体的な配信処理を説明する。図17は、配信管理装置2の基本的な配信処理を示すシーケンス図である。ここでは、図2に示した基本的な配信のパターンについて具体的な処理を説明する。なお、ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
図17に示すように、通信端末5aにおいてユーザが電源オンにすると、通信端末5aの送受信部51は、端末管理装置7の送受信部71aを介して認証部75に、ログイン要求を行う(ステップS21)。このログイン要求には、通信端末5aの端末ID及びユーザ証明書が含まれている。
次に、端末管理装置7の認証部75は、通信端末5aから受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う(ステップS22)。ここでは、端末管理テーブル7010に同じ組み合わせの端末ID及びユーザ証明書がある、即ち、通信端末5aが配信システム1における正当な端末であると認証された場合について、以下に続けて説明する。
次に、端末管理装置7の認証部75は、送受信部71aを介して、通信端末5aの送受信部51に、配信管理装置2のIPアドレスを送信する(ステップS23)。なお、配信管理装置2のIPアドレスは、予め、端末管理装置7によって取得されて、記憶部7000に記憶されている。
次に、端末管理装置7の送受信部71bは、配信管理装置2の送受信部21を介して、ブラウザ管理部22に、ブラウザ20の起動要求を行う(ステップS24)。この起動要求に応じて、配信管理装置2のブラウザ管理部22は、ブラウザ20を起動させる(ステップS25)。次に、エンコーダブリッジ部30の生成・選択部310が、通信端末5aの再生能力(ディスプレイの解像度等)及びコンテンツの種類に従って変換部10を作成する(ステップS26)。
次に、ブラウザ20が、ウェブサーバ8に対して、コンテンツデータ〔A〕を要求する(ステップS27)。これに応じて、ウェブサーバ8は、要求されたコンテンツデータ〔A〕を自己の記憶部(不図示)から読み出す(ステップS28)。そして、ウェブサーバ8は、配信管理装置2の送受信部21を介して、要求元であるブラウザ20にコンテンツデータ〔A〕を送信する(ステップS29)。
次に、ブラウザ20が、コンテンツデータ〔A〕をレンダリングして映像(音)データ〔A〕を生成し、送信用FIFO24に出力する(ステップS30)。そして、変換部10が、送信用FIFO24に格納された映像(音)データ〔A〕をエンコードすることで、通信端末5aに配信すべき映像(音)データ〔A〕に変換する(ステップS31)。
次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、再生制御部53に映像(音)データ〔A〕を送信する(ステップS32)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔A〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS33)。
<複数の通信端末を使った通信の処理>
続いて、図18を用いて、配信管理装置2を利用した遠隔共有処理を説明する。図18は、配信管理装置2を利用した遠隔共有処理を示すシーケンス図である。ここでは、複数の通信端末5として通信端末5f1,5f2を想定し、図4に示したパターンについて具体的な処理を説明する。なお、ここでも、図17のステップS21〜ステップS29と同様のログイン処理及びブラウザ起動等の処理が行われるが、図17のステップS21〜ステップS28に対応する処理の説明は省略し、ステップS29に対応するステップS41の処理から説明する。
図18に示すように、配信管理装置2のブラウザ20は、ウェブサーバ8から送受信部21を介してコンテンツデータ〔A〕を受信する(ステップS41)。そして、ブラウザ20は、コンテンツデータ〔A〕をレンダリングすることにより、映像(音)データを生成して、送信用FIFO24に出力する(ステップS42)。
一方、通信端末5f1のエンコード部60が、カメラ62及びマイク63からコンテンツデータ〔E〕の入力を受け付けると(ステップS43)、エンコード部60はエンコードした後、送受信部51及び送受信部31を介して、配信管理装置2のデコード部40にコンテンツデータ〔E〕を送信する(ステップS44)。これにより、コンテンツデータ〔E〕は、デコード部40でデコードされた後、受信用FIFO34を介して、ブラウザ20に入力される。そして、ブラウザ20は、コンテンツデータ〔E〕をレンダリングすることにより、映像(音)データ〔E〕を生成して、送信用FIFO24に出力する(ステップS45)。この場合、ブラウザ20は、既に取得しているコンテンツデータ〔A〕に対して、コンテンツデータ〔E〕を結合して出力する。
更に、通信端末5f1の操作部52が、電子ペンP1によるストローク操作の入力を受け付けると(ステップS46)、操作部52は、送受信部51及び送受信部31を介して、操作データ制御部41に操作データ〔p〕を送信する(ステップS47−1)。操作データ制御部41は、操作データ〔p〕に基づいてエンコーダブリッジ部30のフレームレートの変更制御を行う(ステップS47−2)。ここでフレームレートの変更制御処理について説明する。
図19は、フレームレートの変更制御処理を示すフローチャートである。操作データ制御部41は、送受信部31を介して通信端末5から操作データ〔p〕を受信する(ステップS201)。次に、操作データ制御部41は、エンコーダブリッジ部30のフレームレート(fps:Frames Per Second)を既に変更しているか否かを判定する(ステップS202)。具体的には、操作データ制御部41は、フレームレートの変更時間を制御するタイマーが既にリセット(後述のステップS204)され、タイマー満了までカウント中であるか否かによりフレームレートが既に変更されているか否かを判定する。
フレームレートを既に変更している場合(ステップS202、Yes)、操作データ制御部41は、タイマーをリセットすることによりタイマーをかけ直し(ステップS204)、操作データ〔p〕をブラウザ管理部22に入力する(ステップS205)。
フレームレートをまだ変更していない場合(ステップS202、No)、操作データ制御部41は、エンコーダブリッジ部30のフレームレートを上げる指示をエンコーダブリッジ部30に行い(ステップS203)、タイマーをリセットする(ステップS204)。次に、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する(ステップS205)。
図20は、フレームレートの変更制御処理(タイマー満了時)を示すフローチャートである。操作データ制御部41は、タイマーが満了したか否かを判定する(ステップS211)。タイマーが満了した場合(ステップS211、Yes)、操作データ制御部41は、フレームレート(fps:Frames Per Second)を元に戻す指示をエンコーダブリッジ部30に行う(ステップS212)。
図18に戻り、ブラウザ20は、ブラウザ管理部22から操作データ〔p〕を受け付け、操作データ〔p〕を解析する処理を行う(ステップS47−3)。
図21は、操作データの解析処理を示すフローチャートである。ブラウザ20は、操作データ〔p〕に含まれる画面領域の位置情報に基づいて、当該操作データ〔p〕が描画処理に係るデータであるか否かを判定する(ステップS251)。ここで、通信端末5fの画面領域について説明する。
図22は、通信端末5fの画面領域の使用例を示す図である。図22の例では、通信端末5fの画面領域は、描画領域、背景画像操作用メニュー領域、配信用メニュー領域及び描画用メニュー領域を有する。描画領域は、電子ペンPにより図形を描くことができる領域である。背景画像操作用メニュー領域は、背景画像を変更する操作を行うための領域である。配信用メニュー領域は、描画領域の情報の配信先を決定するなどの操作を行うための領域である。描画用メニュー領域は、電子ペンPによる描画に関する設定を変更する操作を行うための領域である。電子ペンPによる描画に関する設定は、例えば、描画モード(描画又は消去)の設定や、電子ペン情報(線種、太さ、色及び透過率など)の設定などである。ブラウザ20は、電子ペンPにより指示された画面領域内の位置を示す位置情報が、図22の描画領域に含まれるか否かに基づいて、当該操作データ〔p〕が描画処理に係るデータであるか否かを判定する。なお、電子ペンPによって指示された画面領域内の位置は、通信端末5fが、当該電子ペンPが通信端末5fの画面に接触又は接近したことを検知することにより検出する。
図21に戻り、描画処理に係るデータでない(メニュー処理に係るデータである)場合(ステップS251、No)、ブラウザ20は、画面領域の位置情報に基づいてメニュー処理を行う(ステップS259)。当該メニュー処理は、例えば、電子ペン情報の変更に係る設定を反映する処理などである。画面領域の位置に対応するメニュー処理の内容は、例えばメニュー情報として記憶部2000に記憶されていてもよいし、当該メニュー情報を背景画像(コンテンツAなど)にひも付けておき、コンテンツに応じてメニュー処理を変更できるようにしてもよい。次に、ブラウザ20は、メニュー処理によって変更した設定を記憶部2000に保存し(ステップS260)、処理を終了する。
描画処理に係るデータである場合(ステップS251、Yes)、ステップS252に進む。ブラウザ20は、操作データ〔p〕に含まれる操作モードを示す情報が描画モードであるか否かを判定する(ステップS252)。例えば、電子ペンPに操作モードの切替スイッチがある場合、操作モードを示す情報は、当該切替スイッチの選択信号である。また、ブラウザ20は、操作モードを示す情報を描画メニューの設定から特定してもよい。
描画モードである場合(ステップS252、Yes)、ブラウザ20は、操作データ〔p〕に含まれる電子ペンPのデバイスIDを検索キーにして、記憶部2000の電子ペン情報のデバイスIDを検索し、検索された電子ペン情報を読み出す(ステップS253)。次に、ブラウザ20は、当該電子ペン情報と、操作データ〔p〕に含まれる電子ペンPの位置情報とから描画コマンドを生成する(ステップS254)。次に、当該描画コマンドが示す図形を描画レイヤに描画する(ステップS255)。なお、ブラウザ20は、既に描画レイヤに図形が描かれている場合、ステップS254で生成した描画コマンドが示す図形を当該描画レイヤに追加する(差分描画)。ブラウザ20は、背景画像と描画レイヤとを合成した画像データ(表示情報)を出力し(ステップS256)、処理を終了する。
描画モードでない(消去モードである)場合(ステップS252、No)、ブラウザ20は、操作データに含まれる位置情報から消去する画像に対応する描画コマンドを選択する(ステップS257)。次に、ブラウザ20は、選択された描画コマンドに対応する図形を画像データ(描画レイヤ)から削除(ステップS258)し、処理を終了する。
図18に戻り、ブラウザ20は、ステップS47−3の操作データ〔p〕の解析処理を反映した画像データ〔p〕を送信用FIFO24に出力する(ステップS48)。この場合、ブラウザ20は、既に取得しているコンテンツデータ(〔A〕,〔E〕)に対して、操作データ〔p〕を結合して出力する。
次に、変換部10が、送信用FIFO24に格納された映像(音)データ(〔A〕,〔E〕,〔p〕)をエンコードすることで、通信端末5aに配信すべき映像(音)データ(〔A〕,〔E〕,〔p〕)に変換する(ステップS49)。そして、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5f1の再生制御部53に映像(音)データ(〔A〕,〔E〕,〔p〕)を送信する(ステップS50−1)。その後、映像(音)データ(〔A〕,〔E〕,〔p〕)は、通信端末5f1のデコード部50でデコードされてスピーカ61に音が出力されると共に、レンダリング部55でレンダリングされて表示部58に映像が出力される(ステップS51−1)。
また、通信端末5f2に対しても、ステップS50−1と同様に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5f2の再生制御部53に対しても、同様の映像(音)データ(〔A〕,〔E〕,〔p〕)を送信する(ステップS50−2)。その後、映像(音)データ(〔A〕,〔E〕,〔p〕)は、通信端末5f2のデコード部50でデコードされてスピーカ61に音が出力されると共に、レンダリング部55でレンダリングされて表示部58に映像が出力される(ステップS51−2)。これにより、通信端末5f1で出力される映像(音)と同じ映像(音)が、通信端末5f2でも出力されることになる。
<時刻調整の処理>
続いて、図23を用いて、時刻調整の処理について説明する。図23は、配信管理装置2と通信端末5との間で行われる時刻調整の処理を示すシーケンス図である。
まず、通信端末5の時刻制御部56は、送受信部51が配信管理装置2に時刻情報(T)を要求する時刻を取得するために、記憶部5000から通信端末5における時刻情報(t)を取得する(ステップS81)。そして、送受信部51は送受信部31に、配信管理装置2における時刻情報(T)を要求する(ステップS82)。この場合、時刻情報(T)の要求と共に、上記時刻情報(t)が送信される。
次に、時刻取得部26は、送受信部31が上記ステップS82の要求を受信した時刻を取得するために、時刻管理部25から配信管理装置2における時刻情報(T)を取得する(ステップS83)。更に、時刻取得部26は、送受信部31が上記ステップS82の要求に応答する時刻を取得するために、時刻管理部25から配信管理装置2における時刻情報(T)を取得する(ステップS84)。そして、送受信部31は送受信部51に、時刻情報(t,T,T)を送信する(ステップS85)。
次に、通信端末5の時刻制御部56は、送受信部51が上記ステップS85の応答を受信した時刻を取得するために、記憶部5000から通信端末5における時刻情報(t)を取得する(ステップS86)。
そして、通信端末5の時刻制御部56は、配信管理装置2と通信端末5との間の時刻差Δを計算する(ステップS87)。この時刻差Δは、以下の式(1)によって表される。
Δ=((T+T)/2)−((t+t)/2)・・・(1)
そして、時刻制御部56は、記憶部5000に時刻差データΔを記憶する(ステップS88)。この時刻調整の一連の処理は、例えば、毎分定期的に行われる。
<下り用の回線適応制御の処理>
続いて、図24を用いて、配信管理装置2から通信端末5に送信する(下り)データの回線適応制御の処理を説明する。図24は、配信管理装置2から通信端末5に送信するデータの回線適応制御の処理を示すシーケンス図である。
まず、配信管理装置2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5の再生制御部53に、再生までにバッファリングして再生を遅延させるための再生遅延時間を示す再生遅延時間情報(U)を送信する(ステップS101)。また、エンコーダブリッジ部30は、送信用FIFO24から取得してエンコード等を行った映像(音)データ〔A〕に対して、時刻管理部25から取得した現時点の時刻T0をタイムスタンプとして付加し、送受信部31及び送受信部51を介して、通信端末5の再生制御部53に送信する(ステップS102)。
一方、通信端末5では、再生制御部53が、通信端末5における時刻(T+U−Δ)になるまで待ってから、映像(音)データをデコード部50に出力することで、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS103)。即ち、下記式(2)に示される再生遅延時間Uの範囲内に通信端末5が受信した映像(音)データだけが再生されることになり、範囲外の映像(音)データは再生されずに消去される。
U≧(t0+Δ)−T0 ・・・(2)
また、再生制御部53は、記憶部5000から、通信端末5における現時点の時刻t0を読み出す(ステップS104)。この時刻t0は、通信端末5が配信管理装置2から映像(音)データを受信した時点の通信端末5における時刻を示す。更に、再生制御部53は、記憶部5000から、図23のステップS88によって記憶されている時刻差Δを示す時刻差情報(Δ)を読み出す(ステップS105)。そして、再生制御部53は、上記の時刻T0と時刻t0と時刻差Δとを用いて、映像(音)データが配信管理装置2から送信されて通信端末5で受信されるまでの時間を示す送信遅延時間D1を計算する(ステップS106)。この計算は、下記式(3)によって行われる。通信ネットワーク9が混雑している場合には、送信遅延時間D1が長くなる。
D1=(t0+Δ)−T0 ・・・(3)
次に、遅延情報取得部57が、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して、配信管理装置2の回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する(ステップS107)。
次に、配信管理装置2の回線適応制御部27は、送信遅延時間情報(D)に基づいて、新たに再生遅延時間U’を計算したり、変換部10のフレームレートやデータの解像度等の動作条件を計算したりする(ステップS108)。
次に、配信管理装置2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5の再生制御部53に、上記ステップS108によって計算された新たな再生遅延時間U’を示す再生遅延時間情報(U’)を送信する(ステップS109)。
更に、エンコーダブリッジ部30内の変換部10が、回線適応制御信号に基づいて、動作条件を変更する(ステップS110)。例えば、送信遅延時間D1が長すぎる場合、送信遅延時間D1に応じて再生遅延時間Uを長くすると、スピーカ61や表示部58での再生時間が遅くなり過ぎるため、再生遅延時間Uを長くすることには限界がある。そこで、回線適応制御部27は、エンコーダブリッジ部30に対して、再生遅延時間Uを変更させて再生遅延時間U’とするだけでなく、変換部10に対して、映像(音)データのフレームレートを下げさせたり、映像(音)データの解像度を下げさせたりすることで、通信ネットワーク9の混雑に対応することができる。これにより、エンコーダブリッジ部30は、変更後の動作条件に従って、上記ステップS102のように、現時点の時刻T0をタイムスタンプとして付加した映像(音)データを通信端末5の再生制御部53に送信する(ステップS111)。
次に、通信端末5では、再生制御部53が、通信端末5における時刻(T+U’−Δ)になるまで待ってから、映像(音)データをデコード部50に出力することで、上記ステップS103のように、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS112)。その後、上記ステップS104以降の処理が続けて行われる。このようにして、下り用の回線適応制御の処理が継続して行われる。
<上り用の回線適応制御の処理>
続いて、図25を用いて、通信端末5から配信管理装置2に送信する(上り)データの回線適応制御の処理を説明する。図25は、通信端末5から配信管理装置2に送信するデータの回線適応制御の処理を示すシーケンス図である。
まず、通信端末5のエンコード部60は、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)とを、送受信部51及び送受信部31を介して、配信管理装置2のデコード部40に送信する(ステップS121)。
次に、配信管理装置2では、デコード部40が上記ステップS121によって映像(音)データ〔E〕等を受信した時点の時刻Tを、時刻管理部25から読み出す(ステップS122)。そして、デコード部40は、映像(音)データが通信端末5から送信されて配信管理装置2で受信されるまでの時間を示す送信遅延時間d1を計算する(ステップS123)。この計算は、下記式(4)によって行われる。通信ネットワーク9が混雑している場合には、送信遅延時間d1が長くなる。
d1=T0−(t0+Δ) ・・・(4)
次に、配信管理装置2の遅延情報取得部37aは、通信端末5の遅延情報取得部57と同様に、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する(ステップS124)。
次に、回線適応制御部37bが、送信遅延時間情報(d)に基づいて、通信端末5のエンコード部60の動作条件を計算する(ステップS125)。そして、回線適応制御部37bは、送受信部31及び送受信部51を介して、通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する(ステップS126)。即ち、下りの場合の回線適応制御部27は、同じ配信管理装置2内でエンコーダブリッジ部30に回線適応制御信号を出力するのに対して、上りの場合の回線適応制御部37bは、配信管理装置2から通信ネットワーク9を介して、通信端末5に回線適応制御信号を送信する。
次に、通信端末5のエンコード部60が、受信した回線適応制御信号に基づいて、動作条件を変更する(ステップS127)。そして、エンコード部60は、新たな動作条件によって、上記ステップS121のように、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理装置2のデコード部40に送信する(ステップS128)。その後、上記ステップS122以降の処理が続けて行われる。このようにして、上り用の回線適応制御の処理が継続して行われる。
〔実施の形態の主な効果〕
以上、具体的な例を挙げながら詳細に説明したように、本実施の形態の配信システム1では、クラウド上で配信管理装置2がブラウザ20及びエンコード等を行うエンコーダブリッジ部30を有する。これにより、ブラウザ20が所定の記述言語で示されたコンテンツデータから映像データ又は音データを生成し、エンコーダブリッジ部30が通信ネットワーク9を介して配信することができるようにデータ形式を変換してから通信端末5に配信する。よって、通信端末5では、所定の記述言語で示されたコンテンツデータを受信する負荷、及び受信後に映像データ又は音データに変換する負荷が低減されるため、コンテンツのリッチ化に対応させるための負荷が高いという問題を解消することができる。
特に、ブラウザ20は、リアルタイムコミュニケーションを可能にし、変換部10は、ブラウザ20によって生成された映像(音)データに対してリアルタイムのエンコードを行う。よって、例えば、映像(音)データのオンデマンド配信のように、DVDプレーヤがリアルタイム性のない(つまり、予めエンコードされている)映像(音)データを選択して配信する場合とは異なり、配信管理装置2は、配信する直前に取得したコンテンツをレンダリングすることで映像(音)データを生成してからエンコードするため、リアルタイム性に優れた映像(音)データの配信を行うことができる。
また、本実施の形態の配信システム1では、通信端末5から受信した操作データ〔p〕に応じた描画情報を含む映像(音)データを、配信管理装置2から通信端末5に配信する場合、操作データ制御部41が映像(音)データのエンコードの設定を一時的に変更する(品質を上げる)。これにより例えば1台の物理的な配信管理装置2で複数の通信端末5に、それぞれ違う映像(音)データを配信しているときに、通信ネットワーク9の帯域及び配信管理装置2のリソース(CPU201等)の消費を適切に分散させることができる。すなわち、通信ネットワーク9の帯域及び配信管理装置2のリソースの消費量を制御しながら描画情報を通信端末5に配信することができる。
<実施の形態の変形例1>
次に、実施の形態の変形例1について説明する。上述の実施の形態の操作データ制御部41の説明では、送受信部31を介して通信端末5から操作データ〔p〕を受信した場合に、エンコーダブリッジ部30のフレームレートを制御する動作について説明した。本変形例1では、更に操作データ〔p〕の描画モード情報に基づいてエンコーダブリッジ部30のフレームレートを制御する場合について説明する。具体的には、本変形例1では描画モード情報が消去(消しゴム)を示す場合にエンコーダブリッジ部30のフレームレートを上げる。ここで描画モード情報が消去(消しゴム)を示す場合にエンコーダブリッジ部30のフレームレートを上げる理由について説明する。
通信端末5で描画された手書き線(電子ペンPのストローク操作による文字等)は、配信管理装置2へ送信された後に、同装置にて描画された描画情報が通信端末5へ送信されることにより表示される(図4参照)。これによる手書き操作性の低下を防止するために、手書き線を描画した通信端末5では、通信端末5が一時的に手書き線を表示する方式を採用している。しかしながら、この通信端末5で一時的に表示を行う処理は手書き線の描画時には可能であるが、消去時には採用できない。すなわち、操作モードが消去である場合、操作モードが描画である場合よりも更に即応性が要求される。そこで本変形例1では、描画モードが消去の場合、フレームレートを上げることにより消しゴム操作性の低下を低減する動作について説明する。
本変形例1の配信管理装置2の構成の説明は、実施の形態の説明(図6)と同じなので省略する。
図26は、実施の形態の変形例1のフレームレートの変更制御処理を示すフローチャートである。操作データ制御部41は、送受信部31を介して通信端末5から操作データ〔p〕を受信する(ステップS221)。次に、操作データ制御部41は、操作モードを取得し(ステップS222)、操作モードが消去モードであるか否かを判定する(ステップS223)。操作モードを示す情報は、例えば電子ペンPに操作モードの切替スイッチ(描画又は消去(消しゴム)等)がある場合、当該切替スイッチの選択信号である。また操作データ制御部41がブラウザ管理部22を介してブラウザ20から、操作モード(描画、消去(消しゴム)、及び手書き線の種類選択等)や操作内容(ページ送り及びページ戻し等)等を含む情報を取得して操作モードを判定してもよい。
操作モードが消去モードでない場合(ステップS223、No)、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する(ステップS226)。
操作モードが消去モードである場合(ステップS223、Yes)、操作データ制御部41は、エンコーダブリッジ部30のフレームレート(fps:Frames Per Second)を上げる指示をエンコーダブリッジ部30に行い(ステップS224)、タイマーをリセットする(ステップS225)。次に、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する(ステップS226)。
ステップS225でリセットしたタイマーの満了時のフレームレートの変更制御処理は、実施の形態の図20の説明と同じであるため説明を省略する。
以上説明したように、本変形例1の配信管理装置2では、操作モードが、より即応性が要求される消去の場合に、エンコーダブリッジ部30のフレームレートを上げることにより、通信ネットワーク9の帯域及び配信管理装置2のリソースの消費量を制御することができる。
なお、本変形例1では、より即応性が要求される操作モードが消去である場合を例にして説明したが、より即応性が要求される操作モードは消去に限られず任意でよい。すなわち、描画及び消去等を含む複数の操作状態のうち一の操作状態を示す操作モードが、ある特定の操作状態である場合に、エンコーダブリッジ部30のフレームレートを上げる制御をしてもよい。
<実施の形態の変形例2>
次に、実施の形態の変形例2について説明する。上述の実施の形態の操作データ制御部41の説明では、送受信部31を介して通信端末5から操作データ〔p〕を受信した場合に、エンコーダブリッジ部30のフレームレートを制御する動作について説明した。本変形例2では、更にエンコーダブリッジ部30の解像度を制御する場合について説明する。本変形例2の配信管理装置2の構成の説明は、実施の形態の説明(図6)と同じなので省略する。
図27は、実施の形態の変形例2のフレームレートの変更制御処理を示すフローチャートである。操作データ制御部41は、送受信部31を介して通信端末5から操作データ〔p〕を受信する(ステップS231)。次に、操作データ制御部41は、エンコーダブリッジ部30のフレームレート(fps:Frames Per Second)及び解像度を既に変更しているか否かを判定する(ステップS232)。具体的には、操作データ制御部41は、フレームレート及び解像度の変更時間を制御するタイマーが既にリセット(後述のステップS234)され、タイマー満了までカウント中であるか否かによりフレームレート及び解像度が既に変更されているか否かを判定する。
フレームレート及び解像度を既に変更している場合(ステップS232、Yes)、操作データ制御部41は、タイマーをリセットすることによりタイマーをかけ直し(ステップS234)、操作データ〔p〕をブラウザ管理部22に入力する(ステップS235)。
フレームレート及び解像度をまだ変更していない場合(ステップS232、No)、操作データ制御部41は、エンコーダブリッジ部30のフレームレートを上げ、解像度を下げる指示をエンコーダブリッジ部30に行い(ステップS233)、タイマーをリセットする(ステップS234)。ここで、操作データ制御部41がエンコーダブリッジ部30に解像度を下げるように指示する理由は、フレームレートを上げると通信ネットワーク9の帯域の消費量が上がるためである。解像度を下げることにより通信ネットワーク9の帯域の消費量を下げることができ、配信管理装置2が通信端末5に送信する映像(音)データのフレームの到着が遅延することを防ぐことができる。次に、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する(ステップS235)。
図28は、実施の形態の変形例2のフレームレートの変更制御処理(タイマー満了時)を示すフローチャートである。操作データ制御部41は、タイマーが満了したか否かを判定する(ステップS241)。タイマーが満了した場合(ステップS241、Yes)、操作データ制御部41は、フレームレート(fps:Frames Per Second)及び解像度を元に戻す指示をエンコーダブリッジ部30に行う(ステップS242)。
以上説明したように、本変形例2の配信管理装置2では、操作データ〔p〕を受信した場合に、エンコーダブリッジ部30のフレームレートを上げ、解像度を下げることにより、通信ネットワーク9の帯域及び配信管理装置2のリソースの消費量を制御することができる。
<実施の形態の変形例3>
次に、実施の形態の変形例3について説明する。上述の実施の形態の操作データ制御部41の説明では、通信端末5から操作データ〔p〕を受信した場合に、フレームレートを変更する時間を制御するタイマーを使用して、エンコーダブリッジ部30のフレームレートを制御する動作について説明した。本変形例3では、タイマーを使用せずにフレームレートを制御する場合について説明する。本変形例3の配信管理装置2の構成の説明は、実施の形態の説明(図6)と同じなので省略する。
図29は、実施の形態の変形例3のフレームレートの変更制御処理を示すフローチャートである。操作データ制御部41は、送受信部31を介して通信端末5から操作データ〔p〕を受信する(ステップS271)。次に、操作データ制御部41は、操作データ〔p〕をブラウザ管理部22に入力する(ステップS272)。次に、操作データ制御部41は、操作データ〔p〕がブラウザ20に到達したか否かを判定する(ステップS273)。操作データ〔p〕がブラウザ20に到達した場合(ステップS273、Yes)、操作データ制御部41は、エンコーダブリッジ部30にフレームレートを上げてエンコードを行う臨時エンコードを指示する(ステップS274)。
図30は、実施の形態の変形例3のフレームレートの変更制御処理のシーケンス図である。操作データ制御部41は、送受信部31を介して通信端末5から受信した操作データ〔p〕をブラウザ管理部22に入力する(ステップS281)。次に、ブラウザ管理部22は、操作データ制御部41から受信した操作データ〔p〕をブラウザ20に入力する(ステップS282)。次に、ブラウザ20は、ブラウザ管理部22から操作データ〔p〕を受信したことを示すReplyをブラウザ管理部22に通知する(ステップS283)。次に、ブラウザ管理部22は、ブラウザ20からReplyを受信したことを示すReplyを操作データ制御部41に通知する(ステップS284)。次に、操作データ制御部41は、ブラウザ管理部22からReplyを受信すると、フレームレートを上げてエンコードを行う臨時エンコードを、エンコーダブリッジ部30に指示する(ステップS285)。
以上説明したように、本変形例3の配信管理装置2では、操作データ〔p〕がブラウザ20に到達した場合に、操作データ制御部41が、エンコーダブリッジ部30にフレームレートを上げてエンコードを行う臨時エンコードを指示する。すなわち、操作データ〔p〕に応じた描画情報を含む映像(音)データに、フレームレートを上げた臨時エンコードを1度実施することにより、通信ネットワーク9の帯域及び配信管理装置2のリソースの消費量を制御できる。
一般に、配信管理装置2が高フレームレートで映像(音)データをエンコードすると、即応性が向上するためユーザビリティーが向上するが、その分、配信管理装置2のリソース(CPU201等)や通信ネットワーク9の帯域を消費してしまう。実施の形態及び変形例1〜3の配信管理装置2は、配信管理装置2と通信端末5との間でインタラクションが発生する場合(通信端末5で描画された手書き線が、配信管理装置2へ送信された後に、同装置にて描画された描画情報が通信端末5へ送信される場合等)を、即応性が要求される状況として判定し、映像(音)データのエンコードの設定を一時的に変更して通信ネットワーク9の帯域及び配信管理装置2のリソースの消費量を制御する。これにより、ユーザビリティーの向上を図りながら、配信管理装置2のリソース(CPU201)や通信ネットワーク9の帯域を削減することができる。
〔補足説明〕
本実施の形態の配信システム1では、端末管理装置7と配信管理装置2とを互いに別個の装置として構成しているが、例えば、配信管理装置2に端末管理装置7の機能を持たせるなどにより、端末管理装置7と配信管理装置2とを一体の装置として構成するようにしてもよい。
また、上記実施の形態における配信管理装置2、及び端末管理装置7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
更に、上記実施の形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHDD204は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
1 配信システム
2 配信管理装置
5 通信端末
7 端末管理装置
8 ウェブサーバ
9 通信ネットワーク
10 変換部
11 トリミング部
12 リサイズ部
19 エンコード部
20 ブラウザ
21 送受信部
22 ブラウザ管理部
24 送信用FIFO
30 エンコーダブリッジ部
31 送受信部
特許第4696480号公報

Claims (11)

  1. 端末が受け付けた操作入力を示す操作情報を前記端末からネットワークを介して受信する受信部と、
    前記操作情報から前記端末に表示する描画情報を作成するブラウザと、
    前記描画情報をエンコードするエンコーダと、
    前記受信部が前記操作情報を受信した場合に、前記操作情報を受信してから所定の時間が経過するまで、前記エンコーダのフレームレートを上げる制御を行う操作情報制御部と、
    エンコードされた前記描画情報を前記端末に送信する送信部と、
    を備える配信管理装置。
  2. 前記操作情報は、複数の種類の操作状態のうち一の操作状態を示す描画モード情報を更に含み、
    前記操作情報制御部は、前記操作情報の前記描画モード情報が第1操作状態を示す場合に、前記操作情報を受信してから所定の時間が経過するまで、前記エンコーダのフレームレートを上げる制御を行い、
    前記ブラウザは、前記描画モード情報に基づいて前記描画情報の処理を行う
    請求項1に記載の配信管理装置。
  3. 前記第1操作状態は消去である
    請求項2に記載の配信管理装置。
  4. 前記操作情報制御部は、前記受信部が前記操作情報を受信してから所定の時間が経過するまで、更に前記エンコーダの解像度を下げる制御を行う
    請求項1乃至3のいずれか1項に記載の配信管理装置。
  5. 前記操作情報は、前記端末を識別する識別情報を更に含み、
    前記配信管理装置は、
    前記描画情報と、前記識別情報とを関連付けて記憶する記憶部を更に備え、
    前記送信部は、前記描画情報と関連付けられた前記識別情報により識別される前記端末に、エンコードされた前記描画情報を送信する
    請求項1乃至4のいずれか1項に記載の配信管理装置。
  6. 前記操作情報は、前記端末の表示画面上の座標情報を更に含み、
    前記ブラウザは、
    前記座標情報に基づいて前記描画情報の作成又は前記端末の描画設定情報の変更を行う
    請求項1乃至5のいずれか1項に記載の配信管理装置。
  7. 前記描画設定情報は、線の太さと、線の色と、線の種類とを含む
    請求項6に記載の配信管理装置。
  8. 前記ブラウザは、
    前記操作情報の前記座標情報と、前記描画設定情報とに基づいて、描画コマンドを生成し、前記描画コマンドにより前記描画情報を作成する
    請求項6又は7に記載の配信管理装置。
  9. 前記受信部は、
    ウェブサーバからネットワークを介してコンテンツを更に受信し、
    前記ブラウザは、
    前記コンテンツに、前記描画情報を重畳させた表示情報を表示し、
    前記エンコーダは、
    前記表示情報をエンコードし、
    前記送信部は、
    エンコードされた前記表示情報を前記端末に送信する
    請求項1乃至8のいずれか1項に記載の配信管理装置。
  10. 前記記憶部は、
    前記描画情報と、前記描画情報の前記コンテンツ上の位置とを関連付けて記憶する
    請求項9に記載の配信管理装置。
  11. 端末が受け付けた操作入力を示す操作情報を前記端末からネットワークを介して受信する受信部と、
    前記操作情報から前記端末に表示する描画情報を作成するブラウザと、
    前記描画情報をエンコードするエンコーダと、
    前記ブラウザが前記操作情報を受け付けた場合に、フレームレートを上げて前記描画情報のエンコードを行うように前記エンコーダに指示する操作情報制御部と、
    エンコードされた前記描画情報を前記端末に送信する送信部と、
    を備える配信管理装置。
JP2014086773A 2013-07-25 2014-04-18 配信管理装置 Pending JP2015089099A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014086773A JP2015089099A (ja) 2013-07-25 2014-04-18 配信管理装置
US14/338,517 US20150029196A1 (en) 2013-07-25 2014-07-23 Distribution management apparatus

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2013154785 2013-07-25
JP2013154785 2013-07-25
JP2013199004 2013-09-25
JP2013199004 2013-09-25
JP2014086773A JP2015089099A (ja) 2013-07-25 2014-04-18 配信管理装置

Publications (1)

Publication Number Publication Date
JP2015089099A true JP2015089099A (ja) 2015-05-07

Family

ID=52390101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014086773A Pending JP2015089099A (ja) 2013-07-25 2014-04-18 配信管理装置

Country Status (2)

Country Link
US (1) US20150029196A1 (ja)
JP (1) JP2015089099A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029786A (ja) * 2017-07-28 2019-02-21 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2021182313A1 (ja) * 2020-03-11 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148708B2 (en) * 2014-11-26 2018-12-04 Ricoh Company, Ltd. Electronic information terminal, image processing apparatus, and information processing method
JP2017068683A (ja) * 2015-09-30 2017-04-06 株式会社リコー 情報処理装置、画像送信方法、及びプログラム
WO2018207984A1 (en) * 2017-05-12 2018-11-15 Samsung Electronics Co., Ltd. Electronic apparatus and method for displaying a content screen on the electronic apparatus thereof
CN111182303A (zh) * 2019-10-08 2020-05-19 腾讯科技(深圳)有限公司 共享屏幕的编码方法、装置、计算机可读介质及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2585922B2 (ja) * 1992-05-29 1997-02-26 日立ソフトウエアエンジニアリング株式会社 電子黒板装置
US7107285B2 (en) * 2002-03-16 2006-09-12 Questerra Corporation Method, system, and program for an improved enterprise spatial system
US20080313545A1 (en) * 2007-06-13 2008-12-18 Microsoft Corporation Systems and methods for providing desktop or application remoting to a web browser

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029786A (ja) * 2017-07-28 2019-02-21 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US10963919B2 (en) 2017-07-28 2021-03-30 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium
WO2021182313A1 (ja) * 2020-03-11 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
US20150029196A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
JP6354764B2 (ja) 配信管理装置、配信方法、及びプログラム
JP6326855B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6369043B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6337499B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP2014200076A (ja) 配信制御システム、配信制御方法、及びプログラム
JP6354195B2 (ja) 配信システム、配信方法、及びプログラム
JP2014200074A (ja) 配信制御システム、配信制御方法、及びプログラム
JP2015089099A (ja) 配信管理装置
JP2014199648A (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
US20150082359A1 (en) Distribution management apparatus and distribution management system
JP2014200075A (ja) コンピュータシステム、配信制御システム、配信制御方法、及びプログラム
JP6248488B2 (ja) 通信端末及び通信方法
WO2015045787A1 (ja) 配信管理装置、端末及び配信管理方法
JP2015069244A (ja) 配信システム、配信方法、及びプログラム
JP2015056046A (ja) 配信管理システム、配信システム、配信管理方法、及びプログラム
JP6607298B2 (ja) 配信制御システム、配信制御方法、及びプログラム
JP6248492B2 (ja) 配信管理装置、配信管理システム、及び配信管理方法
JP2015201695A (ja) 配信管理装置
JP2016063247A (ja) 配信システム及び配信方法
JP2016015597A (ja) 配信制御システム、配信制御方法、及びプログラム
EP2849453A1 (en) Distribution management apparatus, distribution system, and distribution management method
JP6442832B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6197535B2 (ja) 配信システム、配信方法、及びプログラム
JP2016058812A (ja) 配信制御システム、配信システム、配信制御システムの制御方法、及びプログラム
JP6387623B2 (ja) 配信制御システム