[go: up one dir, main page]

JP2003125361A - 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Info

Publication number
JP2003125361A
JP2003125361A JP2001315931A JP2001315931A JP2003125361A JP 2003125361 A JP2003125361 A JP 2003125361A JP 2001315931 A JP2001315931 A JP 2001315931A JP 2001315931 A JP2001315931 A JP 2001315931A JP 2003125361 A JP2003125361 A JP 2003125361A
Authority
JP
Japan
Prior art keywords
information
effect
moving image
dimensional code
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001315931A
Other languages
English (en)
Inventor
Makoto Murata
誠 村田
Junko Fukuda
純子 福田
Keigo Ihara
圭吾 井原
Takanori Nishimura
孝則 西村
Yasushi Miyajima
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001315931A priority Critical patent/JP2003125361A/ja
Publication of JP2003125361A publication Critical patent/JP2003125361A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

(57)【要約】 【課題】 ライブ映像配信を行うような場合であっても
確実に所望の効果を付加することのできる情報処理シス
テム、情報処理装置等を提供する。 【解決手段】 本発明の情報処理装置は、内蔵カメラ又
は外付けカメラで撮像された動画像情報を取り込む画像
取込手段と、前記動画像情報に含まれる2次元コード情
報を抽出する抽出手段と、前記抽出手段で抽出された前
記2次元コード情報に応じて前記動画像情報を加工する
画像加工手段と、前記画像加工手段により加工された前
記動画像情報をストリーミング形式で送出する送出手段
とを有することを特徴とする。効果を付加するための情
報が2次元コード情報内に含まれており、この2次元コ
ード情報は撮像された動画像情報に含めることができる
ことから、例えば出演者と共に写すことができ、何ら煩
雑な操作を行うことなく自動的に所望の効果を合成する
ことができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はカメラ、カムコーダ
ーなどの撮像機器で撮影されライブ配信されるような動
画像情報に各種表示効果を付加できる情報処理装置、情
報処理方法、情報処理プログラム、及び情報処理システ
ムに関する。
【0002】
【従来の技術】インターネットなどの情報通信網を用い
て、個人やグループで利用される映像をリアルタイムに
配信することが行われている。このリアルタイム配信の
際には、現在ではパーソナルコンピューターに小型カメ
ラを取り付けた構造や、カメラやカムコーダーの如き撮
像機器からの映像信号を無線や有線などの接続から送出
できる構造のものなど種々の映像機器が使用されてお
り、映像信号の送り先もインターネット上のサーバーな
どを介することで多様な視聴者に対するライブ配信が可
能となる。
【0003】このようなライブ配信を行う場合に、単純
にカメラからの映像を転送して配信するだけではなく、
画像や音声などの予め用意されている効果を表示画像に
重ねることで、映像表現を豊かにすることができる。一
般に効果(エフェクト)の付加のためには、予め所望の
効果を作成しておいて、配信映像の撮影者や編集者がそ
の効果が重ね合わせられるように操作を行って、効果を
配信映像に重畳している。ユーザはリアルタイムで配信
されるカメラ映像などをモニターしながら、効果(エフ
ェクト)を選ぶためのユーザ・インターフェースから所
望の効果を選び、画像に視覚的な効果を出すことがで
き、更には音声データを重ねることで聴覚的な効果を得
ることができる。このような効果の中、画像に対する効
果としては、例えば、白黒、モザイク、セピア、ネガポ
ジ反転、ミラー、エンボスなどの画像データに対する演
算処理を実行するものや、フラワー、ハート、クラッカ
ー、メガネなどの比較的単純な画像を重ね合わせるもの
が一般的に用いられている。
【0004】
【発明が解決しようとする課題】ユーザは、このような
効果を映像に対して付加することで、映像による表現を
豊富にすることができ、映像を見る者をより楽しませる
ことができる。ところが、インターネットなどの情報通
信網を用いて個人やグループで利用される映像をリアル
タイムに配信する場合、実際には、比較的に静的な動作
を行う被写体に対してしか有効な効果を付加することが
できない。すなわち、現状のライブ映像において配信側
のソフトウェアで映像に対して何らかの効果をかけよう
とする場合、効果はあらかじめ決められた領域に決めら
れた効果をかけることしか出来ないのである。例えば、
モザイクを動きまわる人物の顔の部分だけに重畳しよう
としても、動画像内でどの部分が人物の顔であるかがわ
からないので、そのようなことは難しい。
【0005】それでも、敢えて人物の顔の上にモザイク
の効果を付加したいときは、ユーザは数ある効果の中か
らモザイクエフェクトを選択し、画像内で顔の位置を指
定するという面倒な編集作業が必要になる。カメラ画像
内で人物の顔が動き回る場合は、手動で顔の位置を随時
設定する必要があり、顔をモザイクが追従するのは不可
能に近い。このように現状の技術ではカメラ画像に応じ
た効果を面倒な手動で付加することで対応している。
【0006】また、従来のライブ映像配信においては、
効果の選択、オン・オフは通常出演者ではないユーザが
手動で操作する。すなわち、通常、カメラに映っている
出演者自身は効果を選択することや効果のオン・オフを
することが出来ない。従って、操作するユーザが効果な
どの映像をコントロールする作業を全て行わなければな
らず、特に出演者自身がライブ配信の映像提供者である
場合には、効果を付加するにはリモートコントローラな
どの特別なデバイスが必要とされ、その操作は難しいも
のとなっている。
【0007】そこで、本発明は、上述の技術的な課題に
鑑み、ライブ映像配信を行うような場合であっても確実
に所望の効果を付加することのできる情報処理装置、情
報処理方法、情報処理プログラム、及び情報処理システ
ムの提供を目的とする。
【0008】
【課題を解決するための手段】本発明の情報処理装置
は、動画像情報を取り込む画像取込手段と、前記動画像
情報に含まれる2次元コード情報を抽出する抽出手段
と、前記抽出手段で抽出された前記2次元コード情報に
応じて前記動画像情報を加工する画像加工手段と、前記
画像加工手段により加工された前記動画像情報をストリ
ーミング形式で送出する送出手段とを有することを特徴
とする。
【0009】本発明の情報処理装置によれば、効果を付
加するための情報が2次元コード情報内に含まれてお
り、この2次元コード情報は撮像された動画像情報に含
めることができ、換言すれば出演者と共に写すことがで
きるものである。この2次元コード情報には、例えば、
効果を指定するための効果選択情報、2次元コード情報
と効果表示位置の間の相対位置に関する相対位置情報、
付加すべき効果の表示範囲に関する効果付加範囲情報な
どの効果設定情報が含まれ、更には2次元コード情報に
は、座標情報が含まれる。このため2次元コード情報を
用いて効果の付加の制御を行うことができ、リアルタイ
ムな効果の制御を自動で行うことができ、更には出演者
による制御も可能である。
【0010】また、本発明の情報処理方法は、動画像情
報を取り込む工程と、前記動画像情報に含まれる2次元
コード情報を抽出する工程と、抽出された前記2次元コ
ード情報に応じて前記動画像情報を加工する工程と、加
工された前記動画像情報をストリーミング形式で送出す
る工程とを有することを特徴とする。
【0011】本発明の情報処理方法においても、効果を
付加するための情報を2次元コード情報内に含めること
ができることから、この2次元コード情報を撮像された
動画像情報に含めることで自動的な効果付加が可能とな
る。この2次元コード情報には、例えば、効果を指定す
るための効果選択情報、2次元コード情報と効果表示位
置の間の相対位置に関する相対位置情報、付加すべき効
果の表示範囲に関する効果付加範囲情報などの効果設定
情報が含まれ、更には2次元コード情報には、座標情報
が含まれる。このため2次元コード情報を用いて効果の
付加の制御を行うことができ、リアルタイムな効果の制
御を自動で行うことができ、更には出演者による制御も
可能である。
【0012】更に、本発明の情報処理プログラムにおい
ては、動画像情報を取り込む手順と、前記動画像情報に
含まれる2次元コード情報を抽出する手順と、抽出され
た前記2次元コード情報に応じて前記動画像情報を加工
する手順と、加工された前記動画像情報をストリーミン
グ形式で送出する手順とを有することを特徴とする。
【0013】本発明の情報処理プログラムによれば、動
画像情報には2次元コード情報を含めることができ、効
果を付加するための情報を2次元コード情報内に含めて
自動的な効果の付加が可能となる。このため2次元コー
ド情報を用いて効果の付加の制御を行うことができ、リ
アルタイムな効果の制御を自動で行うことができ、更に
は出演者による制御も可能である。
【0014】また、本発明の他の情報処理装置は、撮像
された動画像情報をフレームを特定するためのタイムス
タンプを含んでストリーミング形式で送出可能とする画
像取込手段と、前記動画像情報に含まれる2次元コード
情報をフレーム単位で抽出する抽出手段と、抽出された
前記2次元コード情報に含まれる効果設定情報と共に前
記タイムスタンプを送出する送出手段を有することを特
徴とする。
【0015】タイムスタンプは動画像情報のフレームを
時系列を以って特定するためのデータであり、このタイ
ムスタンプをストリーミング形式で送出される動画像情
報に含ませることで、動画像情報の送出先における効果
付加が実現されることになる。
【0016】本発明の更に他の情報処理装置は、タイム
スタンプによって動画像情報をフレーム単位で特定する
と共に効果設定情報に応じて動画像情報を該フレーム単
位で加工する画像加工手段と、前記画像加工手段で加工
された動画像情報をストリーミング形式で送出する送出
手段とを有することを特徴とする。
【0017】この情報処理装置においては、タイムスタ
ンプと効果設定情報が受信され、これらタイムスタンプ
と効果設定情報に応じてリアルタイムな効果の付加が画
像加工手段によって実現される。画像加工手段で加工さ
れた動画像情報はストリーミング形式で送出され、所要
の表示装置などによって視聴することができる。
【0018】また、本発明にかかる情報処理システム
は、撮像された動画像情報をフレームを特定するための
タイムスタンプを含んでストリーミング形式で送出可能
とする画像取込手段と、前記動画像情報に含まれる2次
元コード情報をフレーム単位で抽出する抽出手段と、抽
出された前記2次元コード情報に含まれる効果設定情報
と共に前記タイムスタンプを送出する送出手段と、前記
送出手段から送られたタイムスタンプによって前記動画
像情報をフレーム単位で特定すると共に効果設定情報に
応じて動画像情報を該フレーム単位で加工する画像加工
手段と、前記画像加工手段で加工された動画像情報をス
トリーミング形式で配信する配信手段とを有することを
特徴とする。
【0019】当該情報処理システムによれば、送出手段
によってインターネット等の情報通信網や通信回線を介
しての配信ができ、タイムスタンプによって前記動画像
情報をフレーム単位で特定することが可能であると共
に、画像加工手段では効果設定情報に応じて動画像情報
を該フレーム単位で加工することができる。
【0020】
【発明の実施の形態】図面を参照しながら、本発明の情
報処理装置、情報処理方法、情報処理プログラム、及び
情報処理システムについて説明する。先ず、システムの
構成としては、大きく分けてエフェクトデータベースが
配信側のパーソナルコンピュータ内に設けられている場
合と、エフェクトデータベースがネットワーク上のエフ
ェクトサーバ内に設けられている場合とについて説明す
る。なお、これらのシステムは例示に過ぎず、本発明の
情報処理システム等については、各種の変形例が可能で
ある。
【0021】図1は本実施形態のライブ配信システムの
概要を示す図であり、エフェクトデータベースが配信側
のパーソナルコンピュータ内に設けられている場合の構
成図である。本実施形態にかかるシステムにおける配信
元の構成については、通常のパーソナルコンピュータか
らなるローカルコンピュータ11を有しており、そのロ
ーカルコンピュータ11には内蔵若しくは外付けのハー
ドディスクなどに格納されるエフェクトデータベース1
2が設けられている。後述するように、2次元コード情
報である2Dコード15が読み込まれた時には、エフェ
クトデータベース12内で該当する項目が検索され、表
示すべきエフェクトが選択される。ローカルコンピュー
タ11は、カメラを一体に備えた構造であっても良く、
カメラを接続して使用するものであっても良い。また、
ローカルコンピュータ11はネットワーク機能を有する
カメラ自体やカムコーダーなどの機器自体であっても良
く、更には撮像機能を有する携帯電話や携帯情報端末な
ど種々の電子機器に置き換え可能である。ローカルコン
ピュータ11は、一例としてノート型コンピュータであ
って、表示部の上端中央部分にはCCD(Charge Coupled D
evice)ビデオカメラが設けられている。2Dコード15
は、ローカルコンピュータ11のCCDビデオカメラによ
り撮像され、その結果得られた画像データから2Dコー
ド15のパターンが認識されて、そのパターンに対応し
た所定の処理が実行される。
【0022】ローカルコンピュータ11の接続先はスト
リーミングサーバ13とされ、LAN内、WAN内或い
はインターネット上などの情報通信網の一部に配設され
たサーバである。このストリーミングサーバ13では、
ローカルコンピュータ11から提供されたライブ映像を
単数若しくは複数の視聴者にストリーミング形式で配信
することができる。具体的には、視聴者がストリーミン
グサーバ13に対して端末14を介してアクセスし、そ
の端末14に付属の表示デバイスを介して映像を見るこ
とができる。
【0023】ローカルコンピュータ11に設けられたエ
フェクトデータベース12は、エフェクトについての効
果選択情報、2次元コード情報と効果表示位置の間の相
対位置に関する相対位置情報、付加すべき効果の表示範
囲に関する効果付加範囲情報などの効果設定情報をデー
タベース形成で保持するものである。エフェクトについ
ての効果選択情報は、2DデータのID(識別番号若し
くは2DコードID)を示すものであり、2Dデータの
1つのIDが1つのエフェクトに対応する。例えば、2
DデータのIDが「0001001」の場合には、3次
元で表現されるペット型アニメーション表示を指定する
ものとされ、メモリーの所定フォルダーに格納されてい
るデータを読み出して表示させることができる。この効
果選択情報は、表示させるコンテンツを指定するだけで
はなく、具体的にどのエフェクトを付加するのかを指定
するものである。例示すると、画像ファイルの重畳だけ
ではなく、背景の差替え、ある表示領域の演算処理、さ
らには重ねられる画像ファイルも2次元的な画像に限定
されず、時間軸方向で変化するアニメーション画像や、
影や明度がグラデーションで変化して立体的に把握され
る3次元画像、3次元コンピュータグラフィックスなど
種々のエフェクトに対応できる。
【0024】効果設定情報のうちの相対位置情報は、撮
像された2Dコードの位置を原点として効果表示位置を
どこにするかを指定するデータであり、例えば、相対位
置情報は3次元ベクトル(x、y、z)のデータを有す
る情報である。また、タイムスタンプ等を利用して時間
についての座標を含ませて、多少の遅延時間や表示切替
速度、アニメーションの進行速度を制御するようにして
も良い。この相対位置情報によって、エフェクトの位置
が全画面上の一部である場合でも、任意にエフェクトの
位置を指定できる。相対位置情報は3次元ベクトル
(x、y、z)のデータに限らず、2次元ベクトルのデ
ータであっても良い。
【0025】効果設定情報のうちの効果付加範囲情報
は、付加すべき効果の表示範囲に関する情報であり、指
定された相対位置の原点を基準にどの範囲にエフェクト
を付加するかを指定する情報である。例えば、エフェク
トがモザイクの場合には、縦方向に±50ピクセルで横
方向に±100ピクセルにモザイクをかけると言うよう
に縦方向と横方向のピクセル数を指定する。
【0026】このようなエフェクトデータベース12
は、ローカルコンピュータ11のユーザがライブ配信を
開始する前に、任意に設定することができる。例えば、
良く使用するエフェクトやお気に入りのエフェクトを手
持ちの2Dコードに合わせたり、1つの2Dコードで複
数のエフェクトを同時に開始させるような制御も可能で
ある。また、1種類の2Dコードだけではなく、複数の
2Dコード群により制御するようにすることも可能であ
る。
【0027】ここでいくつかのエフェクトの例について
説明する。ここで説明するエフェクトは例示に過ぎず、
ユーザが選択できる数多くのエフェクトのうちの数種に
過ぎない。本実施形態のシステムで利用できるエフェク
トのうちの1つは、モザイクである。このモザイクエフ
ェクトの場合には、2Dコードの位置が認識され、エフ
ェクトデータベース12からエフェクトを付加する範囲
が読み出され、その範囲に画像加工手段によってモザイ
クをかける。このようなモザイクの利用法としては、顔
などの部分を明らかに示したくない時などに使用するこ
とができ、例えば、エフェクトデータベース12の相対
位置情報や効果付加範囲情報を設定しておくことで、丁
度Tシャツを着たときに顔の位置にモザイクが付加され
るようにすることも可能である。このモザイクは画像に
対して演算処理をかけることで生成されるエフェクトで
あり、他にも白黒、セピア、ネガポジ反転、ミラー、エ
ンボス、水彩画、オールドフィルム、波形処理などの画
像データに対する演算処理もエフェクトとして選択でき
るようにすることも可能である。
【0028】また、本実施形態の情報処理システムで利
用できるエフェクトには、更に2次元画像が挙げられ
る。これは画面内の2Dコードの位置を認識して、予め
エフェクトデータベース12からリンクされたビットマ
ップ若しくはその他の画像ファイルを相対位置情報を利
用しながら貼り付ける。この場合において、2Dコード
の四隅の座標から2Dコードの大きさを認識し、その認
識した2Dコードの大きさに応じて画像ファイルのサイ
ズを変換する。ここで画面上に呼び出される画像ファイ
ルは、文字や記号などを含むようなものであっても良
く、逆に文字や記号からなるものであっても良い。この
場合には、2Dコードに対応してメッセージや広告など
を表示できることになる。
【0029】更に、本実施形態の情報処理システムで利
用できる他のエフェクトには、3次元コンピュータグラ
フィックスが挙げられる。先ず、画面内の2Dコードの
位置と座標が認識され、その位置と座標に応じて予め用
意された3次元コンピュータグラフィックスが重ね合わ
される。座標とは、2Dコードの方向を示すものであ
り、例えば、画面内の2Dコードを向きを変えること
で、それに対応する3次元コンピュータグラフィックス
も同じように表示される方向を変えるように制御でき
る。特に、3次元コンピュータグラフィックスの場合で
は、画像ファイルによるエフェクトやモザイクなどの演
算処理エフェクトとは異なり、2Dコードによって撮像
した実世界の映像の3次元的な情報を考慮することにな
り、3次元コンピュータグラフィックスをキャラクター
で示す場合には、そのキャラクターがあたかも実世界に
存在するかのような効果を得ることが可能である。
【0030】本実施形態の情報処理システムで利用でき
る更に他のエフェクトとしては背景差替えが可能であ
る。このエフェクトでは、人物などが被写体として認識
されている場合に、さらに背景部分が認識され、その背
景部分だけを予め用意した背景画像と差替えるものであ
る。エフェクトデータベース12には、どの画像ファイ
ルを用いて背景画像に差替えるのかが予め指定或いは予
め対応づけられており、2Dコードの読み取りによって
背景画像を選ぶことができる。2Dコードを替えること
によって背景画像も差替えることができ、2Dコードを
カメラに映らないようにすることで、背景画像を差替え
ないようにすることができる。背景画像を差替える際に
は、背景画像を予め用意し、初期化処理として出演者が
いない状態で画像を撮影し、その出演者のいない初期化
画像と現在の画像の差分をとり、差のない部分を背景と
して認識して予め用意した背景画像と差し替えることで
行うことができる。このような背景差替え機能により、
番組配信側は背景画像を用意するだけで、例えば自分の
部屋にいながら、まるでビーチから放送しているような
動画像配信も可能である。
【0031】次に2Dコードについて説明をする。2D
コードを使用することで、エフェクトについての効果選
択情報、2次元コード情報と効果表示位置の間の相対位
置に関する相対位置情報、付加すべき効果の表示範囲に
関する効果付加範囲情報などの効果設定情報を読み取っ
た機器に提供することができ、更に四隅の位置などに応
じて2Dコードの向きである座標情報や、大きさによる
遠近などの距離情報も提供できることになる。
【0032】先ず、2Dコードには、図2に示すよう
に、1ブロックを1単位とし、縦方向が9.5ブロック
分の長さで、横方向が7ブロック分の長さの長方形の範
囲内に、セル部Aとロゴ部Bが1ブロック分離して配置
されている。セル部Aには、縦方向と横方向が共に、7
ブロック分の長さの正方形の範囲内に、方形のセルが2
次元的にパターン化され配置されている。ロゴ部Bに
は、縦方向が1.5ブロック分の長さで、横方向が7ブ
ロック分の長さの大きな長方形のセルが配置され、そこ
に、例えば、オブジェクトの名称、あるいは宣伝のため
のマーク(ロゴ)などが記載される。
【0033】このような2Dコードは、Windows(登録商
標)、Mac、Linuxの如きOS56C上で展開されるアプ
リケーションソフトウエアによって読み取り可能とされ
る。アプリケーションソフトウエアは、ローカルコンピ
ュータ11に内蔵されたハードディスクドライブ(HD
D)56に格納されている。図3に示すように、ハード
ディスクドライブ(HDD)56には、電子メールプログ
ラム56A、オートパイロットプログラム56B、オペ
レーションシステムソフトウェア(OS)56C、2次元バ
ーコードデータベース(以下、2Dコードデータベース
と略記する)56D、ファインダアプリケーションプロ
グラム(以下、FAプログラムと略記する)56E、2次
元バーコードアソシエートアプリケーションプログラム
(以下、2Dコードプログラムと略記する)56F、お
よび管理ツールプログラム56Gが記憶されている。前
述のエフェクトデータベース12は、2Dコードデータ
ベース56Dの一部に構築することができる。
【0034】2Dコードデータベース56Dには、2D
コードの効果選択情報(以下、2DコードIDと称する)
の他、2Dコードに関連して設定される、実行ファイル
(プログラム)(例えば、.exe、.comなどの拡張子を有
するファイル)またはドキュメントファイル(例え
ば、.txt、.html、.jpgなどの拡張子を有するファイ
ル)の名前が記憶されている。この実行ファイルは、2
Dコードが識別されたとき、それに対応して自動的に起
動されるように設定された実行ファイル(以下、2Dコ
ード関連実行ファイルと記述する)である。また、ドキ
ュメントファイルは、2Dコードが識別されたとき、そ
れに対応して自動的に開かれるように設定されたドキュ
メントファイル(以下、2Dコード関連ドキュメントフ
ァイルと記述する)である。なお、以下においては、2
Dコード関連実行ファイルと2Dコード関連ドキュメン
トファイルを特に区別する必要がない場合、両者をまと
めて、単に、2Dコード関連ファイルと記述する。2D
コードデータベース56Dにはまた、2Dコード関連フ
ァイルの内容を説明する情報(以下、2Dコードメモ情
報と記述する)や2Dコード関連ファイルのタイトルな
ど、2Dコードに付随する情報が記憶されている。な
お、この例の場合、2Dコードデータベース56Dは、
DLL(Dynamic Link Library)とされる。
【0035】FAプログラム56Eは、例えば、グラフィ
ックチップのVRAMに記憶されている画像データから2D
コードの部分の画像データを抽出し、抽出した2Dコー
ドに対応する2Dコード関連ファイルを自動的に実行さ
せるプログラムである。FAプログラム56Eはまた、2
Dコードプログラム56Fを開発するためのAPI(Applic
ation Programming Interface)を有している。
【0036】2Dコードプログラム56Fは、FAプログ
ラム56EのAPIを介して、FAプログラム56Eとデー
タの授受を行うことができる、2Dコード関連実行ファ
イルである。管理ツールプログラム56Gは、FAプログ
ラム56Eおよび2Dコードプログラム56Fが実行さ
れる上において必要なデータを登録するためのプログラ
ムである。管理ツールプログラム56Gまたは、所定の
GUI(Graphical User Interface)を備えている。ハード
ディスクドライブ56内のOS56C、FAプログラム5
6E等は、例えば、電源スイッチが操作されOS56C
が起動(ブートアップ)され、さらにFAプログラム56
Eが起動される処理の過程で、これらのプログラムがRA
M内に順次転送され、記憶される。
【0037】次に、FAプログラム56Eによる2Dコー
ド認識処理について、図4のフローチャートを参照して
説明する。この2Dコード認識処理は、ユーザによる所
定のプログラム起動操作に対応して、ハードディスクド
ライブ56に記憶されているFAプログラム56EがRAM
に転送されて記憶され、CPUにより実行されることによ
り開始される。
【0038】ユーザがプログラム起動操作を実行した
後、オブジェクトの2Dコードが貼付されている面をCC
Dビデオカメラに向けると、その画像がCCDビデオカメラ
により撮像されて処理部で所定の処理が施される。ステ
ップS1において、FAプログラム56Eは、処理部で処
理されて、グラフィックチップのVRAMに描画された画像
データの画像に、通常モードの画像(2Dコードの位置
を示す照準の画像)を重畳した画像をファインダウィン
ドウ(図6、ただし同図はハイパサーチモードを示して
いる)として、LCD又はCRTなどの表示部に表示さ
せる。
【0039】ステップS2において、FAプログラム56
Eは、ユーザにより所定のプログラム終了操作が実行さ
れたか否かを判定し、終了操作が実行されていないと判
定した場合、ステップS3に進む。ステップS3におい
て、FAプログラム56Eは、ファインダウィンドウ(3
20×240画素)全体(図5(A))の画像データをキ
ャプチャする(画像データをVRAMからRAMに転送す
る)。
【0040】ステップS4において、FAプログラム56
Eは、撮像ボタンなどのカメラ作動ボタンが押下されて
いるか否か(ハイパサーチモードに設定されたか否か)
を判定し、撮像ボタンが押下されていると判定した場
合、ステップS5に進む。ステップS5において、FAプ
ログラム56Eは、ファインダウィンドウにハイパサー
チモードに設定された旨を示す画像を表示する。すなわ
ち、FAプログラム56Eは、図6に示すように、ファイ
ンダウィンドウの中央部分に、画像を拡大して2Dコー
ドを探知する範囲を示す矩形の枠(80×60画素、図
5(B))と、右下部分に「Hyper Search」の文字を表示
する。このような矩形の枠を表示することにより、ユー
ザが2Dコードを適切な位置に調整することを容易とす
る。なお、ハイパサーチモードとせずに常時2Dコード
を探すように設定しても良い。
【0041】ステップS6において、FAプログラム56
Eは、ファインダウィンドウの中央部分(80×60画
素)の画像データを、縦横それぞれ4倍に拡大した画像
(320×240画素、図5(C))を生成する。ステッ
プS7において、FAプログラム56Eは、320×24
0画素の画像(ステップS3でキャプチャした画像、ま
たはステップS6で拡大した画像)の中から2Dコード
を探知する。
【0042】ステップS8において、FAプログラム56
Eは、ステップS7で2Dコードを探知できたか否かを
判定し、探知できていないと判定した場合、その旨を表
示して、ユーザに2Dコードが貼付されたオブジェクト
のCCDビデオカメラに対する距離や角度を調整するよう
に促す。そして、ステップS1に戻り、それ以降の処理
を繰り返す。その後、2Dコードを探知できたと判定さ
れた場合、ステップS9に進む。
【0043】ステップS9において、FAプログラム56
Eは、2Dコードのパターンを識別し、パターンが示す
ID(2DコードID)と、ファインダウィンドウにおける
2Dコードの4つの頂点Pi(i=0,1,2,3)の
位置を示す2次元座標(Pix,Piy)とCCDビデオカメ
ラの焦点距離(以下、適宜、focalとも記述する)を取
得する。ただし、2Dコードの左上の頂点をP0とし、
右上の頂点をP1とし、左下の頂点をP2とし、右下の頂
点をP3とする。
【0044】ステップS10において、FAプログラム5
6Eは、取得した2DコードIDが、既に登録済みである
か否か(ハードディスクドライブ56に格納されている
2Dコードデータベース56Dに、ステップS9で取得
した2DコードIDがあるか否か)を判定し、既に登録済
みであると判定した場合、ステップS11に進む。ステ
ップS11において、FAプログラム56Eは、登録され
ている処理を実行する。例えば、FAプログラム56E
は、2DコードIDに対応する2Dコードプログラム56
Fとしての3次元オブジェクト表示アプリケーションプ
ログラム(以下、3Dアプリケーションと略記する)を
起動する。
【0045】なお、3Dアプリケーションは、ファイン
ダウィンドウ上に3次元オブジェクトを表示させるアプ
リケーションプログラムであり、引数として供給される
2DコードIDに対応付けて、表示する3次元オブジェク
トデータ(Microsoft Direct3Dで使用される標準的なフ
ァイルフォーマットであるXファイルとして記述された
もの)、再生するサウンドデータ(WAVEファイル)、フ
ァインダウィンドウ上に3次元オブジェクトを表示させ
るXYZ座標(ファインダウィンドウ上の2Dコードの所
定の部分を原点とした座標系)、アニメーションの速度
等の情報を管理している。
【0046】3Dアプリケーションの処理について、図
7のフローチャートを参照して説明する。ステップS2
1において、3Dアプリケーションは、FAプログラム5
6Eから供給される引数としての2DコードIDを受領す
る。ステップS22において、3Dアプリケーション
は、ファインダウィンドウ上に3Dオブジェクト表示用
ウィンドウを生成する。ステップS23において、3D
アプリケーションは、ステップS21で供給された2D
コードIDに対応する3次元オブジェクトデータ等を読み
出す。ステップS24において、3Dアプリケーション
は、FAプログラム56Eから供給されるファインダウィ
ンドウ上の2Dコードの2次元座標(Pix,Piy)とCC
Dビデオカメラの焦点距離(focal)を受領する。
【0047】ステップS25において、3Dアプリケー
ションは、ステップS24で受領した、ファインダウィ
ンドウ上の2Dコードの2次元座標を用いて、3Dオブ
ジェクトを表示させるファインダウィンドウ上の座標を
算出する。具体的には、実3次元座標系における2Dコ
ードの4つの頂点の座標をωiとし、実3次元空間の−
Z軸の方向を向くCCDビデオカメラのレンズ面を原点と
するカメラ座標系における2Dコードの4つの頂点の座
標をCiとし、ファインダウィンドウ上における(以
下、ファインダウィンドウ座標系と記述する)2Dコー
ドの4つの頂点の座標をPi(i=0,1,2,3)と
した場合、実3次元座標系の座標ωiとカメラ座標系に
おける座標Ciは次式(1)のように関係付けられる。 Ci=R*ωi+T ・・・(1) ここで、Rは実3次元座標系に対するカメラ座標系の回
転を表す回転行列であり、TはCCDビデオカメラの移動
ベクトル(実3次元座標系の原点とカメラ座標系の原点
の距離)である。まず、この回転行列Rと移動ベクトル
Tを演算する。
【0048】ファインダウィンドウ座標系の座標Piと
カメラ座標系における座標Ciは次式(2)に示す関係
である。
【0049】ここで、ベクトルω30,ω20,ω10を実3
次元座標系の座標ωzを用い、次式(3)に示すように
定義する。
【0050】なお、座標ω0,ω1,ω2,ω3は同一平面
上に存在するので、 ω30=sω10+tω20 ・・・(4) となるsおよびtが存在する。ただし、いまの場合、座
標ω0,ω1,ω2,ω3は矩形の4頂点の座標であるので
s=t=1である。
【0051】また、ベクトルω30,ω20,ω10は、カメ
ラ座標系の座標Ci、およびベクトルC30,C20,C10
を用いて表すことができる。
【0052】ところで、カメラ座標系における座標Ci
は、次式(6)に示すように、ファインダウィンドウ座
標系の座標Piのki(スカラ量)倍として表すことがで
きる。 Ci=ki*Pi (i=0,1,2,3) ・・・(6)
【0053】ここで、式(4)に式(5)を代入して次
式(7)を得る。 C3−C0=s(C1−C0)+t(C2−C0) ・・・(7)
【0054】式(7)に式(6)を代入して次式(8)
を得る。 k3*P3−k0*P0=s(k1*P1−k0*P0)+t(k2*P2−k0*P0)・・・ (8)
【0055】式(8)をP3について解けば、 P0
0(1−s−t)/k3+P1s*k1/k 3+P2t*k2
3=P3 ・・・(9)となる。
【0056】式(9)を行列式で表記すると次式(1
0)となる。
【0057】
【数1】 ここで、式(10)の左辺の(P0 12)をVとお
き、その逆行列V−1を式(10)の両辺に左側から乗
算すれば、次式(11)を得る。
【0058】
【数2】 さらに、式(11)の右辺のV−1*P3を(a01
2)とおけば、次式(12)を得る。
【0059】ところで、|ω30|は、2Dコードの対角
線の長さであり、 |ω30|=|k3*P3−k0*P0| ・・・(13)
【0060】であるので、式(13)の右辺のk0に式
(12)を適用すれば、 |ω30|=|k3*P3−a0*k3*P0/(1−s−t)|=k3|P3−a0*P0 /(1−s−t)| ・・・(14) を得る。
【0061】式(14)の|ω30|および|P3−a0*
P0/(1−s−t)|の値は既知であるので、スカラ
量k3を求めることができる。さらに、得られたスカラ
量k3を式(12)に代入して、スカラ量k0,k1,k2
を得る。得られたスカラ量ki(i=0,1,2,3)
を式(6)に代入してカメラ座標系の座標Ci(i=
0,1,2,3)を得る。ここで、回転行列Rは、ベク
トルω30,ω10を、それぞれ、ベクトルC30,C10に変
換する行列として演算できる。また、移動ベクトルT
は、式(1)より、T=Σ(Ci−R*ωi)/4とし
て演算できる。
【0062】以上のようにして求めた回転行列Rおよび
移動ベクトルTを用い、実3次元座標系における座標ω
iをカメラ座標系の3次元座標に変換し、さらに、ファ
インダウィンドウ座標系における座標Piを算出して、
図7のステップS26に進む。ステップS26におい
て、3Dアプリケーションは、図8に示すように、ステ
ップS25で算出したファインダウィンドウ座標系の座
標に、対応する3Dオブジェクトを表示する。このよう
な3Dアプリケーション処理により、あたかも3Dオブ
ジェクトがファインダウィンドウに表示されたカメラ映
像の中に存在するかのような合成画像を表示できる。
【0063】また、表示させる3Dオブジェクトは、Mi
crisoft Direct3Dで使用される標準のファイルフォーマ
ット(Xファイル)であるので、ユーザが任意のソフト
ウェアを用いて作成することが可能である。また、3D
のアニメーションもサポートされている。さらに、同時
に、サウンドファイル(WAVEファイル)を指定して再生
することができるので、ファインダウィンドウ内の3D
オブジェクトが話をしているかのような表現を実現する
ことが可能となる。
【0064】図4の説明に戻る。ステップS10におい
て、取得した2DコードIDが、既に登録済みではないと
判定された場合、ステップS12に進み、FAプログラム
56Eは、その2DコードIDに所定の処理を対応付ける
設定の入力を受け付ける処理を実行して、ステップS1
に戻る。
【0065】なお、ステップS2において、FAプログラ
ム56Eは、ユーザにより終了操作が実行されたと判定
した場合、2Dコード認識処理を終了する。
【0066】また、ステップS4において、FAプログラ
ム56Eは、撮像ボタンが押下されていないと判定した
場合、ステップS5,S6をスキップする。この場合、
ステップS7においては、ステップS3でキャプチャさ
れた画像から2Dコードが探知される。
【0067】なお、以上の説明では、ステップS4にお
ける撮像ボタンの押下が半押しであるか、または全押し
であるかについては言及していないが、例えば、撮像ボ
タン若しくはシャッタボタンが半押し状態とされたとき
にハイパサーチモードとし、全押しされたときに2Dコ
ードを探知するようにしてもよい。
【0068】以上のように、キャプチャした画像の中央
部分を拡大して2Dコードを探知することで、2Dコー
ドを認識可能なCCDビデオカメラとの距離を、画像を拡
大しない場合の約10cmから、2倍の約20cmに向上さ
せることが可能となる。
【0069】なお、本実施形態では、キャプチャした画
像を拡大する処理はCPUに大きな負担をかけるので、撮
像ボタンが押下されたときだけ拡大処理を実行するよう
にしている。これにより、必要なとき(通常モードでは
2Dコードを認識できないとき)だけ認識率を向上させ
ることが可能である。
【0070】上述の如き2Dコードのコード認識と座標
認識のプログラムによって、本実施形態の情報処理シス
テムは、2次元のみならず3次元にも対応した効果の付
加が可能となる。なお、これら認識プログラムは、一例
に過ぎず他の計算方法や手順によってもコード認識と座
標認識が可能である。
【0071】次に、図9から図16までを参照してライ
ブ配信の作業について説明する。先ず、本実施形態にお
いては、ライブ配信前における準備段階と、ライブ配信
時における自動的な効果付加動作が実現される。
【0072】先ず、ライブ配信前における準備段階にお
いては、図9に示す2Dコード15に対応して各種効果
設定情報がエフェクトデータベース12に入力される。
この各種効果設定情報としては、エフェクトについての
効果選択情報(ID)、2次元コード情報と効果表示位
置の間の相対位置に関する相対位置情報(位置)、付加
すべき効果の表示範囲に関する効果付加範囲情報(範
囲)などが入力されるものであり、エフェクトデータベ
ース12は効果選択情報(ID)に対応した内容(コン
テンツ)、位置、範囲をテーブル12Tの形式で保存す
ることになる。エフェクトデータベース12は書き換え
可能であり、効果付加範囲を変えたい場合においては、
その範囲の変更情報を入力する。
【0073】図10はライブ配信前の準備段階における
流れ図である。ローカルコンピュータ11を操作して、
初めにアプリケーションソフトウエアを起動させる。こ
の段階で、ローカルコンピュータ11のLCD表示部に
は、2Dコードの数値入力画面となりキーボードやテン
キーの操作或いは直接2Dコードをカメラ前にかざして
効果選択情報(2DコードID)を入力する(手順S3
1)。
【0074】この2DコードIDを入力したところで、
入力にかかる2DコードIDについてエフェクトが設定
されていないかどうかが判断され(手順S32)、既に
エフェクトが設定されている場合(NO)には、上書き
ができるか否かが判断される(手順S33)。もし上書
きができない場合には手順S31に戻り再度2Dコード
IDの入力となる。
【0075】手順S32でエフェクトが設定されていな
い場合(YES)及び上書きが可能な場合、手順34に
進み、エフェクトの種類を設定する。このエフェクトの
種類の設定は、例えばモザイク、2次元画像(ビットマ
ップ画像)、3次元コンピュータグラフィックス(3D
CG),背景差替えなどを選ぶことで行われる。
【0076】エフェクトの種類を設定した後、手順S3
5では対応するデータファイルのリンク付けや設定を行
う。エフェクトがモザイクの場合には、所要の演算処理
をするだけであるため、データファイルに対するリンク
付けは不要である。エフェクトがビットマップ画像の場
合には対応するビットマップ画像ファイルが設定され、
エフェクトが3次元コンピュータグラフィックス(3D
CG)の場合には対応する3次元コンピュータグラフィ
ックスが選ばれ、エフェクトが背景差替えの場合には、
選択される背景画像ファイルが選択される。
【0077】次に、手順S36ではエフェクトをかける
位置を設定する。この位置とは2次元コード情報と効果
表示位置の間の相対位置に関する相対位置情報を意味
し、2Dコードを読み取った場合の原点からの距離と方
向を3次元座標(或いは2次元座標)で与えるものであ
る。この設定によって、例えば出演者がTシャツを着て
現れ、そのTシャツに2Dコードがプリントされている
場合に、Tシャツと顔の概略的な相対位置から丁度顔を
分からなくするようにモザイクをかけることができるよ
うになる。
【0078】この相対位置情報の入力の後、手順S37
に示すように、エフェクトを付加する範囲が設定され
る。このエフェクトを付加する範囲の設定は、効果設定
情報のうちの効果付加範囲情報の入力に該当し、例えば
モザイクを付加する場合では、縦方向に±50ピクセル
で横方向に±100ピクセルにモザイクをかけると言う
ように縦方向と横方向のピクセル数を指定する。設定方
法としては、上述のようにピクセル数を指定することも
可能であるが、画面上の一部をプレヴュー画面上でトリ
ミングしたり、撮像した映像の色で分けたりすることも
可能である。また、画面上の面積の範囲ではなく、時間
的な範囲を予め設定しても良い。
【0079】このような設定情報を配信前に設定するこ
とで、ライブ配信時には2Dコードをカメラにかざすこ
とで、そのかざした2Dコードに対応したリアルタイム
エフェクトをかけることができる。また、設定情報はデ
ータベースを構成するため、複数のコンピュータで共有
にすることもでき、各種メディアに格納することも可能
であり、送受信の対象や添付ファイルとすることも可能
である。
【0080】次に、図9と図11を参照しながらライブ
配信時の動作について説明する。図9に示すように、ラ
イブ配信を進める場合には、ローカルコンピュータ11
をインターネットを介してストリーミングサーバ13に
接続させる。このストリーミングサーバ13への接続が
なされたところでローカルコンピュータ11に付属若し
くは接続されたカメラを作動させ、カメラ画像18Aを
取り込む。このカメラ画像18Aにおいては、特にエフ
ェクトを付加しようとする場合に、出演者若しくは撮影
者が画面内に2Dコード15が映るようにする。
【0081】このようにカメラ画像18Aの範囲に2Dコ
ード15が映った場合、前述の如き起動しているファイ
ンダアプリケーションプログラムによって、2次元コー
ド情報の抽出が行われる。この画像18Bにおける2次
元コード情報の抽出の際には、2Dコード15の四隅の
パターンから2Dコード15の位置や座標(向き若しく
は姿勢)、大きさなどが認識される。このパターン認識
作業は抽出手段による作業としてCPUによる動作によ
って進められるものであり、前述の準備段階で設定され
たエフェクトデータベース12のデータテーブル12T
に従った処理が行われる。配信画面18Cは画像加工手
段によって加工された画面を示しており、図9に示す例
では、「3Dモモ」と称されるペット型アニメーション
キャラクターが選択されて所定の位置に表示された場合
を図示している。この配信画面18Cにかかる画像情報
がストリーミング形式でストリーミングサーバ13に送
信され、このストリーミングサーバ13から単数若しく
は複数の視聴者に対してのライブ配信が行われる。
【0082】図11はライブ配信時のローカルコンピュ
ータ11におけるエフェクト付加作業の流れ図であり、
画像データの各フレームにおける処理を示すものであ
る。先ず、ソフトウエアを起動したところで、カメラに
写されている2Dコードを探索する(手順S41)。こ
の探索の結果、2Dコードを認識することができたか否
かが判断され(手順S42)、もし2Dコードを認識す
ることがなかった場合には手順41に戻って次のフレー
ムに対して同様の動作を行う。
【0083】手順S42で2Dコードを認識することが
できた場合、手順S43に進み、認識した2Dコードに
対応するエフェクト情報をローカルコンピュータ11内
のエフェクトデータベース12から検索する。すなわ
ち、2Dコードを認識することで、効果選択情報である
2DコードIDが読み出され、ここでエフェクト情報が
存在するか否かが手順S44で判断される。エフェクト
情報が読み取った2Dコードに対しては存在しないと
き、換言すれば定義付けされていないエフェクトのID
が認識された場合では、手順41に戻って次のフレーム
に対して同様の動作を行う。
【0084】手順S44でエフェクト情報が存在する場
合(YES)、その2DコードIDについてエフェクト
の種類、位置、範囲が設定どおりに読み出され、手順S
45ではエフェクトの種類に応じたデータファイルの読
み出しが行われる。エフェクトがビットマップ画像の場
合には対応するビットマップ画像ファイルが読み込ま
れ、エフェクトが3次元コンピュータグラフィックス
(3DCG)の場合には対応する3次元コンピュータグ
ラフィックスが読み込まれ、エフェクトが背景差替えの
場合には、選択される背景画像ファイルが読み込まれ
る。エフェクトの種類がモザイクなどの演算処理の場合
は、読み込むデータファイルは画面の一部若しくは全体
とされるが、ここでデータを読み込まずに手順S49ま
でスキップすることも可能である。
【0085】データファイルの読み出し動作によって手
順S46では、対応したデータファイルが存在している
か否かが判断される。もしデータファイルが存在してい
ない場合(NO)には、手順41に戻って次のフレームに
対して再度動作を行う。逆にデータファイルが存在して
いる場合(YES)には、認識した2Dコードの位置
(2D座標)を取得する(手順S47)。ここで認識さ
れた2Dコードの位置は、図7のフローにおける手順S
24の動作と同様に、FAプログラム56Eから供給され
るファインダウィンドウ上の2Dコードの2次元座標
(Pix,Piy)である。
【0086】次に、3次元表示効果が必要な3次元コン
ピュータグラフィックス(3DCG)の場合には、手順
S48で3次元座標の読み出しが行われる。この動作は
前述の図7のフローにおける手順S25に対応し、具体
的には、回転行列Rおよび移動ベクトルTを用い、実3
次元座標系における座標ωiをカメラ座標系の3次元座
標に変換し、さらに、ファインダウィンドウ座標系にお
ける座標Piを算出して必要な3次元を取得する。
【0087】続いて、手順S49では2Dコードに基づ
く座標を基準に、エフェクト情報を反映したエフェクト
を描画する。このエフェクト情報を反映したエフェクト
の描画は、画像加工手段によって行われ、ローカルコン
ピュータ11内のCPUの制御によってVRAM内の表示用
データをエフェクトを含むデータに書き換えことで進め
られる。このエフェクトを伴う画像がインターネットを
介して配信される(手順S50)。このような画像処理
は各フレームごとに進められ、各フレームごとに繰り返
して行われる。
【0088】ここで、エフェクトの具体例について図1
2乃至図16を参照しながら簡単に説明すると、図12
はカメラ入力画像を示す図であり、ローカルコンピュー
タ11に接続されたカメラに写された画像である。図1
2では出演者がTシャツを着ており、そのTシャツの表
で胸部から腹部にかけて2Dコードがプリントしてあ
る。この状態では、カメラが出演者とともに2Dコード
を写しており、効果付加用のプログラムでエフェクトの
付加が実現される。
【0089】図13はエフェクトとしてモザイクを付加
した図である。本実施形態の情報処理装置において、エ
フェクトデータベース12を参照しながら、2次元コー
ド情報を読み出し、画像のエフェクト付加処理をするこ
とで、図13のモザイクが出演者の顔にかけられた画像
が作成される。図12の状態から図13の状態には、プ
ログラムによって自動的に進められおり、2次元コード
情報と効果表示位置の間の相対位置に関する相対位置情
報が予め設定されていることから、図12のように例え
ば出演者が、2DコードがプリントされているTシャツ
を着て現れるだけで、Tシャツと顔の前記相対位置デー
タから容易に顔を分からなくするようにモザイクをかけ
ることができる。この図13の状態で、出演者が画面内
を移動した場合でも、2Dコードがプリントされている
Tシャツも移動することになり、このため2Dコードが
提供する表示位置も同じように移動する。従って、モザ
イクの位置も自動的に移動することになり、カメラの操
作者がその都度エフェクトの範囲を変更しなくとも出演
者の動きに追従したエフェクトの表示が可能である。
【0090】図14は画像ファイルを貼り付ける例を示
しており、この図14においても、出演者の顔の部分に
猫型ロボットの画像が上書きされるように表示される。
画像ファイルはライブ配信前に予め準備された画像ファ
イルのデータであり、図14のように例えば出演者が、
2DコードがプリントされているTシャツを着て現れる
だけで、Tシャツと顔の相対位置データから容易に顔の
部分に猫型ロボットの画像を重ねることができる。ま
た、2Dコードからは2Dコードの四隅の座標データに
基づき、2Dコードの距離が把握され、その距離から猫
型ロボットの画像のサイズも適当なサイズに拡大化若し
くは縮小化されて表示される。
【0091】図15は3次元コンピュータグラフィック
ス(3DCG)の場合を示す図である。図15において
は、出演者のTシャツの部分にアニメ風の3D蛙の画像
が上書きされるように表示される。このアニメ風の3D
蛙の画像は、コンピュータグラフィックスにより作成さ
れたものであり、データから描画されたものである。ラ
イブ配信をする場合においては、出演者が移動したり、
上下や横方向を向いた場合などでは、2Dコードがプリ
ントされているTシャツの位置やその法線ベクトル方向
が変わることになり、出演者の動きに忠実な3次元コン
ピュータグラフィックスの動きが表現されることにな
る。また、画像だけではなく、音声ファイルなどを追従
させることも可能であり、しかも出演者が設定の範囲で
自由に制御できることになる。
【0092】図16は背景の差替えを示す図である。図
16においては、出演者の背景部分がビーチの風景に上
書きされるように表示される。このビーチの風景は、出
演者の着ているTシャツのプリントされている2Dコー
ドの効果選択情報を抽出することで、描画された画像で
ある。出演者は予め背景部分と分離されて認識されてお
り、予め容易された背景画像と差替えることで図16の
画像が作成される。出演者の着ているTシャツの2Dコ
ードを隠すことで、背景画像を元の画像に戻すことも可
能であり、出演者が別の2Dコードがプリントされた着
物を着ることで、他の背景画像に切り替えることも自動
に行うことができる。
【0093】次に、図17乃至図19を参照しながら、
第2の実施形態として、エフェクトデータベースがネッ
トワーク上のエフェクトサーバにある場合の情報処理シ
ステムについて説明する。図17は、本実施形態の情報
処理システムの概要を示す図である。本実施形態のシス
テムでは、先ず、映像配信側の構成として、カメラのつ
いたコンピュータ21、エフェクトデータベース22を
具備するエフェクトサーバ26、インターネットライブ
映像配信のためのストリーミングサーバ23、ユーザの
使用したエフェクトの使用回数・時間を管理し、課金す
るための課金サーバ27を有している。また、映像を受
信する側の構成として、ストリーミングサーバ23にイ
ンターネットを介して接続するための端末24があり、
視聴者は端末24の表示部を介して配信された映像を見
ることができる。
【0094】コンピュータ21は、カメラを一体に備え
た構造であっても良く、カメラを接続して使用するもの
であっても良い。また、コンピュータ21はネットワー
ク機能を有するカメラ自体やカムコーダーなどの機器自
体であっても良く、更には撮像機能を有する携帯電話や
携帯情報端末(PDA)など種々の電子機器に置き換え
可能である。コンピュータ21は、一例としてノート型
コンピュータであって、表示部の上端中央部分にはCCD
(Charge Coupled Device)ビデオカメラが設けられてい
る。2Dコード25は、コンピュータ21のCCDビデオ
カメラにより撮像され、その結果得られた画像データか
ら2Dコード25のパターンが認識されて、そのパター
ンに対応した所定の処理が実行される。
【0095】このコンピュータ21からは、2Dコード
情報がインターネット上のエフェクトサーバ26に送ら
れると共に、映像信号自体はインターネット上のストリ
ーミングサーバ23に送られる。エフェクトサーバ26
には、更にユーザを特定する情報であるユーザ情報も送
られる。エフェクトサーバ26はエフェクトデータベー
ス22を具備するサーバであり、例えば所要のクリエー
タが制作したキャラクタ、コンピュータグラフィク、写
真などを割り当てられた2DコードIDと共に保存し、
アクセスされた際には電子ファイルの形式で提供するよ
うに構成されている。
【0096】エフェクトサーバ26に設けられたエフェ
クトデータベース22は、エフェクトについての効果選
択情報、2次元コード情報と効果表示位置の間の相対位
置に関する相対位置情報、付加すべき効果の表示範囲に
関する効果付加範囲情報などの効果設定情報をデータベ
ース形成で保持するものである。エフェクトについての
効果選択情報は、2DコードのID(識別番号若しくは
2DコードID)を示すものであり、2Dコードの1つ
のIDが1つのエフェクトに対応する。例えば、2Dコ
ードのIDが「0001001」の場合には、3次元で
表現されるペット型アニメーション表示を指定するもの
とされ、サーバの所定フォルダーに格納されているデー
タを読み出して表示させることができる。この効果選択
情報は、表示させるコンテンツを指定するだけではな
く、具体的にどのエフェクトを付加するのかを指定する
ものである。例示すると、画像ファイルの重畳だけでは
なく、背景の付け替え、ある表示領域の演算処理、さら
には重ねられる画像ファイルも2次元的な画像に限定さ
れず、時間軸方向で変化するアニメーション画像や、影
や明度がグラデーションで変化して立体的に把握される
3次元画像、3次元コンピュータグラフィックスなど種
々のエフェクトに対応できる。
【0097】効果設定情報のうちの相対位置情報は、撮
像された2Dコードの位置を原点として効果表示位置を
どこにするかを指定するデータであり、例えば、相対位
置情報は3次元ベクトル(x、y、z)のデータを有す
る情報である。また、タイムスタンプ等を利用して時間
についての座標を含ませて、多少の遅延時間や表示切替
速度、アニメーションの進行速度を制御するようにして
も良い。この相対位置情報によって、エフェクトの位置
が全画面上の一部である場合でも、任意にエフェクトの
位置を指定できる。相対位置情報は3次元ベクトル
(x、y、z)のデータに限らず、2次元ベクトルのデ
ータであっても良い。
【0098】効果設定情報のうちの効果付加範囲情報
は、付加すべき効果の表示範囲に関する情報であり、指
定された相対位置の原点を基準にどの範囲にエフェクト
を付加するかを指定する情報である。例えば、エフェク
トがモザイクの場合には、縦方向に±50ピクセルで横
方向に±100ピクセルにモザイクをかけると言うよう
に縦方向と横方向のピクセル数を指定する。
【0099】このようなエフェクトデータベース22
は、コンピュータ21のユーザがライブ配信を開始する
前に、任意に設定することができ、ユーザが自分で作成
したものをエフェクトサーバ26にアップロードしてお
くことも可能であるが、このようなエフェクトデータベ
ース22をインターネット上に配設し、そこにクリエー
タが制作したキャラクタ、コンピュータグラフィク、写
真などの種々のコンテンツを割り当てられた2Dコード
IDと共にアップロードできるようにすることで、ユー
ザは種々のエフェクトを利用でき、クリエータは作品発
表の場が与えられ、且つ次の課金サーバ27によって使
用頻度に応じた料金の徴収なども実現できる。
【0100】ストリーミングサーバ23では、コンピュ
ータ21から提供されたライブ映像を単数若しくは複数
の視聴者にストリーミング形式で配信することができ
る。具体的には、視聴者がストリーミングサーバ23に
対して端末24を介してアクセスし、その端末24に付
属の表示デバイスを介して映像を見ることができる。ス
トリーミングサーバ23からライブ配信する場合には、
エフェクトデータベース22を有するエフェクトサーバ
26からエフェクトについてのデータの提供を受ける。
この時、エフェクトサーバ26と課金サーバ27は連動
して、どのユーザがどの程度、どのエフェクトを利用し
たかを記録し、それを課金情報としてクリエータにフィ
ードバックすることができる。
【0101】図18を参照しながら、本システムの動作
について説明する。本システムにおいても、ライブ配信
前における準備段階と、ライブ配信時における自動的な
効果付加動作が実現されるが、ライブ配信前における準
備段階では先の実施形態とは異なってユーザが行う手順
の一部がクリエータが行うようになっている。
【0102】先ず、ライブ配信前においては、ネットワ
ーク上のエフェクトサーバ26に、2DコードIDとエ
フェクト情報を対応付けたエフェクトデータベース22
が存在する。クリエータが作成した楽しいエフェクト・
コンテンツをエフェクトデータベース22上に用意する
ことで、ユーザは自らエフェクトを作る手間が省け、ク
リエータの作った質の高いエフェクトを手軽にライブ映
像内に登場させることが可能になる。
【0103】クリエータが作成するエフェクトは第1の
実施形態におけるエフェクトとほぼ同様である。すなわ
ち、本実施形態のシステムで利用できるエフェクトとし
ては、モザイクなどの演算処理をするエフェクト、アニ
メーションやキャラクタなどの2次元画像、3次元(2
次元)コンピュータグラフィックス、背景差替え用画像
などが可能である。なお、音声エフェクトなどを組み合
わせることも可能である。エフェクトデータベース22
へのエフェクトのアップロードはクリエータ自身が自分
の端末28からインターネットを介して電子的なデータ
を送信することで行われる。この時、エフェクトデータ
ベース22には、効果選択情報としての2DコードID
と共に2DコードIDと効果表示位置の間の相対位置に
関する相対位置情報、付加すべき効果の表示範囲に関す
る効果付加範囲情報などの各種効果設定情報が格納され
る。更に本実施形態においては、各コンテンツについて
誰がクリエータであるかも記録しており、その著作者情
報は課金サーバ27と共有される。
【0104】次に、ライブ映像配信時においては、アプ
リケーション起動後、配信側のコンピュータ21からエ
フェクトデータベース22を有するエフェクトサーバ2
6とライブ配信用のストリーミングサーバ23に接続
し、エフェクトサーバ26を介してクリエータに対する
課金情報を保持する課金サーバ27にも接続する。課金
サーバ27にはユーザ識別情報が送信される。
【0105】ライブ映像配信時は、ユーザまたは出演者
が2Dコードをカメラにかざす。そうすると、配信側コ
ンピュータ21内の2Dコード認識ソフトウェアが2D
コードID、位置(2D座標)、大きさを認識し、姿勢
(3D座標)を算出する。配信側コンピュータ21は、2
DコードIDとカメラ画像をエフェクトサーバ26に送
信する。エフェクトサーバ26は受け取った2Dコード
IDとサーバ26内に持っているエフェクトデータベー
ス22内の2DコードIDをマッチングし、一致するI
Dがあった場合には対応するエフェクト情報を取得す
る。
【0106】エフェクトサーバ26は、エフェクト情報
が見つかったら、エフェクトの種類を読み出し、背景挿
替え、モザイク、ビットマップ画像、3DCGエフェク
トなどの処理を行う。背景画像、ビットマップ画像、3
DCGモードのときは、データベースからデータファイ
ルを読み出す。モザイク、ビットマップ画像、3DCG
モードのときは、エフェクトをかける位置を読み出す。
また、モザイクモードのときはエフェクトをかける範囲
を読み出す。配信側コンピュータ21は、続いて2Dコ
ードの画像中の位置(2D座標)、大きさ、姿勢(3D座
標)を取得し、エフェクトサーバ26に送信する。これ
らの算出方法は先の実施形態の方法と同様である。
【0107】エフェクトサーバ26は、これらの位置情
報を受け取りこの位置を基準にエフェクト設定情報を用
いて、エフェクトをカメラ映像に重ねあわせる。重ね合
わせる際には、配信側コンピュータ21から受け取った
2DコードID認識時のタイムスタンプと映像のタイム
スタンプが対応するようにエフェクトが付加される。重
ね合わせた映像をストリーミングサーバ23に送信す
る。ストリーミングサーバ23は、これまでの個人配信
システムと同様に映像をライブ配信する。
【0108】これらの作業をカメラ映像の毎フレームご
とに繰り返すことによって、2DコードのIDや位置が
変わっても、それに応じたエフェクトの重なった映像を
ライブ配信することが可能になる。また、エフェクトデ
ータベース22をネットワーク上のエフェクトサーバ2
6におくことで、ユーザは自らエフェクトを作る手間が
省けるだけでなく、クリエータの作成した質の高いエフ
ェクトを2Dコードをカメラにかざすだけで簡単にかけ
ることが出来る。
【0109】次に、このようなクリエータがエフェクト
を作りユーザが使用する際の課金システムについて説明
を行う。配信側のコンピュータ21は、ソフトウェアが
起動するとエフェクトサーバ26に接続し、ユーザ情報
を送信する。2Dコードを認識するとそのIDをエフェ
クトサーバ26に送信するが、エフェクトサーバ26
は、その2Dコードに対応するエフェクトがエフェクト
データベース22内に存在するならば、課金サーバ27
に、ユーザ情報と2DコードIDを送信し、そのエフェ
クトがそのユーザによって使われていることを通知す
る。
【0110】課金サーバ27は、2DコードIDによっ
て使われているエフェクトを特定し、その使用回数・時
間を一括管理する。さらに、エフェクトサーバ26から
送られてきたユーザ情報から、そのユーザのエフェクト
の使用回数・時間に応じて、エフェクト使用料金の課金
を行う。エフェクトはクリエータによって自由に作られ
るので、使用されたエフェクトはその利用回数・時間に
応じてクリエータに使用料金が還元される。本実施形態
においては2DコードIDとエフェクトの対応をエフェ
クトサーバ26のエフェクトデータベース22にもち、
その利用回数・時間を課金サーバ27で管理すること
で、エフェクトの利用回数・時間に応じたユーザからの
課金とクリエータへの還元を行うことができ、その差額
で利益が発生することにもなる。
【0111】図19はインターネットでライブ配信を行
う場合のシステムの動作を示すより具体的な流れ図であ
る。初めにユーザは配信側のコンピュータ21を起動
し、ソフトウェアを起動する。次に手順S61でユーザ
のコンピュータ21をストリーミングサーバ23に接続
する。手順S62では、そのコンピュータ21とストリ
ーミングサーバ23の間の接続が成功したか否かが判断
され、不成功の場合には、手順S63でエラーダイアロ
グをユーザのコンピュータ21の表示部に表示して処理
を終了する。
【0112】手順S62で、コンピュータ21とストリ
ーミングサーバ23の間の接続が成功したと判断される
場合(YES)には、手順S64に進む。ここではユー
ザのコンピュータ21をエフェクトデータベース22を
有するエフェクトサーバ26に接続する。次の手順S6
5では、そのコンピュータ21とエフェクトサーバ26
の間の接続が成功したか否かが判断され、不成功の場合
には、手順S63でエラーダイアログをユーザのコンピ
ュータ21の表示部に表示して処理を終了する。
【0113】手順S65でコンピュータ21とエフェク
トサーバ26の間の接続が成功したと判断される場合
(YES)には、手順S66に進む。ここではユーザの
コンピュータ21を課金サーバ27に接続する。次の手
順S67では、そのコンピュータ21と課金サーバ27
の間の接続が成功したか否かが判断され、不成功の場合
には、手順S63でエラーダイアログをユーザのコンピ
ュータ21の表示部に表示して処理を終了する。
【0114】手順S67でコンピュータ21と課金サー
バ27の間の接続が成功したと判断される場合(YE
S)には、手順S68に進む。手順S68では接続され
た課金サーバ27にユーザ情報が送出され、接続状態と
共にエフェクトの使用回数や時間が記録される。
【0115】次の手順S69で、映像信号をストリーミ
ングサーバ23とエフェクトサーバ26に送り、この状
態で映像のライブ配信が可能となる。以下、手順S70
以降の手順により、エフェクトの付加と課金が行われ
る。タイムスタンプは画像をフレーム単位で特定し処理
するために使用され、エフェクトサーバ26での画像の
重ね合わせに使用される。
【0116】先ず、手順S70でカメラ撮影された画像
内に存在する2Dコードを探索する。この画像は1つの
フレーム単位で探索される。次に、手順S71で2Dコ
ードを認識できたか否かが判断され、2Dコードが認識
できなかった場合(NO)には、手順S70に戻り、次
の画像内に存在する2Dコードを探索する手順に移行す
る。手順S71で2Dコードを認識できた場合(YE
S)には、手順S72で認識した2DコードIDに対応
するエフェクト情報をエフェクトサーバ26のエフェク
トデータベース22に問い合わせる。このエフェクト情
報には、エフェクトについての効果選択情報すなわち2
DコードID、2次元コード情報と効果表示位置の間の
相対位置に関する相対位置情報(位置)、付加すべき効
果の表示範囲に関する効果付加範囲情報(範囲)などの効
果設定情報が含まれる。また、特定のユーザーに対する
効果付与禁止情報などが含まれていても良い。このエフ
ェクトデータベース22への問い合わせに連動して、手
順S73では画像のフレームのタイムスタンプがエフェ
クトサーバ26に送信される。
【0117】次に、エフェクトサーバ26では送信され
てきた2DコードIDに対応するエフェクト情報が存在
するか否かが判断される(手順S76)。対応するエフ
ェクト情報が存在しない場合(NO)、コンピュータ2
1のその旨を通知し、手順S70に戻り次の画像フレー
ムの処理に入る。
【0118】対応するエフェクト情報が存在する場合
(YES)、手順S77で該当する2DコードIDに対
応する内容(例えば、エフェクトの種類、モザイク、ビ
ットマップ画像、3DCG、背景差替え)、相対位置情
報、及び効果付加範囲情報をエフェクトデータベース2
2から取得する。次に、手順S78では、課金サーバ2
7への使用された2DコードIDについてのデータ送信
が行われる。課金サーバ27では、このデータ送信を受
け、手順S83で使用された2DコードIDのエフェク
トの使用回数をインクリメントして保存する。
【0119】課金サーバ27への使用された2Dコード
IDについてのデータ送信の後、手順S79では、エフ
ェクトの種類に応じてデータファイルの読み出しが行わ
れる。エフェクトがビットマップ画像の場合には対応す
るビットマップ画像ファイルが読み込まれ、エフェクト
が3次元コンピュータグラフィックス(3DCG)の場
合には対応する3次元コンピュータグラフィックスが読
み込まれ、エフェクトが背景差替えの場合には、選択さ
れる背景画像ファイルが読み込まれる。
【0120】データファイルの読み出し動作によって手
順S80では、対応したデータファイルが存在している
か否かが判断される。もしデータファイルが存在してい
ない場合(NO)には、手順70に戻って次のフレーム
に対して再度動作を行う。
【0121】手順S80でデータファイルが存在してい
る場合(YES)には、エフェクトサーバ26に対する
2D座標と3D座標の取得がなされる。この時、ユーザ
のコンピュータ21では、認識した2Dコードの位置
(2D座標)が取得される(手順S74)。なお、ここ
で認識された2Dコードの位置は、図7のフローにおけ
る手順S24の動作と同様に、FAプログラム56Eから
供給されるファインダウィンドウ上の2Dコードの2次
元座標(Pix,Piy)である。更に3次元表示効果が必
要な3次元コンピュータグラフィックス(3DCG)の
場合には、手順S75で3次元座標の読み出しが行われ
る。この動作は前述の図7のフローにおける手順S25
に対応し、具体的には、回転行列Rおよび移動ベクトル
Tを用い、実3次元座標系における座標ωiをカメラ座
標系の3次元座標に変換し、さらに、ファインダウィン
ドウ座標系における座標Piを算出して必要な3次元座
標を取得する。
【0122】このように算出された2Dコードの位置
(2D座標)や3次元座標を用いて、エフェクトサーバ
26では、手順S81で2Dコードに基づく座標を基準
に、エフェクト情報を反映したエフェクトを描画する。
このエフェクト情報を反映したエフェクトの描画は、画
像加工手段によって行われ、例えばエフェクトサーバ2
6内のCPUの制御によってVRAM内の表示用データをエ
フェクトを含むデータに書き換えことで進められる。こ
のとき、2Dコードを認識したフレームのタイムスタン
プが参照され、対応する画像フレームに2Dコードの座
標を基準にエフェクト情報を反映したエフェクトをカメ
ラ画像に付加する。タイムスタンプを利用することで、
遠隔地にあるサーバに対しても確実な処理が可能とな
る。次に、手順S82で、エフェクトの重ねられた画像
がフレーム単位でストリーミングサーバ23に送出され
る。ストリーミングサーバ23では、タイムスタンプを
基準にした処理が進められており、エフェクトサーバ2
3からエフェクトの付加されたフレームが存在する場合
に、エフェクトサーバ23からの画像を優先させたり、
或いは同じタイムスタンプのフレームを上書きさせてイ
ンターネットを介して配信する(手順S87)。
【0123】課金サーバ27の動作については、手順S
83で使用された2DコードIDについてのデータ送信
を受けた後、手順S84では、使用された2DコードI
Dについてのエフェクトの使用回数や使用時間が記録さ
れる。定期的に或いは必要に応じて、ユーザ情報から使
用時間に応じた課金を行う(手順S85)。エフェクト
はエフェクト毎に利用単価を設定することもでき、ユー
ザ情報も管理することで正確な課金が可能となる。同様
に、手順S86では定期的に或いは必要に応じて課金し
た金額に応じてエフェクトを提供したクリエータに著作
権料その他の料金が支払われる。このようなシステムに
よって、より優れたデザインのエフェクトを集めること
も可能となる。
【0124】なお、上述の実施形態では、2Dコードに
よるエフェクトの例として、モザイクやビットマップ画
像、3DCG(3次元コンピュータグラフィックス)を
挙げたが、その他にもさまざまなエフェクトを追加可能
である。例えば、2DコードのIDをペンの色に対応さ
せれば、2Dコードを動かすと仮想的なキャンバスにお
絵かきが出来る。また、2DコードのIDを楽器や音色
に対応させ、2Dコードの位置や姿勢を音量や音階に対
応付けることによって仮想的に楽器を演奏して音楽番組
を作ることも出来る。
【0125】また、上述の実施形態では、インターネッ
トライブ映像配信について主に説明したが、インターネ
ットライブ映像配信だけでなく、通常のテレビ放送にも
応用可能である。すなわち、本発明の情報処理システム
は、特にインターネットライブ映像配信を想定したが、
2Dコードによるエフェクトは既存のテレビ放送にも応
用可能である。また、本発明の情報処理システムは、ラ
イブ映像配信を想定したが、画像認識によるグラフィク
スやエフェクトはライブ映像配信に限定されない。実世
界を画像認識してそこにグラフィクスを融合するという
考え方は普段の生活にも応用可能である。見慣れた壁に
鮮やかなグラフィクスが浮かび上がったり、3Dのキャラ
クターがあたかもそこにいるかのように現れたり、まる
で映画のようなびっくりするエフェクトが目の前に現れ
たりといったことが、画像認識から実世界の情報を獲得
し、そこにグラフィクスを重ね合わせることで可能にな
る。
【0126】また、上述の実施形態では、エフェクト情
報を埋め込み、画像認識する手段に2Dコードを用いた
が、これは2DコードがID、位置、姿勢、大きさとい
った情報を取得しやすいためであり、これらの情報が取
得できれば他の画像認識の手法でも代用が可能である。
【0127】さらに、本発明の応用範囲として、高度な
画像認識が出来れば出来るほど、多様なエフェクトをか
けることが可能になる。すなわち。上述の実施形態で
は、画像認識については背景の認識と2Dコードの認識
しか行っていないが、より高度な認識が出来れば、多様
なエフェクトをかけることが出来る。例えば、出演者の
表情やしぐさが認識できれば、出演者の動きに反応する
キャラクタを番組内に登場させることが出来るだろう。
【0128】また、上述の実施形態の情報処理装置、情
報処理システムでは、インターネットライブ映像配信を
想定しているので、入力装置としてカメラを用い、カメ
ラからの画像認識を行っている。しかし、入力装置とし
てカメラ以外のセンサーを用いることも出来る。例え
ば、磁気センサーや赤外線を用いて出演者の動きを取得
し、その動きに応じたエフェクトをかけることも出来
る。また、音声を認識してそれに応じたエフェクトをか
けることも出来る。この場合、エフェクトも画像にかけ
るだけでなく音声や音楽にかけることも出来る。また、
入力装置のある映像発信側はノートPC等を例示した
が、原理上はカメラなどのセンサーがついた携帯電話、
PDAなどの装置でも可能であり、パーソナルコンピュ
ータに限定されない。更に、視聴者側の装置について
も、映像が配信される視聴者側の端末としてノートP
C、デスクトップPCに限定されず、携帯電話、PD
A,テレビジョン受像機などでもライブ配信された映像
を見ることが出来る。また、カメラ内蔵型のノート型パ
ーソナルコンピュータに限らず、ディスクトップ型パー
ソナルコンピュータに外付けカメラを接続して実現して
も良い。また、カメラで撮影したライブ映像のみなら
ず、一旦ハードディスクドライブ(HDD)などのメデ
ィアに録画した後、2Dコードを認識するようにしても
良い。
【0129】
【発明の効果】以上のように、ライブ映像配信に2Dコ
ード認識技術を組み合わせることによって、撮った映像
をそのまま配信するのではなく、実際にはその場に無い
仮想的なグラフィックスやエフェクトを重ね合わせたラ
イブ映像配信が実現される。その操作は2Dコード認識
技術を用いるために、ユーザに何ら煩雑な操作を強いる
ことなく自動的にエフェクトを画面に合成していくこと
ができ、撮影者だけではなく出演者によるエフェクトの
制御も容易に実現される。
【図面の簡単な説明】
【図1】本発明の情報処理システムの一例を示す概略図
である。
【図2】2Dコードの一例を示す模式図である。
【図3】本発明の情報処理システムの一例に用いられる
コンピュータのハードディスクドライブに格納されるプ
ログラムを示す概略図である。
【図4】本発明の情報処理システムの一例に用いられる
2Dコード認識処理の流れ図である。
【図5】2Dコード認識処理におけるウインドウを示す
模式図である。
【図6】2Dコード認識処理における画面状態を示す図
である。
【図7】本発明の情報処理システムの一例に用いられる
3Dアプリケーション処理の流れ図である。
【図8】前記3Dアプリケーション処理の結果、画面内
に仮想空間上のキャラクタを表示した場合の図である。
【図9】本発明の情報処理システムの一例を映像処理と
共に示す概略図である。
【図10】本発明の情報処理システムの一例に用いられ
るライブ配信前のエフェクトデータベースの作成の流れ
図である。
【図11】本発明の情報処理システムの一例に用いられ
るライブ配信時のエフェクトの付加処理を示す流れ図で
ある。
【図12】本発明の情報処理システムの一例を用いた場
合のカメラ入力画面を示す図である。
【図13】本発明の情報処理システムの一例を用いた場
合のモザイクエフェクトを付加した画面を示す図であ
る。
【図14】本発明の情報処理システムの一例を用いた場
合のビットマップ画像を付加した画面を示す図である。
【図15】本発明の情報処理システムの一例を用いた場
合の3次元コンピュータグラフィックスを付加した画面
を示す図である。
【図16】本発明の情報処理システムの一例を用いた場
合の背景差替えをした画面を示す図である。
【図17】本発明の情報処理システムの他の一例を示す
概略図である。
【図18】本発明の情報処理システムの前記他の一例を
配信画面と共に示す概略図である。
【図19】本発明の情報処理システムの前記他の一例に
用いられるライブ配信時のエフェクトの付加作業の流れ
図である。
【符号の説明】
11 ローカルコンピュータ 12、22 エフェクトデータベース 13、23 ストリーミングサーバ 14、24 端末 15、25 2Dコード 21 コンピュータ 26 エフェクトサーバ 27 課金サーバ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西村 孝則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 宮島 靖 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C023 AA09 AA10 AA11 AA18 BA11 CA01 CA05 5C063 AB05 AC10 CA23 CA36 DA01 DA03 5C064 BA01 BB01 BC01 BC18 BC23 BD13

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 動画像情報を取り込む画像取込手段と、 前記動画像情報に含まれる2次元コード情報を抽出する
    抽出手段と、 前記抽出手段で抽出された前記2次元コード情報に応じ
    て前記動画像情報を加工する画像加工手段と、 前記画像加工手段により加工された前記動画像情報をス
    トリーミング形式で送出する送出手段とを有することを
    特徴とする情報処理装置。
  2. 【請求項2】 前記2次元コード情報には効果設定情報
    が含まれることを特徴とする請求項1記載の情報処理装
    置。
  3. 【請求項3】 前記効果設定情報には、付加すべき効果
    を指定する効果選択情報が含まれることを特徴とする請
    求項2記載の情報処理装置。
  4. 【請求項4】 前記効果設定情報には、前記2次元コー
    ド情報と効果表示位置の間の相対位置に関する相対位置
    情報が含まれることを特徴とする請求項2記載の情報処
    理装置。
  5. 【請求項5】 前記効果設定情報には、付加すべき効果
    の表示範囲に関する効果付加範囲情報が含まれることを
    特徴とする請求項2記載の情報処理装置。
  6. 【請求項6】 前記2次元コード情報には、座標情報が
    含まれることを特徴とする請求項1記載の情報処理装
    置。
  7. 【請求項7】 前記座標情報に所要の効果が連動するこ
    とを特徴とする請求項6記載の情報処理装置。
  8. 【請求項8】 前記抽出手段は前記2次元コード情報に
    応じて前記動画像情報を加工するためのデータベースを
    具備することを特徴とする請求項1記載の情報処理装
    置。
  9. 【請求項9】 前記2次元コード情報は前記動画像情報
    のフレーム単位で抽出され、前記画像加工手段は前記動
    画像情報をフレーム単位で加工することを特徴とする請
    求項1記載の情報処理装置。
  10. 【請求項10】 動画像情報を取り込む工程と、 前記動画像情報に含まれる2次元コード情報を抽出する
    工程と、 抽出された前記2次元コード情報に応じて前記動画像情
    報を加工する工程と、 加工された前記動画像情報をストリーミング形式で送出
    する工程とを有することを特徴とする情報処理方法。
  11. 【請求項11】 前記2次元コード情報には効果設定情
    報が含まれることを特徴とする請求項10記載の情報処
    理方法。
  12. 【請求項12】 前記効果設定情報には、付加すべき効
    果を指定する効果選択情報が含まれることを特徴とする
    請求項11記載の情報処理方法。
  13. 【請求項13】 前記効果設定情報には、前記2次元コ
    ード情報と効果表示位置の間の相対位置に関する相対位
    置情報が含まれることを特徴とする請求項11記載の情
    報処理方法。
  14. 【請求項14】 前記効果設定情報には、付加すべき効
    果の表示範囲に関する効果付加範囲情報が含まれること
    を特徴とする請求項11記載の情報処理方法。
  15. 【請求項15】 前記2次元コード情報には、座標情報
    が含まれることを特徴とする請求項10記載の情報処理
    方法。
  16. 【請求項16】 前記座標情報に所要の効果が連動する
    ことを特徴とする請求項15記載の情報処理方法。
  17. 【請求項17】 前記2次元コード情報の抽出は前記動
    画像情報を加工するためのデータベースに基づき行われ
    ることを特徴とする請求項10記載の情報処理方法。
  18. 【請求項18】 前記2次元コード情報は前記動画像情
    報のフレーム単位で抽出され、前記動画像情報の加工は
    前記動画像情報をフレーム単位で加工することを特徴と
    する請求項10記載の情報処理方法。
  19. 【請求項19】 動画像情報を取り込む手順と、 前記動画像情報に含まれる2次元コード情報を抽出する
    手順と、 抽出された前記2次元コード情報に応じて前記動画像情
    報を加工する手順と、 加工された前記動画像情報をストリーミング形式で送出
    する手順とを有することを特徴とする情報処理プログラ
    ム。
  20. 【請求項20】 前記2次元コード情報には効果設定情
    報が含まれることを特徴とする請求項19記載の情報処
    理プログラム。
  21. 【請求項21】 前記効果設定情報には、付加すべき効
    果を指定する効果選択情報が含まれることを特徴とする
    請求項20記載の情報処理プログラム。
  22. 【請求項22】 前記効果設定情報には、前記2次元コ
    ード情報と効果表示位置の間の相対位置に関する相対位
    置情報が含まれることを特徴とする請求項20記載の情
    報処理プログラム。
  23. 【請求項23】 前記効果設定情報には、付加すべき効
    果の表示範囲に関する効果付加範囲情報が含まれること
    を特徴とする請求項20記載の情報処理プログラム。
  24. 【請求項24】 前記2次元コード情報には、座標情報
    が含まれることを特徴とする請求項19記載の情報処理
    プログラム。
  25. 【請求項25】 前記座標情報に所要の効果が連動する
    ことを特徴とする請求項24記載の情報処理プログラ
    ム。
  26. 【請求項26】 前記2次元コード情報は前記動画像情
    報のフレーム単位で抽出され、前記動画像の加工は前記
    動画像情報をフレーム単位で加工することを特徴とする
    請求項19記載の情報処理プログラム。
  27. 【請求項27】 撮像された動画像情報をフレームを特
    定するためのタイムスタンプを含んでストリーミング形
    式で送出可能とする画像取込手段と、 前記動画像情報に含まれる2次元コード情報をフレーム
    単位で抽出する抽出手段と、抽出された前記2次元コー
    ド情報に含まれる効果設定情報と共に前記タイムスタン
    プを送出する送出手段とを有することを特徴とする情報
    処理装置。
  28. 【請求項28】 撮像された動画像情報をフレームを特
    定するためのタイムスタンプを含んでストリーミング形
    式で送出可能とする工程と、 前記動画像情報に含まれる2次元コード情報をフレーム
    単位で抽出する工程と、抽出された前記2次元コード情
    報に含まれる効果設定情報と共に前記タイムスタンプを
    送出する工程とを有することを特徴とする情報処理方
    法。
  29. 【請求項29】 撮像された動画像情報をフレームを特
    定するためのタイムスタンプを含んでストリーミング形
    式で送出可能とする手順と、 前記動画像情報に含まれる2次元コード情報をフレーム
    単位で抽出する手順と、抽出された前記2次元コード情
    報に含まれる効果設定情報と共に前記タイムスタンプを
    送出する手順とを有することを特徴とする情報処理プロ
    グラム。
  30. 【請求項30】 タイムスタンプによって動画像情報を
    フレーム単位で特定すると共に効果設定情報に応じて動
    画像情報を該フレーム単位で加工する画像加工手段と、
    前記画像加工手段で加工された動画像情報をストリーミ
    ング形式で送出する送出手段とを有することを特徴とす
    る情報処理装置。
  31. 【請求項31】 前記画像加工手段は前記2次元コード
    情報に応じて前記動画像情報を加工するためのデータベ
    ースを具備することを特徴とする請求項30記載の情報
    処理装置。
  32. 【請求項32】 前記効果設定情報に応じて前記動画像
    情報を前記フレーム単位で加工する際に効果付加状態に
    応じて課金処理するための課金手段を更に有することを
    特徴とする請求項30記載の情報処理装置。
  33. 【請求項33】 タイムスタンプによって動画像情報を
    フレーム単位で特定すると共に効果設定情報に応じて前
    記動画像情報を該フレーム単位で加工する工程と、前記
    加工された動画像情報をストリーミング形式で送出する
    工程とを有することを特徴とする情報処理方法。
  34. 【請求項34】 前記効果設定情報に応じて前記動画像
    情報を前記フレーム単位で加工する際には、効果付加状
    態に応じて課金処理が行われることを特徴とする請求項
    33記載の情報処理方法。
  35. 【請求項35】 タイムスタンプによって動画像情報を
    フレーム単位で特定すると共に効果設定情報に応じて前
    記動画像情報を該フレーム単位で加工する手順と、前記
    加工された動画像情報をストリーミング形式で送出する
    手順とを有することを特徴とする情報処理プログラム。
  36. 【請求項36】 前記効果設定情報に応じて前記動画像
    情報を前記フレーム単位で加工する際には、効果付加状
    態に応じて課金処理が行われることを特徴とする請求項
    35記載の情報処理プログラム。
  37. 【請求項37】 撮像された動画像情報をフレームを特
    定するためのタイムスタンプを含んでストリーミング形
    式で送出可能とする画像取込手段と、 前記動画像情報に含まれる2次元コード情報をフレーム
    単位で抽出する抽出手段と、抽出された前記2次元コー
    ド情報に含まれる効果設定情報と共に前記タイムスタン
    プを送出する送出手段と、前記送出手段から送られたタ
    イムスタンプによって前記動画像情報をフレーム単位で
    特定すると共に効果設定情報に応じて動画像情報を該フ
    レーム単位で加工する画像加工手段と、前記画像加工手
    段で加工された動画像情報をストリーミング形式で配信
    する配信手段とを有することを特徴とする情報処理シス
    テム。
  38. 【請求項38】 前記効果設定情報に応じて前記動画像
    情報を前記フレーム単位で加工する際に効果付加状態に
    応じて課金処理するための課金手段を更に有することを
    特徴とする請求項37記載の情報処理システム。
JP2001315931A 2001-10-12 2001-10-12 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム Pending JP2003125361A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001315931A JP2003125361A (ja) 2001-10-12 2001-10-12 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001315931A JP2003125361A (ja) 2001-10-12 2001-10-12 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2003125361A true JP2003125361A (ja) 2003-04-25

Family

ID=19134025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001315931A Pending JP2003125361A (ja) 2001-10-12 2001-10-12 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Country Status (1)

Country Link
JP (1) JP2003125361A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101521A (ja) * 2004-09-28 2006-04-13 Ricoh Co Ltd 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム
WO2006114827A1 (ja) * 2005-04-06 2006-11-02 Content Idea Of Asia Co., Ltd. 透過型二次元コード、二次元コード付き物品、二次元コードの印刷方法および表示方法
CN100444606C (zh) * 2005-07-11 2008-12-17 北京中星微电子有限公司 手持设备的数据通讯系统和方法
JP2009516259A (ja) * 2005-11-11 2009-04-16 株式会社カラージップメディア 動画イメージコード、動画イメージコードを生成または復号する装置及びその方法
JP2009282734A (ja) * 2008-05-22 2009-12-03 Sony Corp アップロード装置、サーバ装置、アップロードシステム及びアップロード方法
US7876460B2 (en) 2004-10-15 2011-01-25 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
JP2011135303A (ja) * 2009-12-24 2011-07-07 Ntt Docomo Inc 動画作成システムおよび動画作成方法
JP2011145850A (ja) * 2010-01-14 2011-07-28 Yahoo Japan Corp ラベル表示装置、ラベル表示方法、およびそのプログラム
CN1992894B (zh) * 2005-12-28 2012-06-13 株式会社泛泰 编码移动终端中运动图片的方法和执行该方法的移动终端
JP2013123108A (ja) * 2011-12-09 2013-06-20 Dowango:Kk 映像送信システム、映像送信方法及びコンピュータプログラム
US8549400B2 (en) 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
JP2014021735A (ja) * 2012-07-18 2014-02-03 Bandai Co Ltd 携帯端末装置、端末プログラム、拡張現実感システム、および衣類
WO2015186401A1 (ja) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
JP2016163342A (ja) * 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法
JP2017536018A (ja) * 2015-05-11 2017-11-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 ライブインタラクティブシステム、情報の送信方法、情報の受信方法及び装置
JP2019511756A (ja) * 2016-03-03 2019-04-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報インタラクション方法、デバイス、およびシステム
CN111327920A (zh) * 2020-03-24 2020-06-23 上海万面智能科技有限公司 基于直播的信息交互方法、装置、电子设备及可读存储介质
JP2024528483A (ja) * 2021-10-14 2024-07-30 北京字跳▲網▼絡技▲術▼有限公司 ライブ配信ルームのエフェクト再生方法、システム及び機器
JP2025520387A (ja) * 2022-06-17 2025-07-03 レモン インコーポレイテッド ビデオ作成とインタラクションする音声又は視覚入力のための方法、システム、コンピュータ可読記憶媒体、及びプログラム
US12548225B2 (en) 2022-06-17 2026-02-10 Lemon Inc. Audio or visual input interacting with video creation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (ja) * 1998-06-30 2000-03-21 Sony Corp 画像処理装置、画像処理方法、および媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (ja) * 1998-06-30 2000-03-21 Sony Corp 画像処理装置、画像処理方法、および媒体

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"【INTERVIEW】ソニー『VAIO PCG-C1』ってどんなモノ? 開発担当者に直撃", URL, JPN4007008090, 7 September 1998 (1998-09-07), ISSN: 0000847359 *
"【INTERVIEW】ソニー『VAIO PCG-C1』ってどんなモノ? 開発担当者に直撃", URL, JPNX007048395, 7 September 1998 (1998-09-07), ISSN: 0000891093 *
"PCG-C1VRX/K・C1VR/BP", ソニー株式会社発行のパンフレット, JPN4007008092, February 2001 (2001-02-01), ISSN: 0000847361 *
"PCG-C1VRX/K・C1VR/BP", ソニー株式会社発行のパンフレット, JPNX007048397, February 2001 (2001-02-01), ISSN: 0000891095 *
REKIMOTO,AYATSUKA: "Cybercode:Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Env", PROC.OF DESIGNING AUGMENTED REALITY ENVIRONMENTS (DARE) 2000, JPN4007008091, 2000, ISSN: 0000847360 *
REKIMOTO,AYATSUKA: "Cybercode:Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Env", PROC.OF DESIGNING AUGMENTED REALITY ENVIRONMENTS (DARE) 2000, JPNX007048396, 2000, ISSN: 0000891094 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101521A (ja) * 2004-09-28 2006-04-13 Ricoh Co Ltd 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム
US8549400B2 (en) 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
US7876460B2 (en) 2004-10-15 2011-01-25 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
US8023148B2 (en) 2004-10-15 2011-09-20 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
WO2006114827A1 (ja) * 2005-04-06 2006-11-02 Content Idea Of Asia Co., Ltd. 透過型二次元コード、二次元コード付き物品、二次元コードの印刷方法および表示方法
JP4607179B2 (ja) * 2005-04-06 2011-01-05 コンテンツアイデアオブアジア株式会社 透過型二次元コード、二次元コード付き物品、二次元コードの印刷方法および表示方法
JPWO2006114827A1 (ja) * 2005-04-06 2008-12-11 コンテンツアイデアオブアジア株式会社 透過型二次元コード、二次元コード付き物品、二次元コードの印刷方法および表示方法
CN100444606C (zh) * 2005-07-11 2008-12-17 北京中星微电子有限公司 手持设备的数据通讯系统和方法
US8447122B2 (en) 2005-11-11 2013-05-21 Colorzip Media, Inc. Animated image code, apparatus for generating/decoding animated image code, and method thereof
JP2009516259A (ja) * 2005-11-11 2009-04-16 株式会社カラージップメディア 動画イメージコード、動画イメージコードを生成または復号する装置及びその方法
US8879859B2 (en) 2005-11-11 2014-11-04 Colorzip Media, Inc. Animated image code, apparatus for generating/decoding animated image code, and method thereof
CN1992894B (zh) * 2005-12-28 2012-06-13 株式会社泛泰 编码移动终端中运动图片的方法和执行该方法的移动终端
JP2009282734A (ja) * 2008-05-22 2009-12-03 Sony Corp アップロード装置、サーバ装置、アップロードシステム及びアップロード方法
JP2011135303A (ja) * 2009-12-24 2011-07-07 Ntt Docomo Inc 動画作成システムおよび動画作成方法
JP2011145850A (ja) * 2010-01-14 2011-07-28 Yahoo Japan Corp ラベル表示装置、ラベル表示方法、およびそのプログラム
JP2013123108A (ja) * 2011-12-09 2013-06-20 Dowango:Kk 映像送信システム、映像送信方法及びコンピュータプログラム
JP2014021735A (ja) * 2012-07-18 2014-02-03 Bandai Co Ltd 携帯端末装置、端末プログラム、拡張現実感システム、および衣類
US10166477B2 (en) 2014-06-06 2019-01-01 Sony Interactive Entertainment Inc. Image processing device, image processing method, and image processing program
WO2015186401A1 (ja) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
JP2016163342A (ja) * 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法
US10341716B2 (en) 2015-05-11 2019-07-02 Tencent Technology (Shenzhen) Company Limited Live interaction system, information sending method, information receiving method and apparatus
JP2017536018A (ja) * 2015-05-11 2017-11-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 ライブインタラクティブシステム、情報の送信方法、情報の受信方法及び装置
JP2019511756A (ja) * 2016-03-03 2019-04-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報インタラクション方法、デバイス、およびシステム
CN111327920A (zh) * 2020-03-24 2020-06-23 上海万面智能科技有限公司 基于直播的信息交互方法、装置、电子设备及可读存储介质
JP2024528483A (ja) * 2021-10-14 2024-07-30 北京字跳▲網▼絡技▲術▼有限公司 ライブ配信ルームのエフェクト再生方法、システム及び機器
JP7715847B2 (ja) 2021-10-14 2025-07-30 北京字跳▲網▼絡技▲術▼有限公司 ライブ配信ルームのエフェクト再生方法、システム及び機器
JP2025520387A (ja) * 2022-06-17 2025-07-03 レモン インコーポレイテッド ビデオ作成とインタラクションする音声又は視覚入力のための方法、システム、コンピュータ可読記憶媒体、及びプログラム
US12548225B2 (en) 2022-06-17 2026-02-10 Lemon Inc. Audio or visual input interacting with video creation

Similar Documents

Publication Publication Date Title
JP2003125361A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
CN114327700B (zh) 一种虚拟现实设备及截屏图片播放方法
CN103458180B (zh) 通信终端和使用通信终端显示图像的显示方法
US8670046B2 (en) Image data creation support device and image data creation support method
CN102948140B (zh) 移动和服务器端计算摄影
WO2021068958A1 (zh) 生成商品对象动态图像的方法、装置及电子设备
CN102057401A (zh) 嵌入到设备中的3d内容聚集
JP2000322602A (ja) 画像処理装置および方法、並びに媒体
JP2003244425A (ja) 伝送画像の修飾パターンの登録方法および装置ならびに再生方法および装置
CN112581571A (zh) 虚拟形象模型的控制方法、装置、电子设备及存储介质
JP2025067931A (ja) プログラムおよび撮影装置
US7002584B2 (en) Video information producing device
JP5596844B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
CN114299407A (zh) 虚拟现实设备及vr场景图像识别方法
JP2004178036A (ja) 遠隔者の映像を伴う仮想空間の提示装置
CN112887603B (zh) 拍摄预览方法、装置及电子设备
JP2009230635A (ja) 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム
JP7296735B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2022013427A (ja) 情報処理装置、画像生成方法、プログラム
CN112312110A (zh) 非暂态计算机可读介质、图像处理装置及图像处理方法
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP2004234457A (ja) 情報処理装置、方法、プログラムおよび記憶媒体
JP2000353253A (ja) 3次元協調仮想空間における映像表示方法
JP2004173320A (ja) 画像提供装置
JP5058842B2 (ja) 仮想風景表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070831