[go: up one dir, main page]

JP2009290488A - 情報処理システム及び情報処理装置 - Google Patents

情報処理システム及び情報処理装置 Download PDF

Info

Publication number
JP2009290488A
JP2009290488A JP2008140061A JP2008140061A JP2009290488A JP 2009290488 A JP2009290488 A JP 2009290488A JP 2008140061 A JP2008140061 A JP 2008140061A JP 2008140061 A JP2008140061 A JP 2008140061A JP 2009290488 A JP2009290488 A JP 2009290488A
Authority
JP
Japan
Prior art keywords
image
projection
annotation image
tablet
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008140061A
Other languages
English (en)
Other versions
JP5187001B2 (ja
Inventor
Tsutomu Abe
勉 安部
Kizashi Toki
萌 時
Shoji Sakamoto
彰司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008140061A priority Critical patent/JP5187001B2/ja
Publication of JP2009290488A publication Critical patent/JP2009290488A/ja
Application granted granted Critical
Publication of JP5187001B2 publication Critical patent/JP5187001B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影することができる情報処理システム及び情報処理装置を提供する。
【解決手段】入力処理部101は、タブレットPC8からアノテーション画像の座標を入力し、投影画像生成部105は、アノテーション画像の座標に基づいてアノテーション画像を生成する。そして、検知処理部102は、カメラ5で撮影された複数の撮影画像からタブレットPC8の位置及び姿勢を検知し、投影処理部106は、投影画像生成部105で生成されたアノテーション画像に投影変換を実行しプロジェクタ4に出力する。プロジェクタ4は、投影変換されたアノテーション画像をタブレットPC8上に投影する。
【選択図】図3

Description

本発明は、情報処理システム及び情報処理装置に関する。
従来より、カメラとプロジェクタを使い、ユーザ間でコミュニケーションを行うシステムが知られている(例えば、特許文献1参照)。このシステムは、カメラと、当該カメラと光学的に主点を同位置にしたプロジェクタとがある第1の地点と、第1の地点にあるカメラで撮影した画像に対してアノテーション(注釈)を追記できる端末を有する第2の地点とで構成されている。第2の地点の端末においてアノテーションの追記を指示すると、第1の地点においてそのアノテーションがプロジェクタにより投影される。
特開2005−33756号公報
しかしながら、上記特許文献1では、第2の地点にいるユーザでなければ、アノテーションの追記ができなかった。特許文献1のシステムは、第1の地点と第2の地点とが離れていてもユーザ間でコミュニケーションを図ることができるが、アノテーションの追記は第2の地点でしか実施ができなかった。
本発明の目的は、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができると共に撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる情報処理システム及び情報処理装置を提供することにある。
上記目的を達成するため、請求項1の情報処理システムは、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。
請求項2の情報処理システムは、請求項1記載の情報処理システムにおいて、前記情報処理装置にネットワークを介して接続される遠隔端末を備え、前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする。
請求項3の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2入力手段により入力された注釈画像から、前記重なる部分の注釈画像を除いた残りの注釈画像は、前記投影装置から投影されることを特徴とする。
請求項4の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2表示手段は、データをドラグアンドドロップにより前記入力装置に転送するホットスポットエリアを含む画面を表示することを特徴とする。
請求項5の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、さらに前記入力装置から共有モードの指示が入力され、前記注釈画像の座標が入力された場合には、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該注釈画像が入力されたときの撮影画像内の入力装置の位置に当該注釈画像を投影することを特徴とする。
請求項6の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、前記情報処理装置は、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする。
請求項7の情報処理システムは、請求項1乃至6のいずれか1つに記載の情報処理システムにおいて、前記情報処理装置は、ユーザの位置を検出するユーザ検知手段を備え、前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする。
請求項8の情報処理装置は、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と接続される情報処理装置であって、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。
請求項1,8の発明によれば、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができる。さらに、注釈画像が、投影装置の解像度によらず、第1表示手段の解像度に従って表示されるので、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。
請求項2の発明によれば、遠隔端末で入力された注釈画像のうち、第2表示手段に表示される入力装置に重なる部分は、第1表示手段により表示されるので、投影装置が当該重なる部分の注釈画像を投影する場合と比べて、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。また、第2表示手段が液晶表示体である場合でも、撮影装置側又は投影装置側のユーザに見やすい注釈画像提供することができる。
請求項3の発明によれば、第1表示手段及び投影装置により、撮影装置側又は投影装置側のユーザに、遠隔端末で入力された注釈画像の全体を提供することができる。
請求項4の発明によれば、遠隔端末のユーザは、簡単な操作により入力装置に所望のデータを転送することができ、入力装置のユーザ(即ち撮影装置側又は投影装置側のユーザ)とコミュニケーションすることができる。
請求項5の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
請求項6の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
請求項7の発明によれば、ユーザにとって見やすい向きに注釈画像を自動的に回転することができる。
以下、本発明の実施の形態について、図面を参照して説明する。
図1は、本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。
図1の情報処理システムは、ローカル側のシステムとリモート側のシステムとを備えている。ローカル側のシステムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、プロジェクタ4(投影装置)、カメラ5(撮影装置)、及びタブレットPC8(入力装置)を備えている。PC1には、プロジェクタ4、カメラ5、及びタブレットPC8が接続されている。さらに、PC1には、プロジェクタ4側又はカメラ5側のユーザの位置を検出する人感センサ10(ユーザ検知手段)を備えていてもよい。リモート側のシステムは、クライアントとして機能するPC2(遠隔端末)を備えており、PC2には、表示装置21が接続されている。PC1及びPC2は、ネットワーク3を介して互いに接続されている。ローカル側のシステムは、タブレットPC8に代えて、ディスプレイ付きのタブレットを備えていてもよい。
プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物6が置かれたテーブル7の領域に対してアノテーション画像(注釈画像)等を投影する。アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。アノテーション画像には、PC2で入力される又はタブレットPC8で入力される。
カメラ5は、ビデオカメラ又はPTZ(Pan Tilt Zoom)カメラで構成され、テーブル7の領域を撮影し、撮影画像をPC1に出力する。この撮影画像は、表示装置21で表示される。また、撮影画像の一部は、タブレットPC8がテーブル7上にある場合に、プロジェクタ4を介して当該タブレットPC8上に投影されるようにしてもよい。
タブレットPC8は、形状が四角形で、感圧式のパネルを有している。ユーザがペンを使って当該感圧式のパネルを押下する又はなぞることで、指示又はアノテーション画像を入力する。また、この感圧式のパネルは、表示パネルに重ね合わせて固定されている。タブレットPC8は、入力した指示又はアノテーション画像をPC1に出力する。ローカル側のユーザがタブレットPC8にアノテーション画像を入力すると、当該アノテーション画像はプロジェクタ4を介してテーブル7の領域に投影される、又はタブレットPC8の表示パネルに表示される。また、タブレットPC8は、PC1に赤外線又はbluetooth(登録商標)等の無線通信で接続されているが、通信ケーブルを使って有線通信でPC1に接続してもよい。
PC1は、カメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部21に接続されており、表示部21は、撮影画像の表示領域23及びユーザインターフェース(UI)22を表示する。尚、PC2は、表示装置21を備える一体型のパーソナルコンピュータで構成してもよい。
UI22は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンと、テキストや画像等のデータ(ファイル)をドラグ&ドロップによりタブレットPC8に転送することが可能なホットスポットエリア25を含む。表示領域23には、カメラ5で撮影された撮影画像が表示される。同図においては、タブレットPC8を含むテーブル7の領域をカメラ5により撮影した撮影画像が表示領域23に表示されている。例えば、UI22のペンボタンが押下されて、表示領域23内に図形等が記載されると、当該図形の情報はPC2からPC1を介してプロジェクタ4に出力される。プロジェクタ4は当該図形の情報に基づいてテーブル7又はタブレットPC8上に図形を描く。
尚、同図においては、クライアントは、PC2の1台が記載されているが、複数のクライアント(PC)を備えていてもよい。また、テーブル7の領域を撮影するカメラも1台に限定するものではなく、複数台あってもよい。さらに、PC1に接続されるタブレットの数は、1つでも複数でもよい。
図2(A)は、PC1のハードウエア構成を示すブロック図である。図2(B)は、PC2のハードウエア構成を示すブロック図である。
PC1は、装置全体を制御するCPU11、制御プログラムを備えるROM12、ワーキングエリアとして機能するRAM13、各種の情報やプログラムを備えるハードディスクドライブ(HDD)14、他のコンピュータと接続するためのネットワークインターフェース15、プロジェクタ4及びカメラ5などのUSB機器と接続するためのUSB(universal serial bus)インターフェース16、及びタブレットPC8と有線又は無線の通信を行う通信部17を備えている。CPU11はシステムバス18を介してROM12、RAM13、ハードディスクドライブ(HDD)14、ネットワークインターフェース15、USBインターフェース16、及び通信部17に接続されている。
PC2は、装置全体を制御するCPU31、制御プログラムを備えるROM32、ワーキングエリアとして機能するRAM33、各種の情報やプログラムを備えるハードディスクドライブ(HDD)34、他のコンピュータと接続するためのネットワークインターフェース35、キーボードやマウスなどの入力機器と接続するためのUSB(universal serial bus)インターフェース36、及び表示装置21を備えている。CPU31はシステムバス37を介してROM32、RAM33、ハードディスクドライブ(HDD)34、ネットワークインターフェース35、USBインターフェース36及び表示装置21に接続されている。
図3は、タブレットPC8の外観図である。
図3に示すように、タブレットPC8は、タッチパネル81(第1表示手段)を備えている。このタッチパネル81は、ペン82を使って入力されたデータや情報を受け付け、さらに、各種のデータや情報を表示する。
図4は、PC1及びPC2の機能構成を示すブロック図である。
PC1は、タブレットPC8からの座標情報又は指示入力を取得する入力処理部101(第1入力手段)と、タブレットPC8の移動を検知し、これらの位置及び姿勢を算出する検知処理部102(検知手段、判別手段)、各種のデータや情報を保存する保存部103と、PC1全体を制御する制御部104(実行手段)と、投影画像を生成する投影画像生成部105(生成手段)と、投影画像をタブレットPC8上に投影する際に投影対象の画像の変換処理を実行する投影処理部106(出力手段)とを備えている。
保存部103は、タブレットPC8上に投影される各種のGUI(Graphical User Interface)を記憶するGUIデータベース103aと、カメラ5で撮影された撮影画像を保存するフレームバッファ領域103bと、コピーモード実行時にカメラ5で撮影された静止画像(スナップショット)を保存するスナップショット領域103cと、コピーモード実行時のタブレットPC8の位置情報(即ちタブレットPC8の座標情報)を保存する位置保存領域103dとを備えている。
制御部104及び投影画像生成部105は、制御プログラムに従って各種の処理を実行するCPU21に相当する。入力処理部101は、CPU21及び通信部17に相当し、検知処理部102及び投影処理部106は、CPU21及びUSBインターフェース16に相当し、保存部103は、ハードディスクドライブ(HDD)14に相当する。
PC2は、PC1全体を制御する制御部201と、各種のデータや情報を保存する保存部202と、キーボードやマウスなどでデータや指示を入力する入力部203(第2入力手段)と、撮影画像を表示する表示部204(第2表示手段)とを備えている。制御部201は、制御プログラムに従って各種の処理を実行するCPU31に相当し、保存部202は、ハードディスクドライブ(HDD)34に相当する。入力部203は、不図示のキーボードやマウス及びこれらが接続されるUSBインターフェース36に相当し、表示部204は、表示装置21に相当する。
以下、各機能ブロックが実行する処理を具体的に説明する。
まず、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影する(例えば、0.5秒毎に撮影する)。撮影画像は、カメラ5から検知処理部102に送信される。
検知処理部102は、カメラ5からの撮影画像を保存部103(フレームバッファ領域103b)に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識する。
具体的には、検知処理部102は、前処理として撮影した画像シーケンスに対しノイズ除去や平滑化を行い、公知のCanny法を用いてエッジの検出を行う。次いで、検知処理部102は、検出されたエッジから公知のHough変換を用いて、複数の直線の検出を行う。このとき、検知処理部102は、タブレットPC8のサイズや平行性を考慮し、タブレットPC8に関係のない線分の除去を行う。その後、検知処理部102は、検出された複数の直線の交差点から平行四辺形の検出を行い、検出された平行四辺形をタブレットPC8の候補とする。最後に、検知処理部102は、予め撮影されたタブレットPC8の画像と、タブレットPC8の候補とを比較し、タブレットPC8の特徴(例えば、枠の形状、又はタブレットPC8に装着されたボタンなど)を持つ候補をタブレットPC8とする。
検知処理部102は、認識したタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する。
投影画像生成部105は、タブレットPC8に投影する画像を生成する。即ち、投影画像生成部105は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、部分画像の変換(以下、投影変換という)を行う。
投影処理部106は、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像を全投影内容の一部としてタブレットPC8へ投影する。このとき、プロジェクタ4はタブレットPC8以外の領域には、通常の投影を行っても良い。即ち、プロジェクタ4は、タブレットPC8と、タブレットPC8以外の領域とに同時に異なる内容の画像を投影することができる。投影変換された画像がタブレットPC8上に投影される状態を図5に示す。
タブレットPC8は、ペン82で入力されたアノテーション画像をタッチパネル81に表示すると共にペン82で入力されたアノテーション画像の座標を入力処理部101に出力する。入力処理部101は、アノテーション画像の座標に対し、上記投影変換の逆変換を行い、投影用画像上における相対座標を算出し、制御部104に当該相対座標を出力する。
制御部104は、当該相対座標を投影画像生成部105に出力し、投影画像生成部105は、投影用のアノテーション画像をタブレットPC8に投影する画像上に生成し、投影処理部106に出力する。逆投影変換されたアノテーション画像が投影用画像上に形成された状態を図6に示す。投影処理部106は、上述したように、推定されたパラメータを用いて、投影変換を行い、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像をタブレットPC8へ投影する。
このように、タブレットPC8のペン82で入力されたアノテーション画像は、タッチパネル81により表示され、さらにプロジェクタ4からタブレットPC8へ投影させることもできる。また、アノテーション画像がタブレットPC8のペン82で入力された場合には、タッチパネル81のみがアノテーション画像を表示し、PC1は当該アノテーション画像をプロジェクタ4からタブレットPC8へ投影しないような設定もできる。
また、制御部104は、検知処理部102から、カメラ5からの撮影画像及びタブレットPC8の位置及び姿勢を特定する座標を入力し、ネットワーク3を介してPC2に出力する。これにより、図1に示すように、ローカル側の対象物6及びタブレットPC8が置かれたテーブル7の状況が表示領域23に再現される。
図7(A)は、表示領域23に描かれたアノテーション画像がタブレットPC8に表示される例を示す図であり、図7(B)は、アノテーション画像のファイルがホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたときに、当該アノテーション画像がタブレットPC8に表示される例を示す図である。
図8は、表示領域21に描かれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ている場合に、ローカル側で当該アノテーション画像の一部がタブレットPC8に表示され、当該アノテーション画像の残りが投影される例を示す図である。
図7(A)に示すように、リモート側のユーザが、表示領域23に表示されているタブレットPC8上にアノテーション画像40を描くと、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。また、図7(B)に示すように、リモート側のユーザが、アノテーション画像40のファイルをホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップすると、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。この場合、ドラグ・アンド・ドロップされるファイルは、アノテーション画像のファイルに限定されず、テキスト、静止画像、動画像、又は音声のファイルでもよい。
また、図8に示すように、アノテーション画像として「ABC…」のテキストと矢印の画像が表示領域23に描かれ、当該矢印の画像が表示領域23に表示されているタブレットPC8からはみ出ている場合、ローカル側では、「ABC…」のテキストと矢印の一部の画像がアノテーション画像51としてタブレットPC8に表示され、矢印の残りの画像がアノテーション画像52としてプロジェクタ4からテーブル7に投影される。尚、図8のアノテーション画像52を破線で表示しているが、破線は投影されていることを示す。
図9は、PC1及びPC2で実行される基本処理を示すフローチャートである。
まず、検知処理部102は、カメラ5からの撮影画像を保存部103に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する(ステップS1)。制御部104は、タブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像をネットワーク3を介してPC2に出力する(ステップS2)。
PC2の制御部201は、PC1からタブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像を受信し、タブレットPC8の位置及び姿勢を特定する座標を保存部202に保存し、カメラ5からの撮影画像を表示部204に表示する(ステップS3)。
次いで、制御部201は、入力部203から編集操作があるか否かを判別する(ステップS4)。ここで、編集操作とは、アノテーション画像の書き込み操作、若しくはファイルをホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップする操作である。
ステップS4でNOの場合には、本処理を終了する。ステップS4でYESの場合であり、ドラグ・アンド・ドロップ操作が行われた場合には、ステップS6に進む。ステップS4でYESの場合であり、アノテーション画像の書き込み操作が行われた場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ていないか否かを判別する(ステップS5)。
ステップS5でYESの場合には、制御部201は、当該書き込まれたアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルをPC1の制御部104に送信する(ステップS6)。
制御部104は、制御部201からのアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルを入力処理部101を介してタブレットPC8に出力し、タブレットPC8のタッチパネル81に当該アノテーション画像を表示させる又はタブレットPC8にドラグ・アンド・ドロップ操作が行われたファイルを再生させる(ステップS7)。ここで、制御部201からのアノテーション画像の座標は、入力処理部101によりタブレットPC8用の座標に変換して、タブレットPC8に出力される。
上記ステップS5でNOの場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像を表示領域23に表示されているタブレットPC8からはみ出ている部分とはみ出ていない部分とに分割する(ステップS8)。次いで、制御部201は、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標をPC1の制御部104に送信する、即ち、ステップS6と同様の処理を実行する。以後、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標に対して、ステップS7の処理が実行される。
制御部201は、表示領域23に表示されているタブレットPC8からはみ出ているアノテーション画像の座標にフラグを付してPC1の制御部104に送信する(ステップS9)。制御部104は、制御部201からのフラグ付きのアノテーション画像の座標を投影画像生成部105に出力する(ステップS10)。このように、上記フラグは、制御部104がアノテーション画像の座標の出力先(即ち、入力処理部101又は影画像生成部105)を判断するために使用される。
投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS11)。
投影処理部106は、投影画像生成部105からのアノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力し(ステップS12)、本処理を終了する。プロジェクタ4は、投影変換されたアノテーション画像を対象物6を含むテーブル7の領域に投影する。
以上説明したように、図9の処理では、表示領域23に表示されているタブレットPC8上に書き込まれたアノテーション画像は、タブレットPC8のタッチパネル81に表示され、ホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたファイルは、タブレットPC8で再生される。また、表示領域23に表示されているタブレットPC8からはみ出たアノテーション画像は、プロジェクタ4を介してテーブル7の領域に投影される。
図10は、GUIをタブレットPC8上に投影する処理及びタブレットPC8上で指定されたモードを実行する処理を示すフローチャートである。本処理は、PC1により実行される。
まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を投影画像生成部105及び投影処理部106に出力する(ステップS21)。
次に、投影画像生成部105は、GUIデータベース103aの各種のGUIの要素に基づいて、タブレットPC8に投影するGUI画像を生成する(ステップS22)。
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用のGUI画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、GUI画像の投影変換を行い、投影変換されたGUI画像をプロジェクタ4に出力する(ステップS23)。プロジェクタ4は、当該投影変換されたGUI画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS24)。タブレットPC8へ投影されたGUI画像の一例を図11に示す。
タブレットPC8は、ペンで入力された座標を入力処理部101に出力する(ステップS25)。入力処理部101は、ペンで入力された座標に対し、上記投影変換の逆変換を行い、投影画像生成部105から取得したGUI画像上における相対座標を算出し、ペンで入力されたモードを決定する(ステップS26)。
制御部104は、入力処理部101から決定されたモードの情報を入力し、当該モードの情報に応じた処理を実行し(ステップS27)、本処理を終了する。
モードの情報に応じた処理とは、例えば、入力されたモードが印刷モードの場合は、制御部104は、不図示のプリンタドライバに印刷開始の指示を出力する。また、入力されたモードがコピーモードの場合は、制御部104は、後述する図12,13の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。入力されたモードが共有モードの場合は、制御部104は、後述する図15の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。
図10の処理によれば、ユーザは、タブレットPC8上に投影されるGUI画像で規定する複数のモードのうちいずれか1つをタブレットPC8で選択し、当該モードに応じた処理を制御部104に実行させることができる。
尚、上記図10の処理では、GUI画像はプロジェクタ4からタブレットPC8上に投影されているが、GUI画像がタブレットPC8のタッチパネル81に表示されてもよい。この場合、上記処理では、ステップS25〜S27が実行される。
図12,13は、PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。
本処理では、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影しているものとする(例えば、0.5秒毎に撮影する)。
まず、制御部104は、入力処理部101を介してタブレットPC8からコピーモードの指示が入力されたか否かを判別する(ステップS31)。ここで、コピーモードとは、プロジェクタ4側からテーブル7の領域を見て、タブレットPC8がテーブル7の任意の領域と重なる場合に、その任意の領域に対応する予め撮影された撮影画像が、タブレットPC8の移動によらず、タブレットPC8上に固定的に投影されるモードである。このモードが実行されると、ユーザの目の前にある実物(即ち対象物6を含むテーブル7)の一部の画像が常にタブレットPC8上に固定的に投影される。よって、ユーザは、テーブル7の領域内の撮影したい場所にタブレットPC8を重ねて、コピーモードの指示を入力することで、撮影したい場所の画像をタブレットPC8上に投影することができる。
尚、ステップS11でユーザがタブレットPC8でコピーモードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内のコピーモードの位置をタップすることが必要である。
ステップS11でコピーモードの指示が入力されていない場合(NO)の場合には、検知処理部102は、カメラ5からの撮影画像をフレームバッファ領域103bに保存し、タブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS32)。
投影画像生成部105は、フレームバッファ領域103bから撮影画像を読み出し、タブレットPC8の位置及び姿勢を特定する座標に基づいて、当該撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する(ステップS33)。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。図14(A)は、プロジェクタ4側からテーブル7を見た場合のタブレットPC8と対象物6を含むテーブル7との位置関係を示す図であり、図14(B)は、対象物6上を通過するタブレットPC8に投影される部分画像のシーケンスを示す図である。
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS34)。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影し(ステップS35)、ステップS32に戻る。
ステップS32〜S35のループ処理により、タブレットPC8の位置及び姿勢が検知されて、タブレットPC8の位置及び姿勢に応じた部分画像がタブレットPC8上に投影される。
ステップS11でコピーモードの指示が入力された場合(YES)の場合には、制御部104は、撮影画像のスナップショット(即ち、カメラ5のシャッターを切ったときの画像)の保存指示及びスナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標の保存指示を検知処理部102に出力する(ステップS36)。
検知処理部102は、撮影画像のスナップショットをスナップショット領域103cに保存すると共に当該スナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標を位置保存領域103dに保存する(ステップS37)。
次いで、制御部104は、コピーモードの指示及び投影画像の生成の指示を投影画像生成部105に出力する(ステップS38)。
投影画像生成部105は、位置保存領域103dに保存されたスナップショットの撮影の瞬間のタブレットPC8の座標に基づいて、スナップショット領域103cに保存されたスナップショットから投影用の部分画像を切り出し、切り出した部分画像をスナップショット領域103cに保存すると共に投影処理部106に出力する(ステップS39)。
投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS40)。投影変換では、適宜部分画像の拡大縮小等を実行しても良い。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS41)。
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS42)。
投影画像生成部105は、入力処理部101及び制御部104を介してタブレットPC8からアノテーション画像の座標の入力があるか否かを判別する(ステップS43)。
ステップS43でアノテーション画像の座標の入力がない場合(NO)には、ステップ39に進み、投影画像生成部105は、スナップショット領域103cに保存された投影用の部分画像を投影処理部106に出力する。以降のステップS20の処理では、投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標に代えて、ステップS42で検知処理部102から出力されるタブレットPC8の座標を利用する。
以上のステップS31でYES→ステップS43でNO→ステップS39の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、スナップショットから切り出された投影用の部分画像がタブレットPC8上に投影される。
ステップS43でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力すると共に、生成されたアノテーション画像をスナップショット領域103cに保存された投影用の部分画像に付加して、投影処理部106に出力する(ステップS44)。
投影処理部106は、ステップS22で検知処理部102から出力されるタブレットPC8の座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された部分画像及びアノテーション画像をプロジェクタ4に出力し(ステップS45)、ステップS41の処理に進む。以降のステップS21の処理では、プロジェクタ4は、投影変換された部分画像をタブレットPC8に投影し、アノテーション画像を対象物6を含むテーブル7の領域に投影する。
以上のステップS31でYES→ステップS43でYES→ステップS41の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、アノテーション画像が付加された投影用の部分画像がタブレットPC8上に投影され、さらに、アノテーション画像は単独で実物(即ち、対象物6を含むテーブル7の領域)に投影される。
次に、PC1で実行される共有モードの処理を説明する。
共有モードとは、複数のユーザが1つのタブレットPC8を共用し、タブレットPC8のタッチパネルに表示される画像と同一の画像をテーブル7の任意の領域に投影するモードである。このとき、タブレットPC8は表示機能を有するので、プロジェクタ4がタブレットPC8上に画像を投影する必要はないが、画像を投影してもよい。また、タブレットPC8にアノテーション画像の入力がある場合には、当該アノテーション画像も上記テーブル7の任意の領域に投影される。
図15は、PC1で実行される共有モードの処理を示すフローチャートである。
まず、制御部104は、入力処理部101を介してタブレットPC8から共有モードの指示が入力されたか否かを判別する(ステップS51)。
尚、ステップS31でユーザがタブレットPC8で共有モードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内の共有モードの位置をタップすることが必要である。
ステップS51で共有モードの指示が入力されていない場合(NO)には、本処理を終了する。一方、ステップS51で共有モードの指示が入力された場合(YES)には、制御部104は、撮影画像内のタブレットPC8の位置を特定する座標(以下、このタブレットPC8の座標を共有座標という)の保存指示を検知処理部102に出力する(ステップS52)。
検知処理部102は、撮影画像から共有座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS53)。尚、検知処理部102は、カメラ5から新たな撮影画像を入力する度にタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力する。
投影画像生成部105は、制御部104を介してアノテーション画像の座標の入力があるか否かを判別する(ステップS54)。アノテーション画像の座標は、タブレットPC8から入力される場合に限らず、PC2から入力されてもよい。
ステップS54でアノテーション画像の座標の入力がない場合(NO)には、本判別を繰り返す。
ステップS54でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS55)。
一方、PC2からアノテーション画像の座標が入力されている場合は、制御部104がアノテーション画像の座標を入力処理部101を介してタブレットPC8に出力し、タブレットPC8に、このアノテーション画像を表示させる(ステップS56)。タブレットPC8に直接アノテーション画像が入力されている場合は、タブレットPC8がアノテーション画像を表示するので、ステップS56の処理は省略される。
投影処理部106は、アノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力する(ステップS57)。
プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影する(ステップS58)。
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力し(ステップS59)、ステップS54に戻る。
図15の処理によれば、アノテーション画像が検知処理部102に検知されるタブレットPC8に表示され、且つアノテーション画像が共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置に投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、アノテーション画像を当該アノテーション画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
また、ステップS54〜S59のループにより、アノテーション画像の内容が更新されると、タブレットPC8に表示されるアノテーション画像及び投影されるアノテーション画像も逐次更新される。
上記共有モードでは、投影変換されたアノテーション画像は、タブレットPC8から共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置を特定する座標(共有座標)に投影されたが、検知処理部102が、タブレットPC8が所定時間(例えば、5分)移動していないか否かを判別し、タブレットPC8が所定時間(例えば、5分)移動していない場合には、その移動していないタブレットPC8の位置に投影変換されたアノテーション画像が投影されるようにしてもよい。この場合、タブレットPC8が移動すると、移動中のタブレットPC8がアノテーション画像を表示し、さらに上記移動していないタブレットPC8の位置に、投影変換されたアノテーション画像が投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。
上記共有モードでは、アノテーション画像をスナップショットを撮影したときのタブレットPC8の位置に投影する例を説明したが、図16(A)に示すようにローカル側のユーザがタブレットPC8の正面に向いていない場合がある。この場合、アノテーション画像が文字を含むと、ユーザは読みにくいという問題がある。そこで、PC1が、ユーザにとって見やすい向きにアノテーション画像を自動的に回転させる処理を説明する。
図16(A)は、机7の領域、カメラ5の撮影領域、プロジェクタ4の投影領域、及びタブレットPC8の位置との関係を示す図であり、図16(B)は、カメラ5の撮影領域とタブレットPC8の位置との関係を示す図であり、図16(C)は、アノテーション画像の回転処理後のプロジェクタ4の投影領域とタブレットPC8の位置との関係を示す図である。
尚、ローカル側のユーザの位置を検出するための人感センサ10がPC1の制御部104に接続されているものとする。また、タブレットPC8には、その底辺を示すライン状のマークが付けられているものとする。
図17は、PC1により実行されるアノテーション画像の回転処理を示すフローチャートである。
まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を制御部104、投影画像生成部105及び投影処理部106に出力する(ステップS71)。また、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の底辺に付されたマークを検出し、投影処理部106に出力する(ステップS72)。
次いで、制御部104は、不図示の人感センサからのユーザの位置の検出情報に基づいて、撮影領域又は投影領域の4つの辺のうち基準となる1つの辺を選択し、基準となる辺の情報を投影処理部106に通知する(ステップS73)。例えば、図16(A)〜(C)では、制御部104は、撮影領域又は投影領域の右辺を基準となる辺とする。
制御部104は、タブレットPC8に表示される又は投影されるアノテーション画像の座標若しくはPC2から受信した、タブレットPC8上に表示されるアノテーション画像の座標を投影画像生成部105に出力する(ステップS74)。
投影画像生成部105は、アノテーション画像の座標に基づいて投影用のアノテーション画像を生成する(ステップS75)。
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影用のアノテーション画像を内接するように構成された矩形領域の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用のアノテーション画像に投影変換を行う(ステップS76)。さらに、投影処理部106は、PC8の底辺に付されたマーク及び基準となる辺の情報に基づいて、投影変換されたアノテーション画像に対して回転処理を実行し、回転処理後のアノテーション画像をプロジェクタ4に出力する(ステップS77)。より具体的には、投影処理部106は、PC8の底辺に付されたマークと基準となる辺との距離が最短になり、且つPC8の底辺に付されたマークと基準となる辺が並行になるように、投影変換されたアノテーション画像を回転する。
プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影し(ステップS78)、本処理を終了する。
上記回転処理よれば、ユーザの位置に基づいて撮影領域又は投影領域の4つの辺のうち基準となる1つの辺が選択され、この辺とPC8の底辺に付されたライン状のマークに基づいて、アノテーション画像に対する回転処理が実行されるので、ユーザにとって見やすい向きにアノテーション画像を自動的に回転することができる。尚、上記の実施例では、タブレットPC8の底辺にマークが付されているが、このマークは、タブレットPC8の上部又は左右の側部に付してもよい。
PC1,PC2の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、PC1,PC2に供給し、PC1,PC2のCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。
また、PC1のCPUが、PC1の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。
なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。
本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。 (A)は、PC1のハードウエア構成を示すブロック図であり、(B)は、PC2のハードウエア構成を示すブロック図である。 タブレットPC8の外観図である。 PC1及びPC2の機能構成を示すブロック図である。 投影変換された画像がタブレットPC8上に投影される状態を示す図である。 逆投影変換されたアノテーション画像が投影用画像上に形成された状態を示す図である。 (A)は、表示領域23に描かれたアノテーション画像がタブレットPC8に表示される例を示す図であり、(B)は、アノテーション画像のファイルがホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたときに、当該アノテーション画像がタブレットPC8に表示される例を示す図である。 図8は、表示領域21に描かれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ている場合に、ローカル側で当該アノテーション画像の一部がタブレットPC8に表示され、当該アノテーション画像の残りが投影される例を示す図である。 PC1及びPC2で実行される基本処理を示すフローチャートである。 GUIをタブレットPC8上に投影する処理及びタブレットPC8上で指定されたモードを実行する処理を示すフローチャートである。 タブレットPC8へ投影されたGUI画像の一例を示す図である。 PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。 PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。 (A)は、プロジェクタ4側からテーブル7を見た場合のタブレットPC8と対象物6を含むテーブル7との位置関係を示す図であり、(B)は、対象物6上を通過するタブレットPC8に投影される部分画像のシーケンスを示す図である。 PC1で実行される共有モードの処理を示すフローチャートである。 (A)は、机7の領域、カメラ5の撮影領域、プロジェクタ4の投影領域、及びタブレットPC8の位置との関係を示す図であり、(B)は、カメラ5の撮影領域とタブレットPC8の位置との関係を示す図であり、(C)は、アノテーション画像の回転処理後のプロジェクタ4の投影領域とタブレットPC8の位置との関係を示す図である。 PC1により実行されるアノテーション画像の回転処理を示すフローチャートである。
符号の説明
1,2 PC
3 ネットワーク
4 プロジェクタ
5 カメラ
7 机
8 タブレットPC
10 人感センサ
101 入力処理部
102 検知処理部
103 保存部
104 制御部
105 投影画像生成部
106 投影処理部
201 制御部
202 保存部
203 入力部
204 表示部

Claims (8)

  1. 注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、
    当該入力装置を含む領域を撮影する撮影装置と、
    前記領域に注釈画像を投影する投影装置と、
    前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
    前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
    前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
    前記入力装置に入力された座標情報を入力する第1入力手段、
    前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、
    前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
    前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理システム。
  2. 前記情報処理装置にネットワークを介して接続される遠隔端末を備え、
    前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、
    前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする請求項1記載の情報処理システム。
  3. 前記第2入力手段により入力された注釈画像から、前記重なる部分の注釈画像を除いた残りの注釈画像は、前記投影装置から投影されることを特徴とする請求項2記載の情報処理システム。
  4. 前記第2表示手段は、データをドラグアンドドロップにより前記入力装置に転送するホットスポットエリアを含む画面を表示することを特徴とする請求項2記載の情報処理システム。
  5. さらに前記入力装置から共有モードの指示が入力され、前記注釈画像の座標が入力された場合には、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該注釈画像が入力されたときの撮影画像内の入力装置の位置に当該注釈画像を投影することを特徴とする請求項2又は3に記載の情報処理システム。
  6. 前記情報処理装置は、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、
    前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする請求項2又は3に記載の情報処理システム。
  7. 前記情報処理装置は、ユーザの位置を検出するユーザ検知手段を備え、
    前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、
    前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、
    前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする請求項1乃至6のいずれか1つに記載の情報処理システム。
  8. 注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と接続される情報処理装置であって、
    前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
    前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
    前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
    前記入力装置に入力された座標情報を入力する第1入力手段、
    前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、
    前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
    前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理装置。
JP2008140061A 2008-05-28 2008-05-28 情報処理システム及び情報処理装置 Expired - Fee Related JP5187001B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008140061A JP5187001B2 (ja) 2008-05-28 2008-05-28 情報処理システム及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008140061A JP5187001B2 (ja) 2008-05-28 2008-05-28 情報処理システム及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2009290488A true JP2009290488A (ja) 2009-12-10
JP5187001B2 JP5187001B2 (ja) 2013-04-24

Family

ID=41459275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008140061A Expired - Fee Related JP5187001B2 (ja) 2008-05-28 2008-05-28 情報処理システム及び情報処理装置

Country Status (1)

Country Link
JP (1) JP5187001B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118713A (ja) * 2009-12-04 2011-06-16 Fujitsu Ltd 投光制御プログラム、投光制御装置および投光制御方法
JP2022077678A (ja) * 2020-11-12 2022-05-24 株式会社Nttドコモ 制御装置、及びロボット

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JPN6012067209; Izad,S.,et al: 'C-Slate: A Multi-Touch and Object Recognition Systemfor Remote Collaboration using Horizontal Surfac' Proc. of Second Annual IEEE Int. Workshop on Horizontal Interactive Human-Computer System , 2007, P.3-10 *
JPN7012005279; Foote,J., et al: 'Annotating Remote Reality with iLight' FXPAL Technical Paper , 2005 *
JPN7012005280; Palmer,D.,et al: 'Annotating with light for remote guidance' Proc. of the 19th Australasian conf. on Computer-Human Interaction: Entertaining User Interfaces , 20071128, P.103-110 *
JPN7012005281; 伊與田ほか: '実物ベース遠隔コラボレーション支援システム"LightCollabo"' 富士ゼロックス テクニカルレポート No.16, 2006, P.54-63 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118713A (ja) * 2009-12-04 2011-06-16 Fujitsu Ltd 投光制御プログラム、投光制御装置および投光制御方法
JP2022077678A (ja) * 2020-11-12 2022-05-24 株式会社Nttドコモ 制御装置、及びロボット
JP7502154B2 (ja) 2020-11-12 2024-06-18 株式会社Nttドコモ 制御装置、及びロボット

Also Published As

Publication number Publication date
JP5187001B2 (ja) 2013-04-24

Similar Documents

Publication Publication Date Title
US20220103709A1 (en) Method and apparatus for scanning and printing a 3d object
JP6525611B2 (ja) 画像処理装置およびその制御方法
US8004571B2 (en) Projection-based system, apparatus and program of storing annotated object image
JP2008217590A (ja) 情報共有支援システム、情報処理装置及び制御プログラム
US20100149206A1 (en) Data distribution system, data distribution apparatus, data distribution method and recording medium, improving user convenience
CN102045503A (zh) 信息处理设备、显示控制方法和显示控制程序
CN104735344A (zh) 控制装置、摄像系统及控制方法
JP2012053545A (ja) 画像処理システムおよびその制御方法
JP5262888B2 (ja) 文書表示制御装置及びプログラム
JP5187001B2 (ja) 情報処理システム及び情報処理装置
JP7155781B2 (ja) 情報処理装置及び情報処理プログラム
JP6314564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4674627B2 (ja) 情報処理装置、遠隔指示システム及びプログラム
JP2008250700A (ja) 情報処理装置、ウインドウ再生方法及びプログラム
JP4999606B2 (ja) 画像撮影編集装置、画像撮影編集方法及び画像編集プログラム
JP6070795B2 (ja) 情報処理装置、その制御方法、及びプログラム
JP2009076983A (ja) 情報処理システム及び情報処理装置
JP2013131811A (ja) 画像表示装置
JP2013084148A (ja) 電子ペンシステム及びプログラム
US20090096880A1 (en) Information processing apparatus, storing method, and computer readable recording medium
JP2010117465A (ja) 情報処理装置、情報処理システム及びプログラム
JP5162855B2 (ja) 画像処理装置、遠隔画像処理システム及び画像処理方法
CN112913227A (zh) 使用移动设备注释共享显示器的系统和方法
JP7730707B2 (ja) 画像処理装置および画像処理方法
JP2010068500A (ja) 情報処理装置、遠隔指示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5187001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees