JP2012108771A - 画面操作システム - Google Patents
画面操作システム Download PDFInfo
- Publication number
- JP2012108771A JP2012108771A JP2010257779A JP2010257779A JP2012108771A JP 2012108771 A JP2012108771 A JP 2012108771A JP 2010257779 A JP2010257779 A JP 2010257779A JP 2010257779 A JP2010257779 A JP 2010257779A JP 2012108771 A JP2012108771 A JP 2012108771A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- information
- image
- camera
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】状況により画面操作が制約されることがなく、かつ画面操作を簡便に行うことができるようにする。
【解決手段】情報処理装置1により制御される画像表示装置2の画面4に対してユーザが指示物6を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を情報処理装置に実行させる画面操作システムであり、画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するディスプレイ8と、情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置5を有し、携帯情報装置のカメラで、画像表示装置の画面上の所要の位置に指示物が重なって映るように撮像し、これにより得られた撮像画像情報に基づいて操作情報を取得する。
【選択図】図1
【解決手段】情報処理装置1により制御される画像表示装置2の画面4に対してユーザが指示物6を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を情報処理装置に実行させる画面操作システムであり、画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するディスプレイ8と、情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置5を有し、携帯情報装置のカメラで、画像表示装置の画面上の所要の位置に指示物が重なって映るように撮像し、これにより得られた撮像画像情報に基づいて操作情報を取得する。
【選択図】図1
Description
本発明は、情報処理装置によって画像表示装置に表示された画面をユーザに操作させる画面操作システムに関するものである。
情報処理装置では、所要のプログラムにより画像表示装置に画面を表示させ、その画面上のアイコンなどの操作対象をユーザがマウスなどの入力デバイスを用いて操作することで、情報処理装置で実行されるプログラムに対して所要の指示を行うようにした、いわゆるGUI(Graphical User Interface)による画面操作システムが広く普及している。
一方、画像表示装置にプロジェクタを用いると、大画面を得ることができるため、多人数を対象にした会議などで都合がよいが、画面操作を行うには、プロジェクタを制御する情報処理装置に接続された入力デバイスを用いる必要があり、複数のユーザが画面操作を行う場合には、ユーザが交代で情報処理装置の入力デバイスを操作することになり、不便である。
このようなプロジェクタの画面を対象にした画面操作システムとして、スクリーン上に投影された画面の前で、ユーザが指先などの指示物を動かすことで、画面操作を行うことができるようにした技術が知られている(特許文献1参照)。この技術は、携帯電話端末にプロジェクタを内蔵した場合には、画面の表示中に携帯電話端末を操作すると、プロジェクタの画面が動いて見難くなる不便を解消するものであるが、装置の入力デバイスを操作することなく、画面操作を行うことができるため、一般的なプロジェクタでも利便性を高めることができるものと考えられる。
さて、前記従来の技術は、プロジェクタに併設されたカメラで、スクリーン上の画面を撮像し、ユーザの手などの指示物が画面に重なるように映った撮像画像を解析して、指示物の操作を検出するものであるが、画面上のアイコンなどの操作対象に重なるように指示物を動かす必要があるため、スクリーンが巨大で画面上の操作対象に指示物が届かない場合には、画面操作を行うことができないという問題があった。また、画面操作を行う者は、スクリーンの前に出て行かなければならず、手軽に画面操作を行うことができないという不便があった。
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、状況により画面操作が制約されることがなく、かつ画面操作を簡便に行うことができるように構成された画面操作システムを提供することにある。
本発明の画面操作システムは、情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、前記カメラにより、前記画像表示装置の画面上の所要の位置に指示物が重なって映るように撮像して得られた撮像画像情報に基づいて前記操作情報を取得するようにした構成とする。
また、本発明の画面操作システムは、情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するとともに画面上での指示物によるタッチ操作を検出するタッチパネルディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、前記カメラにより前記画像表示装置の画面を撮像して得られた撮像画像情報と、その撮像画像が表示された前記タッチパネルディスプレイ上でのタッチ操作で得られた操作位置情報とに基づいて前記操作情報を取得するようにした構成とする。
本発明によれば、ユーザが所持する携帯情報装置で画像表示装置の画面を撮影して画面操作を行うことから、画像表示装置の画面が見える場所にユーザがいれば画面操作を行うことができる。このため、状況により画面操作が制約されることがなく、例えばスクリーンが巨大であるために画面上のアイコンなどの操作対象に指示物が届かない場合でも、画面操作を行うことができ、高い利便性が得られる。
さらに、画面操作を行う者がスクリーンの前に出て行く必要がなく、自席に着席したまま画面操作を行うことができ、また、各人が所持する携帯情報装置を利用して画面操作を行うため、複数のユーザが画面操作を行う場合に、情報処理装置の入力デバイスを交代で操作する面倒がなく、画面操作を簡便に行うことができる。そして、携帯情報装置は、広く普及しているカメラ付き携帯電話端末などで構成することができ、複数のユーザが画面操作を行う場合に専用の装置を人数分用意する必要がなく、導入コストを削減することができる。
前記課題を解決するためになされた第1の発明は、情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、前記カメラにより、前記画像表示装置の画面上の所要の位置に指示物が重なって映るように撮像して得られた撮像画像情報に基づいて前記操作情報を取得するようにした構成とする。
また、第2の発明は、情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するとともに画面上での指示物によるタッチ操作を検出するタッチパネルディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、前記カメラにより前記画像表示装置の画面を撮像して得られた撮像画像情報と、その撮像画像が表示された前記タッチパネルディスプレイ上でのタッチ操作で得られた操作位置情報とに基づいて前記操作情報を取得するようにした構成とする。
前記第1および第2の発明によると、ユーザが所持する携帯情報装置で画像表示装置の画面を撮影して画面操作を行うことから、画像表示装置の画面が見える場所にユーザがいれば画面操作を行うことができる。このため、状況により画面操作が制約されることがなく、例えばスクリーンが巨大であるために画面上のアイコンなどの操作対象に指示物が届かない場合でも、画面操作を行うことができ、高い利便性が得られる。
さらに、画面操作を行う者がスクリーンの前に出て行く必要がなく、自席に着席したまま画面操作を行うことができ、また、各人が所持する携帯情報装置を利用して画面操作を行うため、複数のユーザが画面操作を行う場合に、情報処理装置の入力デバイスを交代で操作する面倒がなく、画面操作を簡便に行うことができる。そして、携帯情報装置は、広く普及しているカメラ付き携帯電話端末などで構成することができ、複数のユーザが画面操作を行う場合に専用の装置を人数分用意する必要がなく、導入コストを削減することができる。
また、第3の発明は、前記第1若しくは第2の発明において、前記携帯情報装置および前記情報処理装置の少なくともいずれかが、前記画像表示装置の画面内で前記カメラにより撮像された撮像領域に対する指示物の相対的な位置を求める第1の操作位置取得手段と、前記画像表示装置の画面全体に対する撮像領域の絶対的な位置を求める撮像位置取得手段と、前記第1の操作位置取得手段および前記撮像位置取得手段で得られた情報に基づいて、前記画像表示装置の画面全体に対する指示物の絶対的な位置を求める第2の操作位置取得手段と、を備えた構成とする。
これによると、画面操作を行う際に画像表示装置の画面の一部を携帯情報装置で撮像すればよく、画面操作が容易になる。
また、第4の発明は、前記第1乃至第3の発明において、前記携帯情報装置および前記情報処理装置の少なくともいずれかが、指示物の動きによる操作形態を判別する操作形態判別手段を備えた構成とする。
これによると、指示物の動きで多様な指示を行うことができるため、画面操作が容易になる。この場合、タップ、フリック、およびピンチイン/ピンチアウトなどの各操作形態ごとに、選択、画面のスクロールや頁送り、画面の拡大および縮小などの各処理が割り当てられる。
また、第5の発明は、前記第1乃至第4の発明において、前記携帯情報装置および前記情報処理装置の少なくともいずれかが、前記カメラにより前記画像表示装置の画面を斜めから撮像することにより生じる撮像画像の歪みを補正する画像補正手段を備えた構成とする。
これによると、撮像画像の歪みが補正されることで、撮像画像が見やすくなるため、画面操作が容易になる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
図1は、本発明の第1実施形態にかかる画面操作システムを示す全体構成図である。この画面操作システムは、情報処理装置1により制御されるプロジェクタ(画像表示装置)2でスクリーン3上に投影表示された画面4に対してユーザが行った操作に関する操作情報を取得して、その操作情報に応じた処理を情報処理装置1に実行させるものであり、プロジェクタ2の画面4を操作するために、ユーザが所持する携帯情報装置5が用いられる。
図1は、本発明の第1実施形態にかかる画面操作システムを示す全体構成図である。この画面操作システムは、情報処理装置1により制御されるプロジェクタ(画像表示装置)2でスクリーン3上に投影表示された画面4に対してユーザが行った操作に関する操作情報を取得して、その操作情報に応じた処理を情報処理装置1に実行させるものであり、プロジェクタ2の画面4を操作するために、ユーザが所持する携帯情報装置5が用いられる。
携帯情報装置5は、具体的には携帯電話端末(PHS端末を含む)、スマートフォン、およびPDAなどで構成され、プロジェクタ2の画面4を撮像するカメラを備えており、ユーザが携帯情報装置5でプロジェクタ2の画面4を撮像し、その撮像画像が表示されたディスプレイ8の画面を見ながら、ユーザが手や指先あるいは指示棒などの指示物6を、プロジェクタ2の画面4上のアイコンなどの操作対象がある所要の位置に重なるように動かすことで、プロジェクタ2の画面4を操作することができる。
携帯情報装置5では、プロジェクタ2の画面4内でカメラの画角に収まる撮像領域7が指などの指示物6とともに撮像され、撮像領域7上の所要の位置に指などの指示物6が重なって映った撮像画像が得られ、この撮像画像情報に基づいて、プロジェクタ2の画面4に対してユーザが指示物6を用いて行った操作に関する操作情報を取得する。
携帯情報装置5と情報処理装置1とは、無線LANなどの無線通信媒体を介して通信を行うことができ、撮像画像情報から操作情報を取得する処理が、携帯情報装置5と情報処理装置1とで分担して行われ、携帯情報装置5から所要の情報が情報処理装置1にリアルタイムに送信される。
図2は、図1に示した携帯情報装置5および情報処理装置1の概略構成図である。携帯情報装置5は、カメラ11と、入力部12と、手振れセンサ13と、動体追尾処理部14と、画像解析部15と、指示物検出部16と、操作形態解析部17と、座標計算部18と、通信部19と、を備えている。
動体追尾処理部14は、入力部12から出力される撮像画像情報と、手振れセンサ13から出力される手振れ情報に基づいて、撮像対象物とカメラ11との相対動作を検知する。
画像解析部15は、動体追尾処理部14で得られた情報に基づいて、スクリーン3を認識し、さらにスクリーン3上の画面4の領域を認識する。この画面領域認識は、画面4上の所定位置に表示される標識画像などに基づいて行われる。この標識画像としては、画面4内で特徴のある画像、例えば画面4の左下に表示されるスタートボタンの画像がある。また、画面領域認識のために特別に画面に表示させたマーカーの画像も可能である。
指示物検出部16は、入力部12から出力される撮像画像情報と、動体追尾処理部14で得られた情報に基づいて、動き認識処理により撮像画像全体と動きの違う部分を検知し、その部分が指示物であるかを形状認識処理により判断する。ここでは、指示物の形状(例えば手、指および爪などの形状)に関する特徴点から指示物を認識する。
操作形態解析部(操作形態判別手段)17は、指示物検出部16で得られた情報に基づいて、指示物6の動きによる操作形態を判別する。ここで、操作形態には、タップ(指で軽く叩く操作)、フリック(指で軽くはらう操作)、ピンチイン/ピンチアウト(2本指の間を広げたり縮めたりする操作)などのジェスチャ操作などがあり、例えばタップで選択(マウスのクリックやダブルクリックに相当)、フリックで画面のスクロールや頁送り、ピンチイン/ピンチアウトで画面の拡大および縮小の各動作を指示することができる。
座標計算部(第1の操作位置取得手段)18は、画像解析部15と操作形態解析部17で得られた情報に基づいて、撮像領域7上での指示物6の相対的な位置を求める。ここでは、指示物6による指示位置(指示物6が手と認識された場合、その指先の位置)の座標を算出する。
なお、ディスプレイ8はディスプレイ制御部20により制御され、このディスプレイ制御部20には、カメラ11による撮像画像情報が入力部12を介して入力されて、ディスプレイ8に撮像画像が表示される。
図3は、携帯情報装置5で行われる処理の手順を示すフロー図である。まず、携帯情報装置5のカメラ11を起動して、プロジェクタ2でスクリーン3上に投影された画面4の撮像を開始すると(ST101)、手振れ補正および動体追尾処理が動体追尾処理部14にて開始され(ST102)、またスクリーン3およびスクリーン3上の画面4の領域を認識する処理が画像解析部15にて行われる(ST103)。
そして、カメラ11の撮像範囲に指などの指示物6が挿入されると、その指示物を認識する処理が指示物検出部16にて行われ(ST104)、ついで、タップやフリックなどの操作形態を判別する処理が操作形態解析部17にて行われ、また操作位置、すなわち撮像領域7上での指示物6の相対的な位置を求める処理が座標計算部18にて行われ(ST105)、これらの処理で取得した撮像画面に関する情報と操作形態および操作位置に関する情報とが通信部19から情報処理装置1に送信される(ST106)。
図2に示したように、情報処理装置1は、通信部21と、画像座標解析部22と、操作座標解析部23と、操作処理部24と、表示制御部25と、を備えている。
表示制御部25は、プロジェクタ2の表示動作を制御し、プロジェクタ2で表示中の画面情報を画像座標解析部22に出力する。
画像座標解析部(撮像位置取得手段)22は、通信部21で受信した撮像画像情報と、表示制御部25から出力される表示中の画面情報とに基づいて、プロジェクタ2の画面4全体に対する撮像領域7の絶対的な位置を求める。ここでは、マッチング処理により、画面4全体に対する撮像領域7の位置を求め、これにより特定された撮像領域7に関して詳細な座標を算出する。
操作座標解析部(第2の操作位置取得手段)23は、通信部21で受信した指示物6に関する情報、すなわち撮像領域7上での指示物6の相対的な位置に関する情報に基づいて、プロジェクタ2の画面4全体に対する指示物6の絶対的な位置を求める。そして、この指示物6の位置に関する情報に基づいて、画面4上の操作対象(選択メニューやアイコンなど)を判別し、さらに通信部21で受信したタップやフリックなどの操作形態に関する情報に基づいて、指示物が画面4上でどのような操作を行ったかを示す操作内容に関する情報(操作情報)を出力する。
操作処理部24は、操作座標解析部23で得られた操作内容に関する情報(操作情報)に基づいて、その操作内容に応じた処理を実行する。
なお、ここでは、必要とされる各種の処理を携帯情報装置5と情報処理装置1とに割り振っているが、これらの処理は、携帯情報装置5および情報処理装置1のいずれで行うことも可能である。例えば携帯情報装置5の操作形態解析部17で、タップやフリックなどの操作形態を判別する処理を行うようにしたが、この操作形態の判別処理を情報処理装置1で行うようにしてもよい。
ただし、携帯情報装置5の通信負荷を軽減し、また複数のユーザが携帯情報装置5を用いて画面操作を行う場合の情報処理装置1の演算負荷を軽減するために、携帯情報装置5の処理能力が許す限り、必要とされる処理をできるだけ携帯情報装置5で行う構成とすることが望ましい。
(第2実施形態)
図4は、本発明の第2実施形態にかかる画面操作システムを示す全体構成図である。この画面操作システムは、第1実施形態と同様に、情報処理装置1と、プロジェクタ(画像表示装置)2と、携帯情報装置31と、からなっており、プロジェクタ2によりスクリーン3上に投影表示された画面4を、ユーザが所持する携帯情報装置31を用いて操作するものであるが、特にここでは、携帯情報装置31が、カメラおよび無線通信機能の他に、タッチパネルディスプレイ32を備えている。
図4は、本発明の第2実施形態にかかる画面操作システムを示す全体構成図である。この画面操作システムは、第1実施形態と同様に、情報処理装置1と、プロジェクタ(画像表示装置)2と、携帯情報装置31と、からなっており、プロジェクタ2によりスクリーン3上に投影表示された画面4を、ユーザが所持する携帯情報装置31を用いて操作するものであるが、特にここでは、携帯情報装置31が、カメラおよび無線通信機能の他に、タッチパネルディスプレイ32を備えている。
携帯情報装置31のタッチパネルディスプレイ32は、カメラによる撮像画像を表示するとともにその画面上での指先などの指示物6によるタッチ操作を検出するものであり、ユーザがカメラでプロジェクタ2の画面4を撮像しながら、その撮像画面が表示されたタッチパネルディスプレイ32上で指示物6を動かすことで、プロジェクタ2の画面4を操作することができる。
携帯情報装置31では、プロジェクタ2の画面4内でカメラの画角に収まる撮像領域7が撮像され、これにより得られた撮像画像情報と、撮像領域7が表示されたタッチパネルディスプレイ32上での指示物6によるタッチ操作で得られた操作位置情報とに基づいて、プロジェクタ2の画面4に対してユーザが指示物6を用いて行った操作に関する操作情報を取得する。
図5は、図4に示した携帯情報装置31および情報処理装置1の概略構成図である。なお、図2に示した第1実施形態と同一構成のものには同一の符号を付してその詳細な説明は省略する。
携帯情報装置31では、タッチパネルディスプレイ32がディスプレイ制御部33により制御され、このディスプレイ制御部33には、カメラ11による撮像画像情報が入力部12を介して入力されて、撮像画像がタッチパネルディスプレイ32に表示される。また、ディスプレイ制御部33では、タッチパネルディスプレイ32上で指先などの指示物6で行ったタッチ操作が検出され、タッチ位置に関する情報が出力される。
このタッチ位置に関する情報は操作形態解析部17に入力され、操作形態解析部17が、タッチ位置に関する情報に基づいて、指示物6の動きによるタップやフリックなどの操作形態を判別する。また、タッチ位置に関する情報は、操作形態解析部17を介して座標計算部18に入力され、座標計算部18が、タッチ位置に関する情報に基づいて、撮像領域7上での指示物6の相対的な位置を求める。
図6は、携帯情報装置31で行われる処理の手順を示すフロー図である。ここでは、図3に示した第1実施形態と同様に、プロジェクタ2でスクリーン3上に投影された画面4の撮像が開始されると(ST201)、手振れ補正および動体追尾処理を開始し(ST202)、スクリーン3およびスクリーン3上の画面4の領域を認識する処理が行われる(ST203)。そして、ディスプレイ制御部33から出力されるタッチ位置に関する情報に基づいて、タップやフリックなどの操作形態を判別する処理、および操作位置を算出する処理が行われ(ST204)、これらの処理で取得した撮像画面に関する情報と操作形態および操作位置に関する情報とが情報処理装置1に送信される(ST205)。
情報処理装置1は、第1実施形態と同一であり、同一の処理が行われる。
以上のように、本発明の第1および第2の各実施形態にかかる画面操作システムでは、ユーザが所持する携帯情報装置5,31でプロジェクタ2の画面4を撮影して画面操作を行うことから、プロジェクタ2の画面4が見える場所にユーザがいれば画面操作を行うことができる。このため、状況により画面操作が制約されることがなく、例えばスクリーン3が巨大であるために画面上のアイコンなどの操作対象に指示物が届かない場合でも、画面操作を行うことができ、高い利便性が得られる。
さらに、画面操作を行う者がスクリーン3の前に出て行く必要がなく、自席に着席したまま画面操作を行うことができ、また、各人が所持する携帯情報装置5,31を利用して画面操作を行うため、複数のユーザが画面操作を行う場合に、情報処理装置1の入力デバイスを交代で操作する面倒がなく、画面操作を簡便に行うことができる。そして、携帯情報装置5,31は、広く普及しているカメラ付き携帯電話端末などで構成することができ、複数のユーザが画面操作を行う場合に専用の装置を人数分用意する必要がなく、導入コストを削減することができる。
特に、プロジェクタ2の画面4内の撮像領域7上での指示物6の相対的な位置を求めるとともに、プロジェクタ2の画面4全体に対する撮像領域7の位置を求めて、プロジェクタ2の画面4全体に対する指示物6の絶対的な位置を求める構成としたため、画面操作を行う際にプロジェクタ2の画面4の一部を携帯情報装置5,31で撮像すればよく、画面操作が容易になる。
また、指示物6の動きによるタップ、フリック、およびピンチイン/ピンチアウトなどの操作形態を判別する構成としたため、各操作形態ごとに、選択、画面のスクロールや頁送り、画面の拡大および縮小などの各処理を割り当てることで、指示物6の動きで多様な指示を行うことができるため、画面操作が容易になる。
なお、第1および第2の各実施形態では、画像表示装置にプロジェクタを用いたが、本発明における画像表示装置は、プロジェクタに限定されるものではなく、プラズマディスプレイパネルや液晶ディスプレイパネルを用いた画像表示装置も適用可能である。
図7は、携帯情報装置5のディスプレイ8に表示される撮像領域7の画像を示す図であり、(A)に、画像の歪みを補正する画像補正処理を行う前の状態を、(B)に画像補正処理を行った後の状態を、(C)に画像を拡大表示した状態を、それぞれ示す。図8は、携帯情報装置5および情報処理装置1の概略構成図である。
なお、図8は、前記の第1実施形態に画像補正処理を適用した例を示しており、画像補正処理にかかる要部のみを図示し、特に言及しないものは前記の第1実施形態と同様である。また、ここで説明する画像補正処理は、第1実施形態および第2実施形態のいずれにも適用することができる。
ユーザがスクリーン3を斜めから見る位置で携帯情報装置5のカメラ11でスクリーン3上の画面4を撮影すると、図7(A)に示すように、スクリーン3上で矩形をなす撮像領域7が歪んだ4角形に表示され、指などの指示物6による操作が難しくなる。そこでここでは、図7(B),(C)に示すように、撮像画像を、スクリーン3を正面から見た状態に補正して表示する。このように撮像画像の歪みを補正すると、撮像画像が見やすくなるため、画面操作が容易になる。
図8に示すように、情報処理装置1には、プロジェクタ(画像表示装置)2の画面を斜めから撮像することにより生じる撮像画像の歪みを補正する画像補正部(画像補正手段)35が設けられており、携帯情報装置5のカメラ11から出力される撮像画像情報が情報処理装置1に送信されて、画像補正部35で撮像画像の歪みが補正され、ここで得られた補正済み撮像画像情報が携帯情報装置5に送信される。
携帯情報装置5では、補正済み撮像画像をそのまま表示すると、図7(B)に示すように、ディスプレイ8の画面内に補正済み撮像画像が小さく表示されるため、携帯情報装置5の拡大機能を用いて、図7(C)に示すように、補正済み撮像画像を拡大表示する。
なお、ここでは、画像補正処理の演算負荷が大きいため、情報処理装置1で画像補正処理を行うようにしたが、携帯情報装置5が高い処理能力を備えたものであれば、携帯情報装置5で画像補正処理を行うようにしてもよい。
図9は、本発明における画像表示装置の別例を示す斜視図である。この画像表示装置41は、携帯型情報処理装置42に内蔵されるものであり、スクリーン3に画面4を投影するための光学部品が収容された光学エンジンユニット43と、この光学エンジンユニット43内の光学部品を制御するための基板などが収容された制御ユニット44とで構成され、光学エンジンユニット43は制御ユニット44に回動自在に支持されている。なお、この画像表示装置41は、光源に半導体レーザを用いたものである。
携帯型情報処理装置42の筐体45におけるキーボード46の裏面側には、光ディスク装置などの周辺機器が取り替え可能に収容される収容スペース、いわゆるドライブベイが形成されており、このドライブベイに画像表示装置41の筐体47が取り付けられ、この筐体47に対して光学エンジンユニット43および制御ユニット44が出し入れ可能に設けられており、使用時には光学エンジンユニット43および制御ユニット44を引き出した状態で、光学エンジンユニット43を回動させて、光学エンジンユニット43からのレーザ光の投射角度を調整することで、画面4をスクリーン3上に適切に表示させることができる。
この画像表示装置41は、携帯型情報処理装置42に内蔵されるため、比較的少人数の会議などで簡便に使用することができ、また携帯型情報処理装置42のディスプレイ48より格段に大きな画面4を表示させることができるため、ユーザは自席に着席したまま画面4を見ることができる。この画像表示装置41を、前記の本発明による画面操作システムと組み合わせて用いると、ユーザは、携帯型情報処理装置42を交替で操作する面倒がなく、各人が所持する携帯情報装置5,31を利用して自席に着席したまま、画像表示装置41の画面操作を行うことができ、高い利便性が得られる。
図10は、本発明による画面操作システムの変形例を示す全体構成図である。この画面操作システムは、情報処理装置51により制御される画像表示装置52で表示される画面と同一の画面を遠隔地や別室にある画像表示装置53に表示させる遠隔表示システムにおいて、画像表示装置53の画面を見ているユーザが、携帯情報装置5を用いて情報処理装置51の出力画面を操作することができるようにしたものである。
この画面操作システムでは、A地点にある情報処理装置51がネットワークを介してB地点にある中継装置54と接続されて、表示信号が情報処理装置51から中継装置54に送信され、中継装置54が画像表示装置53を制御して画面を表示する。携帯情報装置5は、前記の第1実施形態で示したものであり、第1実施形態と同様の要領で画面操作を行えばよい。
情報処理装置51は、第1実施形態で示した情報処理装置1と同一構成のものでよく、携帯情報装置5との間での通信が、ネットワークおよび中継装置54を介して行われる。中継装置54と携帯情報装置5とは、無線LANなどの無線通信媒体を介して通信を行うことができる。
なお、ここでは、第1実施形態で示した携帯情報装置5を用いた例を示したが、第2実施形態で示した携帯情報装置31をこの画面操作システムに適用することも可能である。
本発明にかかる画面操作システムは、状況により画面操作が制約されることがなく、かつ画面操作を簡便に行うことができる効果を有し、情報処理装置によって画像表示装置に表示された画面をユーザに操作させる画面操作システムなどとして有用である。
1 情報処理装置
2 プロジェクタ
3 スクリーン
4 画面
5,31 携帯情報装置
6 指示物7 撮像領域
8 ディスプレイ
11 カメラ
17 操作形態解析部(操作形態判別手段)
18 座標計算部(第1の操作位置取得手段)
19 通信部
22 画像座標解析部(撮像位置取得手段)
23 操作座標解析部(第2の操作位置取得手段)
32 タッチパネルディスプレイ
35 画像補正部(画像補正手段)
2 プロジェクタ
3 スクリーン
4 画面
5,31 携帯情報装置
6 指示物7 撮像領域
8 ディスプレイ
11 カメラ
17 操作形態解析部(操作形態判別手段)
18 座標計算部(第1の操作位置取得手段)
19 通信部
22 画像座標解析部(撮像位置取得手段)
23 操作座標解析部(第2の操作位置取得手段)
32 タッチパネルディスプレイ
35 画像補正部(画像補正手段)
Claims (5)
- 情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、
前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、
前記カメラにより、前記画像表示装置の画面上の所要の位置に指示物が重なって映るように撮像して得られた撮像画像情報に基づいて前記操作情報を取得するようにしたことを特徴とする画面操作システム。 - 情報処理装置により制御される画像表示装置の画面に対してユーザが指示物を用いて行った操作に関する操作情報を取得して、その操作情報に応じた処理を前記情報処理装置に実行させる画面操作システムであって、
前記画像表示装置の画面を撮像するカメラと、このカメラによる撮像画像を表示するとともに画面上での指示物によるタッチ操作を検出するタッチパネルディスプレイと、前記情報処理装置との間で情報を通信する通信部と、を備えた携帯情報装置を有し、
前記カメラにより前記画像表示装置の画面を撮像して得られた撮像画像情報と、その撮像画像が表示された前記タッチパネルディスプレイ上でのタッチ操作で得られた操作位置情報とに基づいて前記操作情報を取得するようにしたことを特徴とする画面操作システム。 - 前記携帯情報装置および前記情報処理装置の少なくともいずれかが、
前記画像表示装置の画面内で前記カメラにより撮像された撮像領域に対する指示物の相対的な位置を求める第1の操作位置取得手段と、
前記画像表示装置の画面全体に対する撮像領域の絶対的な位置を求める撮像位置取得手段と、
前記第1の操作位置取得手段および前記撮像位置取得手段で得られた情報に基づいて、前記画像表示装置の画面全体に対する指示物の絶対的な位置を求める第2の操作位置取得手段と、を備えたことを特徴とする請求項1若しくは請求項2に記載の画面操作システム。 - 前記携帯情報装置および前記情報処理装置の少なくともいずれかが、
指示物の動きによる操作形態を判別する操作形態判別手段を備えたことを特徴とする請求項1乃至請求項3のいずれかに記載の画面操作システム。 - 前記携帯情報装置および前記情報処理装置の少なくともいずれかが、
前記カメラにより前記画像表示装置の画面を斜めから撮像することにより生じる撮像画像の歪みを補正する画像補正手段を備えたことを特徴とする請求項1乃至請求項4のいずれかに記載の画面操作システム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010257779A JP2012108771A (ja) | 2010-11-18 | 2010-11-18 | 画面操作システム |
| US13/296,763 US20120127074A1 (en) | 2010-11-18 | 2011-11-15 | Screen operation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010257779A JP2012108771A (ja) | 2010-11-18 | 2010-11-18 | 画面操作システム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012108771A true JP2012108771A (ja) | 2012-06-07 |
Family
ID=46063889
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010257779A Pending JP2012108771A (ja) | 2010-11-18 | 2010-11-18 | 画面操作システム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20120127074A1 (ja) |
| JP (1) | JP2012108771A (ja) |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014067349A (ja) * | 2012-09-27 | 2014-04-17 | Seiko Epson Corp | ヒューマンインターフェース装置及び方法 |
| JP2014112222A (ja) * | 2012-11-20 | 2014-06-19 | Samsung Electronics Co Ltd | 着用式電子デバイス上への光学センサーの配置 |
| JP2014153947A (ja) * | 2013-02-08 | 2014-08-25 | Ricoh Co Ltd | 投影システム、画像生成プログラム、情報処理装置及び画像生成方法 |
| JP2014228740A (ja) * | 2013-05-23 | 2014-12-08 | 株式会社ニコン | 撮像装置、画像転送システム、画像転送方法、及び、プログラム |
| JP2015015004A (ja) * | 2013-07-08 | 2015-01-22 | 沖電気工業株式会社 | 情報処理装置、携帯端末および情報入力装置 |
| WO2015105044A1 (ja) * | 2014-01-10 | 2015-07-16 | 日本電気株式会社 | インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体 |
| JP2015176461A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | 映像信号出力装置、映像信号出力方法、プログラム及び表示システム |
| JP2015207082A (ja) * | 2014-04-18 | 2015-11-19 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示方法 |
| JP2016184426A (ja) * | 2016-06-08 | 2016-10-20 | カシオ計算機株式会社 | データ処理装置及びプログラム |
| US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
| US10194060B2 (en) | 2012-11-20 | 2019-01-29 | Samsung Electronics Company, Ltd. | Wearable electronic device |
| US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
| JP2019207573A (ja) * | 2018-05-29 | 2019-12-05 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
| US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
| US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
| JP2020145623A (ja) * | 2019-03-07 | 2020-09-10 | 株式会社リコー | 電子黒板および映像補正方法 |
| US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
| US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
| US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013070368A (ja) | 2011-09-05 | 2013-04-18 | Panasonic Corp | テレビ対話システム、端末および方法 |
| US20130249811A1 (en) * | 2012-03-23 | 2013-09-26 | Microsoft Corporation | Controlling a device with visible light |
| US9904414B2 (en) * | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
| KR102044826B1 (ko) * | 2013-01-02 | 2019-11-14 | 삼성전자 주식회사 | 마우스 기능 제공 방법 및 이를 구현하는 단말 |
| JP6146094B2 (ja) * | 2013-04-02 | 2017-06-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム、および、表示方法 |
| JP6398248B2 (ja) | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
| WO2015159543A1 (ja) * | 2014-04-18 | 2015-10-22 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示制御方法 |
| TWI518603B (zh) | 2014-05-22 | 2016-01-21 | 宏達國際電子股份有限公司 | 影像編輯方法與電子裝置 |
| US20180059863A1 (en) * | 2016-08-26 | 2018-03-01 | Lenovo (Singapore) Pte. Ltd. | Calibration of pen location to projected whiteboard |
| JP6822209B2 (ja) * | 2017-02-24 | 2021-01-27 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
| JP6226352B1 (ja) * | 2017-02-28 | 2017-11-08 | ビックリック株式会社 | 遠隔操作システム |
| JP2020008750A (ja) * | 2018-07-10 | 2020-01-16 | セイコーエプソン株式会社 | 表示装置および表示処理方法 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080018591A1 (en) * | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
| EP2049979B1 (en) * | 2006-08-02 | 2013-07-24 | Alterface S.A. | Multi-user pointing apparatus and method |
| TWI333624B (en) * | 2006-09-27 | 2010-11-21 | Chia Hoang Lee | A virtual input device and the input method thereof |
| TWI406153B (zh) * | 2007-06-12 | 2013-08-21 | Quanta Comp Inc | 游標控制方法及應用該游標控制方法之簡報系統及電腦可讀取儲存媒體 |
| JP2011028366A (ja) * | 2009-07-22 | 2011-02-10 | Sony Corp | 操作制御装置および操作制御方法 |
| US20120081391A1 (en) * | 2010-10-05 | 2012-04-05 | Kar-Han Tan | Methods and systems for enhancing presentations |
-
2010
- 2010-11-18 JP JP2010257779A patent/JP2012108771A/ja active Pending
-
2011
- 2011-11-15 US US13/296,763 patent/US20120127074A1/en not_active Abandoned
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014067349A (ja) * | 2012-09-27 | 2014-04-17 | Seiko Epson Corp | ヒューマンインターフェース装置及び方法 |
| US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
| JP2014112222A (ja) * | 2012-11-20 | 2014-06-19 | Samsung Electronics Co Ltd | 着用式電子デバイス上への光学センサーの配置 |
| US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
| US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
| US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
| US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
| US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
| US10194060B2 (en) | 2012-11-20 | 2019-01-29 | Samsung Electronics Company, Ltd. | Wearable electronic device |
| JP2014153947A (ja) * | 2013-02-08 | 2014-08-25 | Ricoh Co Ltd | 投影システム、画像生成プログラム、情報処理装置及び画像生成方法 |
| JP2014228740A (ja) * | 2013-05-23 | 2014-12-08 | 株式会社ニコン | 撮像装置、画像転送システム、画像転送方法、及び、プログラム |
| JP2015015004A (ja) * | 2013-07-08 | 2015-01-22 | 沖電気工業株式会社 | 情報処理装置、携帯端末および情報入力装置 |
| WO2015105044A1 (ja) * | 2014-01-10 | 2015-07-16 | 日本電気株式会社 | インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体 |
| JPWO2015105044A1 (ja) * | 2014-01-10 | 2017-03-23 | 日本電気株式会社 | インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびコンピュータプログラム |
| US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
| JP2015176461A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | 映像信号出力装置、映像信号出力方法、プログラム及び表示システム |
| JP2015207082A (ja) * | 2014-04-18 | 2015-11-19 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示方法 |
| JP2016184426A (ja) * | 2016-06-08 | 2016-10-20 | カシオ計算機株式会社 | データ処理装置及びプログラム |
| JP2019207573A (ja) * | 2018-05-29 | 2019-12-05 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
| JP7135444B2 (ja) | 2018-05-29 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
| JP2020145623A (ja) * | 2019-03-07 | 2020-09-10 | 株式会社リコー | 電子黒板および映像補正方法 |
| JP7298200B2 (ja) | 2019-03-07 | 2023-06-27 | 株式会社リコー | 電子黒板および映像補正方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20120127074A1 (en) | 2012-05-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012108771A (ja) | 画面操作システム | |
| JP4991458B2 (ja) | 画像表示装置及びその制御方法 | |
| CN106406710B (zh) | 一种录制屏幕的方法及移动终端 | |
| US20090262187A1 (en) | Input device | |
| US10057481B2 (en) | Image capturing device with touch screen for adjusting camera settings | |
| CN103354996B (zh) | 显示装置以及计算机实施方法 | |
| JP6205072B2 (ja) | 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム | |
| CN107659769B (zh) | 一种拍摄方法、第一终端及第二终端 | |
| CN107172347B (zh) | 一种拍照方法及终端 | |
| JP6618644B2 (ja) | 制御装置及び制御方法、プログラム | |
| CN105959553A (zh) | 一种摄像头的切换方法及终端 | |
| CN106713764A (zh) | 一种拍照方法及移动终端 | |
| US10735606B2 (en) | Display device, image processing device and non-transitory recording medium determining continuity of operation two or more display areas | |
| JP2022188192A (ja) | 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法 | |
| CN106940597A (zh) | 一种相机启动控制方法及移动终端 | |
| KR20130037430A (ko) | 모바일기기 및 그 제어방법 | |
| WO2023273138A1 (zh) | 显示界面选择方法、装置、设备、存储介质及程序产品 | |
| JP5229928B1 (ja) | 注視位置特定装置、および注視位置特定プログラム | |
| JP2010272078A (ja) | 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法 | |
| CN107230240B (zh) | 一种拍摄方法及移动终端 | |
| CN104903833B (zh) | 用于在屏幕上显示图像的客户端设备、监视系统、方法以及计算机程序 | |
| US20130076622A1 (en) | Method and apparatus for determining input | |
| CN112672051A (zh) | 拍摄方法、装置和电子设备 | |
| CN113672109B (zh) | 解锁控制方法、装置及存储介质 | |
| JP2013196140A (ja) | 携帯端末及び表示制御方法 |