[go: up one dir, main page]

JP2018181294A - カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム - Google Patents

カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム Download PDF

Info

Publication number
JP2018181294A
JP2018181294A JP2017178018A JP2017178018A JP2018181294A JP 2018181294 A JP2018181294 A JP 2018181294A JP 2017178018 A JP2017178018 A JP 2017178018A JP 2017178018 A JP2017178018 A JP 2017178018A JP 2018181294 A JP2018181294 A JP 2018181294A
Authority
JP
Japan
Prior art keywords
document
displayed
hotspot
electronic document
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017178018A
Other languages
English (en)
Inventor
パトリック チィーウ
Patrick Chiu
チィーウ パトリック
ジョセフ デ ラ ペーニャ
Andrew Alkuino De La Penia Joseph
ジョセフ デ ラ ペーニャ
ローラン ドゥヌ
Laurent Denoue
ドゥヌ ローラン
チョルファン キム
Kim Chul-Hwan
チョルファン キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2018181294A publication Critical patent/JP2018181294A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • G06F40/154Tree transformation for tree-structured or markup documents, e.g. XSLT, XSL-FO or stylesheets
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】電子文書の作成を向上するカメラベースのグラフィカルユーザインタフェースを提供するための方法を提供する。
【解決手段】コンピュータシステムは、複数の文書要素を備える電子文書を取得し、文書要素とともにホットスポットを表示する。ホットスポットは、文書要素に対応付けられ、所定の身体ジェスチャと文書アクションとにそれぞれ対応付けられた1つ以上のホットスポット属性を規定する。ホットスポットは、電子文書の閲覧者が表示された電子文書と所定の身体ジェスチャを用いて対話可能であることを示す。所定の身体ジェスチャは、カメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われる。または、カメラシステムによって撮像されるものであり、身体ジェスチャにより、文書アクションが表示された電子文書上でそれぞれ実行される。
【選択図】図4

Description

本願は、一般に、グラフィカルユーザインタフェースに関し、特に、ジェスチャアクション認識を用いたカメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステムに関する。
文書などのコンテンツを提示するディスプレイに代わるものとして、プロジェクタが広く使用されている。プロジェクタは、提示用表面にコンテンツを投影する。投影されたコンテンツとユーザとの対話をカメラで撮像することにより、投影されたコンテンツの対話可能性をさらに高めることができる。
Xiao, R., Harrison, C., Hudson, S. WorldKit: Rapid and easy creation of ad-hoc interactive applications on everyday surfaces. Proc. CHI ’13, pp. 879-888. Kjeldsen, R., Pingali, G., Hartman, J., Levas, T., Podlaseck, M. Interacting with steerable projected displays. Intl. Conf. on Automatic Face and Gesture Recognition (FGR ’02), pp. 402-407.
米国S特許第9,317,171号公報
しかしながら、カメラベースシステムでサポートされたユーザインタフェースを用いて行うコンテンツ作成には問題がある。カメラベースシステムのコンテンツを作成するために、そのカメラベースシステムに特化した新しいマークアップ言語が開発されることもあるが、カメラベースシステムは、実用性が限られた全く新しいマークアップ言語の習得に見合う程に普及しているとはいえない。さらに、カメラベースシステムに合わせてカスタマイズされたものではないが、大規模コンテンツコーパスはすでに存在し、特にカメラベースシステムでの提示用にこのようなコンテンツコーパスを再度作成することは非効率である。
本開示の技術は、従来技術より、電子文書の作成を向上することを目的とする。
いくつかの実施形態によれば、方法が、1つ以上のプロセッサと、1つ以上のプロセッサにより実行されるために構成された1つ以上のプログラムを記憶するメモリとを有するコンピュータシステムで実行される。この方法は、複数の文書要素を含む電子文書を取得するステップと、複数の文書要素のうちの第1の文書要素に関連する電子文書に、電子文書が表示システムによって表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入するステップとを含み、この導入は、第1のホットスポットが、表示された電子文書の一部として表示システムによって表示されるとき、表示された電子文書の閲覧者が表示された電子文書と1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)対応付けられたカメラシステムによって撮像されるものである。1つ以上の身体ジェスチャが対応付けられたカメラシステムによってそれぞれ撮像されると、表示された電子文書上で1つ以上の文書アクションがそれぞれ実行される。
いくつかの実施形態によれば、コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサにより実行される1つ以上のプログラムを記憶するメモリとを含む。1つ以上のプログラムは、複数の文書要素を備える電子文書を取得する命令と、複数の文書要素のうちの第1の文書要素に関連する電子文書に、電子文書が表示システムによって表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入する命令とを含み、この導入は、第1のホットスポットが、表示された電子文書の一部として表示システムによって表示されるとき、表示された電子文書の閲覧者が表示された電子文書と1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)対応付けられたカメラシステムによって撮像されるものである。1つ以上の身体ジェスチャが対応付けられたカメラシステムによってそれぞれ撮像されると、表示された電子文書上で1つ以上の文書アクションがそれぞれ実行される。
前記1つ以上の文書アクションは、(i)前記表示された電子文書から前記複数の文書要素のうちの1つ以上の文書要素を除去することと、(ii)前記複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)前記表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)前記表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)前記表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)前記表示された電子文書から表示されたホットスポットを追加または除去することと、(vii)表示されたホットスポットに関連する前記表示された電子文書に不可視ホットスポットを追加することと、(viii)前記表示された電子文書からリンクされた他の電子文書に移動することと、(ix)前記カメラシステムを制御することと、(x)遠隔会議システムを制御することの1つ以上を含むようにしてもよい。
前記表示された電子文書に追加または前記表示された電子文書から削除された前記表示されたホットスポットは電子商取引ウィジェットであるとしてもよい。
前記1つ以上の第1のホットスポット属性は、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含むようにしてもよい。
前記ホットスポットのタイプは、ボタンまたはスワイプウィジェットのうちの1つであるとしてもよい。
前記第1のホットスポットの視覚的特性は、前記スワイプウィジェットに対応付けられたスワイプジェスチャの方向を示すようにしてもよい。
前記視覚的特性は、前記表示されたホットスポットのサイズを示し、前記サイズは、前記ホットスポットが表示されるとき、前記ホットスポットの前方でユーザが行ったジェスチャによりホットスポット全体が覆われることがないようなサイズに規定されるようにしてもよい。
前記複数の文書要素は、コンテンツ部分と、前記コンテンツ部分の各々の特性を規定するタグ部分とをそれぞれ備え、第1のタグ部分を含む前記第1の文書要素を含む前記複数の文書要素のうちの1つ以上の文書要素に対応付けられた1つ以上のタグ部分のタイプを評価することによって、前記電子文書の構造を解析するステップと、前記第1のタグ部分の前記評価されたタイプに基づいて、前記第1の文書要素がホットスポットとの対応付け候補であるかを判定するステップと、前記判定に応答して、前記第1の文書要素に関連する前記第1のホットスポット属性の導入を実行するステップとをさらに含むようにしてもよい。
前記表示システムは、投影システムまたはダイレクトディスプレイシステムであるとしてもよい。
前記カメラシステムは、前記ジェスチャおよび前記表示された電子文書が前記カメラシステムの視野内に同時に存在するように配置され、前記表示システムおよび前記カメラシステムは、前記カメラシステムが前記ジェスチャに関する情報を前記表示システムに送信して、前記情報が送信された前記ジェスチャに対応付けられた前記文書アクションを前記ディスプレイが前記電子文書上で実行できるように互いに通信可能に接続されるようにしてもよい。
いくつかの実施形態によれば、非一時的なコンピュータ可読記憶媒体が1つ以上のプログラムを記憶する。1つ以上のプログラムは、1つ以上のプロセッサを備えるコンピュータシステムによって実行されると、コンピュータシステムに、複数の文書要素を備える電子文書を取得させ、複数の文書要素のうちの第1の文書要素に関連する電子文書に、電子文書が表示システムによって表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入させる命令を含み、この導入は、第1のホットスポットが、表示された電子文書の一部として表示システムによって表示されるとき、表示された電子文書の閲覧者が表示された電子文書と1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)対応付けられたカメラシステムによって撮像されるものである。1つ以上の身体ジェスチャが対応付けられたカメラシステムによってそれぞれ撮像されると、表示された電子文書上で1つ以上の文書アクションがそれぞれ実行される。
いくつかの実施形態によれば、方法が、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるために構成された1つ以上のプログラムを記憶するメモリと、表示システムと、視野を有するカメラとを有するコンピュータシステムで実行される。この方法は、複数の表示可能な文書要素と、対応付けられた複数のホットスポット属性セットとを備える電子文書を取得するステップであって、複数のホットスポット属性セットは、1つ以上の所定の身体ジェスチャと、対応付けられた文書アクションとにそれぞれ対応付けられ、電子文書が表示されるときに表示可能な表示可能ホットスポットのそれぞれの1つ以上の属性を規定するものであるステップと、カメラの視野内にあるディスプレイ上に電子文書を表示するステップであって、表示された電子文書は1つ以上の表示されたホットスポットを含み、1つ以上の表示されたホットスポットは、対応付けられた複数のホットスポット属性セットに従うとともに、対応付けられた複数のホットスポット属性セットに応じて表示されるステップと、カメラの視野内にある表示された文書の前方においてなされたユーザの身体ジェスチャをカメラで撮像するステップと、複数の身体ジェスチャのうちの第1の身体ジェスチャが、カメラから見たとき、表示された第1のホットスポットと一致していると判定するステップであって、この判定はユーザがホットスポットを選択している可能性があることを示すものであるステップと、複数の身体ジェスチャのうちの第1の身体ジェスチャを、第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識するステップと、第1の身体ジェスチャが第1の文書アクションに対応すると判定し、第1の文書アクションを電子文書上で実行するステップとを含む。
前記実行された第1の文書アクションを反映するように前記表示された電子文書を更新するステップをさらに含むようにしてもよい。
前記複数の身体ジェスチャのうちの前記第1の身体ジェスチャが、前記カメラから見たとき、前記表示された第1のホットスポットと一致すると判定すると、前記表示された第1のホットスポットをユーザが選択した可能性があることを示すために、前記表示された第1のホットスポットの第1の視覚的特性を変更するステップをさらに含むようにしてもよい。
前記複数の身体ジェスチャのうちの前記第1の身体ジェスチャを、前記第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識すると、前記第1の身体ジェスチャが認識されたことを示すために、前記表示された第1のホットスポットの第2の視覚的特性を変更するステップをさらに含むようにしてもよい。
前記複数の身体ジェスチャのうちの第1の身体ジェスチャが、前記カメラから見たとき、表示された第1のホットスポットと一致すると判定するステップは、前記表示された第1のホットスポットがユーザジェスチャによって遮られる遮蔽度を評価することと、前記遮蔽度が第1のしきい値を超えると、前記ユーザが前記表示された第1のホットスポットを選択する意図がなかったものと判定することと、前記遮蔽度が前記第1のしきい値未満であると、前記ユーザが前記表示された第1のホットスポットを選択する意図があったと判定することを含むようにしてもよい。
前記取得ステップの前に、前記複数の文書要素の第1の文書要素に関連する前記電子文書に1つ以上のホットスポット属性の第1のセットを導入するステップをさらに含み、前記第1のホットスポット属性セットは、前記電子文書が表示されるときに前記第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定し、前記第1のホットスポット属性セットは、1つ以上の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられるようにしてもよい。
前記1つ以上の文書アクションを実行することは、(i)前記表示された電子文書から前記複数の文書要素のうちの1つ以上の文書要素を除去することと、(ii)前記複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)前記表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)前記表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)前記表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)前記表示された電子文書から表示されたホットスポットを追加または除去することと、(vii)表示されたホットスポットに関連する前記表示された電子文書に不可視ホットスポットを追加することと、(viii)表示された電子文書からリンクされた第2の電子文書に移動することと、(ix)カメラシステムを制御することと、(x)遠隔会議システムを制御することの1つ以上を含むようにしてもよい。
前記表示された電子文書に追加または前記表示された電子文書から削除された前記表示されたホットスポットは電子商取引ウィジェットであるとしてもよい。
前記第1のホットスポット属性セットは、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含むようにしてもよい。
いくつかの実施形態によれば、コンピュータシステムは、1つ以上のプロセッサと、表示システムと、視野を有するカメラと、1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリとを含む。1つ以上のプログラムは、複数の表示可能な文書要素と、対応付けられた複数のホットスポット属性セットとを備える電子文書を取得し、複数のホットスポット属性セットは、1つ以上の所定の身体ジェスチャと、対応付けられた文書アクションとにそれぞれ対応付けられ、電子文書が表示されるときに表示可能な表示可能ホットスポットのそれぞれの1つ以上の属性を規定するものであり、カメラの視野内にあるディスプレイ上に電子文書を表示し、表示された電子文書は1つ以上の表示されたホットスポットを含み、1つ以上の表示されたホットスポットは、対応付けられた複数のホットスポット属性セットに対応するとともに、対応付けられた複数のホットスポット属性セットに応じて表示され、カメラの視野内にある表示された文書の前方においてなされたユーザの身体ジェスチャをカメラで撮像し、複数の身体ジェスチャのうちの第1の身体ジェスチャが、カメラから見たとき、表示された第1のホットスポットと一致していると判定し、この判定は、ユーザがホットスポットを選択している可能性を示し、複数の身体ジェスチャのうちの第1の身体ジェスチャを、第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識し、第1の身体ジェスチャが第1の文書アクションに対応すると判定し、第1の文書アクションを電子文書上で実行するための命令を含む。
いくつかの実施形態によれば、非一時的なコンピュータ可読記憶媒体が1つ以上のプログラムを記憶する。1つ以上のプログラムは、1つ以上のプロセッサと、表示システムと、視野を有するカメラとを備えたコンピュータシステムによって実行されると、コンピュータシステムに、複数の表示可能な文書要素と、対応付けられた複数のホットスポット属性セットとを備える電子文書を取得させ、複数のホットスポット属性セットは、1つ以上の所定の身体ジェスチャと、対応付けられた文書アクションとにそれぞれ対応付けられ、電子文書が表示されるときに表示可能な表示可能ホットスポットのそれぞれの1つ以上の属性を規定するものであり、カメラの視野内にあるディスプレイ上に電子文書を表示させ、表示された電子文書は1つ以上の表示されたホットスポットを含み、1つ以上の表示されたホットスポットは、対応付けられた複数のホットスポット属性セットに従うとともに、対応付けられた複数のホットスポット属性セットに応じて表示され、カメラの視野内にある表示された文書の前方においてなされたユーザの身体ジェスチャをカメラで撮像させ、複数の身体ジェスチャのうちの第1の身体ジェスチャが、カメラから見たとき、表示された第1のホットスポットと一致していると判定させ、判定は、ユーザがホットスポットを選択している可能性を示し、複数の身体ジェスチャのうちの第1の身体ジェスチャを、第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識させ、第1の身体ジェスチャが第1の文書アクションに対応すると判定させ、第1の文書アクションを電子文書上で実行させる命令を含む。
いくつかの実施形態によるカメラベースのグラフィカルユーザインタフェースを提供する環境の一例を示すブロック図である。 いくつかの実施形態によるコンピュータシステムの一例を示すブロック図である。 いくつかの実施形態による複数のホットスポットを有する対話型文書の一例を示す図である。 いくつかの実施形態によるカメラベースのグラフィカルユーザインタフェースを提供する方法の一例のフローチャートである。 いくつかの実施形態による文書アクションを実行する方法の一例のフローチャートである。
図中、対応する部品には同様の参照番号を付している。
以下、添付図面に例示したさまざまな実施形態について詳述する。以下の詳細な説明では、本発明および記載する実施形態について十分な理解が得られるように、さまざまな具体的な詳細が示されている。しかしながら、本発明は、これらの具体的な詳細を用いずに実施されてもよい。なお、場合に応じて、実施形態の態様について不要に明瞭さが損なわれることがないように、既知の方法、手順、構成要素および回路については詳細に説明していない。
図1は、いくつかの実施形態による、カメラベースのグラフィカルユーザインタフェースを提供するための環境100を示す。環境100は、コンピュータシステム102を含む。いくつかの実施形態において、コンピュータシステム102は、デスクトップコンピュータ、ラップトップまたはノートブックコンピュータ、スマートフォン、タブレットデバイスまたはマルチメディアデバイスのいずれかであってもよい。
コンピュータシステム102は、1つ以上の通信ネットワーク(図示せず)を介して他のコンピュータシステムまたはコンピュータデバイスと通信することができる。通信ネットワークは、ローカルエリアネットワーク、広域ネットワーク、セルラーネットワーク、アドホックネットワークおよびインターネットのうちの1つ以上を含むものであってもよい。
コンピュータシステム102は、文書104を取得するように構成される。文書104は、コンピュータシステム102のメモリまたは記憶部(例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、光ディスクまたは他の不揮発性メモリもしくは揮発性メモリ)や1つ以上の通信ネットワークを介したリモートソース(図示せず)等の任意の適切なソースから取得することができる。いくつかの実施形態において、文書104は、既知の1つ以上のウェブページ構成言語(例えば、HTML(ハイパーテキストマークアップ言語(Hypertext Markup Language))、XML(拡張可能なマークアップ言語(Extensible Markup Language))、JavaScript(登録商標)、CSS(カスケーディングスタイルシート(Cascading Style Sheets)等)を用いて構成されたウェブページである。文書104は、1つ以上の文書要素を含む。文書要素は、テキスト、図形、画像および/またはユーザインタフェースオブジェクト(例えば、ボタン、チェックボックス、選択可能なハイパーリンク、メニュー等)であってもよい。
コンピュータシステム102は、複数の文書要素のうちの1つ以上の文書要素を検出し識別するように文書104を処理する。コンピュータシステム102は、1つ以上のホットスポット属性と検出された文書要素とを対応付けてもよい。ホットスポット属性は、文書が出力されたときに文書要素に対応付けられたホットスポットの1つ以上の属性を規定する。この処理により、検出された文書要素と、対応付けられたホットスポット属性とを含むホットスポット対応文書106が得られる。
いくつかの実施形態において、コンピュータシステム102は、検出された文書要素に対応する文書の部分に対する1つ以上のホットスポット属性を文書に追加(例えば、導入)することで、ホットスポット属性と検出された要素とを対応付ける。ホットスポット属性はテキスト文字列で表されたものであってもよく、このテキスト文字列は、カメラベースシステムのホットスポットおよびホットスポット属性の定義および仕様に合わせて設計されたマークアップ言語で構成されたものであってもよい。以下、便宜上および簡潔さのために、ホットスポットおよびホットスポット属性のためのこのようなマークアップ言語のことを、「ホットスポットマークアップ言語」と呼ぶ。いくつかの実施形態において、テキスト文字列は、ホットスポットマークアップ言語でタグ、属性等を指定する。文書には、文書要素に対応付けられる対象のホットスポット属性のテキスト文字列が導入される。テキスト文字列は、文書のマークアップにおいて文書要素のためのタグに(例えば、1つ以上の属性特性を指定する1つ以上のテキスト文字列をターゲット文書要素のタグに追加したり、サブ要素を規定する1つ以上のテキスト文字列をターゲット文書要素に追加したりすること等によって)導入されてもよく、あるいは、対応付けられた文書要素への参照を含んでもよい。いくつかの実施形態において、「ホットスポットマークアップ言語」の別の態様として、「ホットスポットスタイルシート」があり、ホットスポットスタイルシートは、既存の文書要素(例えば、HTMLボタン、ハイパーテキストリンク等)に適用されて、例えば、ホットスポット属性特性やサブ要素を文書要素に導入することなく、文書要素の見た目を視覚的に変更してホットスポットのように見せることができる。
コンピュータシステム102は、ホットスポット対応文書106を対話型文書プレゼンテーション108として出力してもよい。いくつかの実施形態において、対話型文書プレゼンテーション108は、コンピュータシステム102に接続された投影装置によって表面(例えば、壁、投影スクリーン、テーブルトップ等)に投影される。いくつかの実施形態において、対話型文書プレゼンテーション108は、(例えば、コンピュータシステム102に接続された表示装置に)表示される。以下、便宜上および簡潔さのために、対話型文書プレゼンテーション108のことを「対話型文書」と呼び、対話型文書プレゼンテーション108が表示されるか、または投影されるかにかかわらず、表示される、と記載する。
対話型文書108が表示されている間、ユーザ110は、対話型文書108と対話することができる。例えば、ユーザは、対話型文書108を見る外部基準点から、対話型文書108の一部を覆ったり遮ったりするジェスチャアクションを行うことがある。対話(例えば、ジェスチャアクション)は、対話型文書108と、対話型文書108の少なくとも一部を覆ったり遮ったりすることがあるジェスチャアクションとを視野に捉える外部基準点に配置されたカメラシステム112によって撮像されてもよい。いくつかの実施形態において、カメラシステム112は、コンピュータシステム102に接続される。カメラシステム112は、撮像データ(例えば、映像、画像等)をコンピュータシステム102に送信し、コンピュータシステム102は、ユーザ110が行うジェスチャアクションと、ジェスチャアクションが行われた対象のホットスポットとを決定するために撮像データを処理する。いくつかの実施形態において、上記処理では、ジェスチャアクションと、作用を受けたホットスポットとを決定するための撮像データの処理に、ニューラルネットワーク、機械学習、画像分類アルゴリズム等を使用することを含む。
決定されたジェスチャアクションおよびホットスポットに基づいて、コンピュータシステム102は、実行される1つ以上の操作またはアクションを決定し、1つ以上の操作またはアクションを実行する。いくつかの実施形態において、アクションまたは操作は、対話型文書108に関連するものであってもよい(例えば、文書内のハイパーリンクへのアクセス、文書内のメニュー項目の選択、文書内での移動、別の文書への移動、文書内のフォームでのコンテンツ提出、ディスプレイまたはプロジェクタにおける文書の提示等)。いくつかの実施形態において、アクションまたは操作は、文書108とは独立したものであってもよい(例えば、遠隔会議システムの制御等)。
図2は、いくつかの実施形態によるコンピュータシステム102を示すブロック図である。コンピュータシステム102は、典型的には、1つ以上の処理部(CPU)202と、1つ以上のネットワークまたは他の通信インタフェース204と、メモリ206と、これらのコンポーネントを相互接続するための1つ以上の通信バス208とを含む。通信バス208は、システムコンポーネント間の相互接続および通信制御を行う回路(チップセットと呼ばれることもある)を所望により含んでもよい。コンピュータシステム102は、1つ以上の入力装置210(例えば、マウス212、キーボード214、マイクロフォン等)を含んでもよい。入力装置210の他の例として、タッチセンシティブ面(例えば、トラックパッド、タッチパッド、タッチセンシティブディスプレイ等)、トラックボール、ジョイスティックおよびキーパッド等がある。コンピュータシステム102は、1つ以上の出力装置218(例えば、スピーカ、ヘッドフォン等の音声出力装置220、ディスプレイ222、プロジェクタ224等)をさらに含んでもよい。いくつかの実施形態において、コンピュータシステム102は、カメラシステム112をさらに含み、またはカメラシステム112に接続される。
メモリ206は、DRAM、SRAM、DDR RAMまたは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、1つ以上の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイスまたは他の不揮発性ソリッドステート記憶装置などの不揮発性メモリを含んでもよい。メモリ206は、CPU202から離れた位置に設けられた1つ以上の記憶装置を所望により含んでもよい。メモリ206、あるいはその代わりとして、メモリ206内の不揮発性メモリデバイスは、非一時的なコンピュータ可読記憶媒体を備える。いくつかの実施形態において、メモリ206またはメモリ206のコンピュータ可読記憶媒体は、以下のプログラム、モジュールおよびデータ構造またはそれらのサブセットを記憶する。
・さまざまな基本システムサービスの処理手順およびハードウェア依存タスクの実行手順を含むオペレーティングシステム232
・1つ以上の通信ネットワークインタフェース204(有線または無線)および1つ以上の通信ネットワーク(図示せず)を介して、他の装置、コンピュータ、およびシステム(例えば、他のコンピュータシステム、サーバシステム、コンテンツホスト)に対してコンピュータシステム102を接続し通信を容易にするためのネットワーク通信モジュール234
・ホットスポットが対応付けられうる文書要素を検出するために文書を処理するための文書解析モジュール236
・ホットスポットを文書内の1つ以上の文書要素に対応付けるために、文書解析モジュール236によって解析された文書にホットスポットの属性、タグ等を導入するためのホットスポット導入モジュール238
・行われたジェスチャとジェスチャが行われた対象のホットスポットとを決定するために、入力データ(例えば、カメラシステム112からの画像/映像データ)を解析するジェスチャ収集解析モジュール240
・文書の編集および表示を容易にするための文書編集表示モジュール242
・ジェスチャを認識するジェスチャ収集解析モジュール240を訓練するためのジェスチャ訓練モジュール244
・文書に導入されてもよいホットスポットのタグ、属性等のデータベースを記憶するためのホットスポット導入データベース264
いくつかの実施形態において、ジェスチャ訓練モジュール244は、ユーザジェスチャの検出および識別の向上(例えば、ジェスチャのタイプの区別の向上、誤検知の発生の低減、見逃しの発生の低減等)を図るために、コンピュータシステム102(例えば、ジェスチャ収集解析モジュール240)を訓練する。訓練は、コンピュータシステム102で実行されてもよく、別のシステムで実行されてもよい。訓練は、例えば、機械学習、ニューラルネットワークまたは他の既知の訓練技術を使用してもよい。
いくつかの実施形態において、ホットスポット導入モジュール238、ジェスチャ収集解析モジュール240およびジェスチャ訓練モジュール244は、同じコンピュータシステムまたは異なるコンピュータシステムに実装されてもよい。
上記に示した各要素は、前述したメモリデバイスの1つ以上に記憶されてもよく、各モジュールまたはプログラムは、上述した機能を実行するための命令セットに対応する。命令セットは、1つ以上のプロセッサ(例えば、CPU202)によって実行されうる。上記に示したモジュールまたはプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順またはモジュールとして実装される必要はなく、したがって、さまざまな実施形態において、これらのモジュールのさまざまなサブセットが組み合わされたり、再構成されたりしてもよい。いくつかの実施形態において、メモリ206は、上記に示したモジュールおよびデータ構造のサブセットを記憶してもよい。また、メモリ206は、上述していないさらなるモジュールおよびデータ構造を記憶してもよい。
図2は、コンピュータシステムを示しているが、本明細書に記載の実施形態の構造概略図というよりも、コンピュータシステム内に存在しうる種々の特徴の機能的記載として更に意図したものである。実際には、当業者には認識されるように、別個に示したものを組み合わせたり、1つのものを別個にしたりしてもよい。
図3は、いくつかの実施形態による、ホットスポットを有する表示された対話型文書300の例を示す。対話型文書300(例えば、対話型文書108)は、コンテンツ302と、コンテンツ302全体に散在する1つ以上のホットスポット304、306、308、310および312とを含む。ホットスポットは、それぞれのユーザインタフェース要素またはグラフィカルウィジェット(例えば、ボタン、矢印、アイコン、下線付または他の書式設定の文章等)として文書内に表示されてもよい。いくつかの実施形態において、ホットスポットアイコン(例えば、インジケータバー)314をホットスポットに隣接して(例えば、その下に)表示することで、ホットスポットがユーザにより明らかになるようにするとともに、ホットスポットに対するジェスチャアクションのコンピュータシステム102の検出および解析を支援するようにしてもよい。
いくつかの実施形態において、ホットスポットは、1つ以上の所定の身体ジェスチャアクションと、1つ以上のアクションまたは操作とに対応付けられてもよい。身体ジェスチャアクションは、アクションまたは操作にそれぞれマッピングされ、身体ジェスチャアクションが検出されると、マッピングされたアクションまたは操作が実行される。
例えば、ボタンホットスポット304は、タップ/プレスジェスチャアクションに対応付けられてもよい。ボタンホットスポット304に対するタップ/プレスジェスチャアクションの検出に応答して、ボタンホットスポット304に対応付けられた操作(例えば、文書内のフォームのコンテンツをリモートシステムに送信する)が実行される。
別の例として、スワイプホットスポット306は、スワイプホットスポット306に沿ってドラッグするスワイプジェスチャアクションに対応付けられてもよい。スワイプホットスポット306に対するスワイプジェスチャアクションの検出に応答して、スワイプホットスポット306に対応付けられた操作(例えば、前または次の文書へ移動する)が実行される。
別の例として、タップジェスチャアクションにハイパーリンクホットスポット308が対応付けられてもよい。ハイパーリンクホットスポット308に対するタップジェスチャアクションの検出に応答して、ハイパーリンクホットスポット308に対応付けられた操作(例えば、ハイパーリンクホットスポット308でリンクされた文書へ移動する)が実行される。
別の例として、タップジェスチャアクションに音量制御トグルホットスポット310が対応付けられてもよい。音量制御トグルホットスポット310に対するタップジェスチャアクションの検出に応答して、音量制御トグルホットスポット310に対応付けられた操作(例えば、音量の消音/消音解除)が実行される。
別の例として、タップジェスチャアクションにディスプレイ/プロジェクタ制御トグルホットスポット312が対応付けられてもよい。ディスプレイ/プロジェクタトグルホットスポット312に対するタップジェスチャアクションの検出に応答して、ディスプレイ/プロジェクタ制御トグルホットスポット312に対応付けられた操作(例えば、ディスプレイおよびプロジェクタ間の表示モードの変更)が実行される。
文書300が表示され、ユーザが表示された文書300上のホットスポットに対してジェスチャアクションを行うと、ジェスチャアクションは、ホットスポットおよび隣接するホットスポットインジケータバー314の少なくとも一部を覆ったり遮ったりする。カメラシステム(例えば、カメラシステム112)が、ホットスポットおよびホットスポットインジケータバーを遮るジェスチャアクションの映像または画像を撮像してもよい。撮像された映像/画像は、ホットスポットに対するジェスチャアクションを検出するために撮像された映像/画像を処理するコンピュータシステム(例えば、コンピュータシステム102)に提供される。ホットスポットが検出されたアクションに対応付けられ、ホットスポットに対する検出されたアクションが操作にマッピングされている場合、コンピュータシステムはその操作を実行する。
なお、文書300および文書300に含まれる要素は例示的なものにすぎず、文書およびホットスポットの他の実施例および実施形態も可能である。
プロセスの例
図4は、いくつかの実施形態によるカメラベースのグラフィカルユーザインタフェースを提供するための方法(プログラム)のフローチャート400を示す。いくつかの実施形態において、方法400は、1つ以上のプロセッサと、1つ以上のプロセッサにより実行される1つ以上のプログラムを記憶するメモリとを備えるコンピュータシステム(例えば、図2の文書解析モジュール236またはホットスポット導入モジュール238の1つ以上を実行する図1のコンピュータシステム102)で実行される。以下の説明において、図1および図2に示すシステムおよびプログラム要素について参照するが、これらの参照は、非限定的であり、例示的な目的でのみなされるものである。
システムは、複数の文書要素を含む電子文書(例えば、図1の電子文書104)を取得する(402)。いくつかの実施形態において、取得された文書は、既知の言語(例えば、HTML、JavaScript(登録商標)、CSS、XML)を用いて構成される。いくつかの実施形態において、文書要素は、グラフィカルウィジェット(例えば、ボタン、プルダウンメニュー、スライダ、チェックボックス)、ハイパーリンク、アイコン等を含むものであってもよい。
システムは、複数の文書要素のうちの第1の文書要素に応じた電子文書に、1つ以上の第1のホットスポット属性を導入する(404)。第1のホットスポット属性は、電子文書が表示システムによって表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定する。第1のホットスポット属性は、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションにそれぞれ対応付けられる。コンピュータシステム102(例えば、文書解析モジュール236および/またはホットスポット導入モジュール238)は、文書内の文書要素を検出し、検出された文書要素の1つ以上の文書要素に対して、1つ以上のホットスポット属性の各セットを文書に導入する文書処理を行う。結果として得られる文書は、ホットスポット対応文書(例えば、図1の文書106)である。
いくつかの実施形態において、利用可能なホットスポットタグ、属性等は、ホットスポット導入データベース264に記憶され、ホットスポット導入データベース264から読み出されてもよく、ここで、データベース264は、文書への導入に利用可能なホットスポットタグ、属性等のテキスト文字列、パラメータ等を含む。システムは、データベース264から所望のタグ、属性等を読み出し、読み出されたタグ、属性等を関連する値とともに文書に導入する。
取得された文書102内の文書要素に対して、1つ以上のホットスポット属性のセットが文書に導入されてもよい。いくつかの実施形態において、1つ以上のホットスポット属性は、マークアップ言語で構成されたテキスト文字列として表され、テキスト文字列は、文書要素に対応する文書の一部内またはその付近に(例えば、属性プロパティを特定するテキスト文字列を文書要素のタグに追加することや、サブ要素を規定するテキスト文字列を文書要素に追加すること等によって)導入される。属性は、ホットスポット対応文書106が対話型文書(例えば、図1の対話型文書108)として表示されるときに対応付けられた要素とともに表示されうるホットスポットの属性を規定する。要素の属性は、1つ以上の予め規定された身体ジェスチャアクションおよび1つ以上の文書アクションにそれぞれ対応付けられる。対応付けられたジェスチャアクションおよび文書アクションは、ホットスポットに対してジェスチャアクションが行われると、そのジェスチャアクションがどの文書アクションをトリガするかを規定し、ホットスポットに対して行われた他のジェスチャアクションは、システム102によって無視される。
文書104への属性の導入は、第1のホットスポットが、表示された電子文書の一部として表示システムによって表示されるとき、表示された電子文書(例えば、対話型文書108)の閲覧者が、表示された電子文書と1つ以上の身体ジェスチャを用いて対話可能であることを示すように行われ、1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)対応付けられたカメラシステムによって撮像されるものであり、1つ以上の身体ジェスチャが対応付けられたカメラシステムによってそれぞれ撮像されると、表示された電子文書上で1つ以上の文書アクションがそれぞれ実行される(406)。対話型文書108において、ホットスポットは、対応付けられた文書要素とともに表示される。ホットスポットは、対話型文書108の閲覧者に対して、ホットスポットに対する1つ以上の身体ジェスチャを行うことにより閲覧者が対話型文書108と対話可能であることを示す。ジェスチャは、カメラシステム(例えば、カメラシステム112)によって撮像されると、検出するためにジェスチャ収集解析モジュール240によって取得される。ジェスチャ収集解析モジュール240は、ジェスチャを解析して、ジェスチャに応じて実行されるべき文書アクションを決定する。ジェスチャが検出されると、ホットスポットに対応付けられた文書アクションが実行される。
いくつかの実施形態において、1つ以上の文書アクションは、(i)表示された電子文書から複数の文書要素のうちの1つ以上の文書要素を削除することと、(ii)複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)表示された電子文書から表示されたホットスポットを追加または削除することと、(vii)表示されたホットスポットに関連する表示された電子文書に不可視ホットスポットを追加することと、(viii)表示された電子文書からリンクされた第2の電子文書に移動することと、(ix)カメラシステムを制御することと、(x)遠隔会議システムを制御することのうちの1つ以上のアクションである。ホットスポットに対応付けられた文書アクションは、文書から文書要素を除去または削除することと、文書を機械翻訳に翻訳させることと、文書に対応付けられた音声出力を切り替えること(例えば、文書内で再生中の音声からの音声出力の消音または消音解除等)と、文書に対応付けられた映像から音声を切り替えること(例えば、文書内で再生中の映像からの音声の消音または消音解除等)と、文章に対応付けられた音声または映像の再生を切り替えること(例えば、文書内で再生中の音声または映像の再生または一時停止)と、文書へ可視ホットスポットを追加または文書から可視ホットスポットを除去することと、文書内の文書要素へ不可視ホットスポットを追加することと、リンクされた文書に移動することと、カメラシステムを制御すること(例えば、カメラシステム112への撮像実行命令の発行等)と、遠隔会議システムを制御すること(例えば、遠隔会議システムでの文書閲覧の共有等)とを含んでもよい。
いくつかの実施形態において、表示された電子文書に追加され、または表示された電子文書から除去された表示されたホットスポットは、電子商取引ウィジェットである。追加または除去されるホットスポットは、電子商取引エンティティに対応付けられたウィジェット(例えば、特定の販売元の文書に示された商品を購入するためのアフォーダンス)であってもよい。
いくつかの実施形態において、1つ以上の第1のホットスポット属性は、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含む。文書要素に対して文書に導入されるホットスポット属性は、ホットスポットのタイプ(例えば、ボタン、アイコン等)および/またはホットスポットの視覚的特性(例えば、サイズ、色等)を指定するものであってもよい。
いくつかの実施形態において、ホットスポットのタイプはボタンまたはスワイプウィジェットのうちの1つである。ホットスポットは、ボタン(例えば、仮想ボタン、トグルアイコン等)(例えば、ボタンホットスポット304、トグルホットスポット310、312等)またはスワイプウィジェット(例えば、スワイプホットスポット306等)であってもよい。いくつかの実施形態において、スワイプウィジェットは、スワイプジェスチャアクションによって文書に沿ってドラッグされてもよいアイコンである。スワイプウィジェットは、ユーザがスワイプジェスチャアクションを誘導するための視覚的なヒントを提供する。ホットスポットの他の例には、ハイパーリンク、プルダウンメニュー、チェックボックス、ラジオボタン、テキストボックス等がある。
いくつかの実施形態において、第1のホットスポットの視覚的特性は、スワイプウィジェットに対応付けられたスワイプジェスチャの方向を示す。スワイプウィジェットは、例えば、対応付けられたスワイプジェスチャアクションの方向を示す矢印を含んでもよい。
いくつかの実施形態において、視覚的特性は、表示されたホットスポットのサイズを示し、そのサイズは、ホットスポットが表示されるとき、ホットスポットの前方でユーザが行ったジェスチャによりホットスポット全体が覆われることがないようなサイズに規定される。視覚的特性属性は、ホットスポットが、ユーザのジェスチャアクションによって全体が覆われたり遮られたりしない程度に大きい(例えば、ジェスチャを行うために用いられる大人の指の幅より大きい)もとのなるように、ホットスポットのサイズを指定してもよい。
いくつかの実施形態において、複数の文書要素は、コンテンツ部分と、コンテンツ部分の特性を規定するタグ部分とをそれぞれ備える。システムは、第1の文書要素を含む複数の文書要素のうちの1つ以上の文書要素に対応付けられた1つ以上のタグ部分のタイプを評価することによって電子文書の構造を解析し、第1の文書要素は第1のタグ部分を含み、システムは、第1のタグ部分の評価されたタイプに基づいて、第1の文書要素がホットスポットとの対応付け候補であるかどうかを判定し、判定に応答して、第1の文書要素に関連する第1のホットスポット属性の導入を実行する。文書104は、マークアップ言語(例えば、HTML、XML)を使用して構成することができ、文書104は、コンテンツ(例えば、コンテンツテキスト)およびタグ(例えば、開始タグおよび終了タグ)を含むことができる。タグ、具体的には、開始タグ・終了タグの対でコンテンツ部分を囲む。文書解析モジュール236および/またはホットスポット導入モジュール238は、タグ部分(例えば、開始タグおよび終了タグの対によって囲まれた部分)を識別し、それらのタイプを決定するために文書104の構造を解析する。文書要素は、識別されたタグ部分から識別される。文書解析モジュール236および/またはホットスポット導入モジュール238は、文書要素がホットスポット属性導入の候補であるかどうかを判定する。文書要素がホットスポット属性導入の候補である場合、1つ以上のホットスポット属性が対応するタグ部分に導入される。
いくつかの実施形態において、ディスプレイシステムは、投影システムまたはダイレクトディスプレイシステムである。対話型文書108は、プロジェクタによって表面に投影されるか、またはディスプレイ上に表示されてもよい。
いくつかの実施形態において、カメラシステムは、ジェスチャと表示された電子文書とがカメラシステムの視野内に同時に存在するように配置され、ディスプレイシステムおよびカメラシステムは、カメラシステムがジェスチャに関する情報をディスプレイシステムに送信して、情報送信が行われたジェスチャに対応付けられた文書アクションの表示が電子文書上で行われるように互いに通信可能に接続される。カメラシステム112は、表示されるときの対話型文書108とユーザ110によるジェスチャアクションとがカメラ112の視野内にあることで、カメラシステム112によって撮像可能なように配置される。カメラシステム112と、対話型文書108を表示するためのディスプレイシステム(例えば、プロジェクタシステム、ディスプレイ等)は、コンピュータシステム102を介して通信可能に接続される。カメラシステム112は、対話型文書108上でユーザ110によって行われるジェスチャを撮像し、撮像したデータをコンピュータシステム102に送信する。コンピュータシステム102は、撮像データを処理して、実行すべき文書アクションを決定する。コンピュータシステム102は、文書アクションを実行し、ディスプレイシステムに表示データを送信して、ユーザ110に対して対話型文書108上に文書アクションの結果を示す。
図5は、いくつかの実施形態による文書アクションを実行するための方法(プログラム)のフローチャート500を示す。いくつかの実施形態において、方法500は、1つ以上のプロセッサと、表示システム(例えば、プロジェクタシステム、ディスプレイ等)と、視野を有するカメラシステム(例えば、カメラシステム112等)と、(例えば、図2のジェスチャ収集解析モジュール240および文書編集表示モジュール242の1つ以上を実行する図1のコンピュータシステム102で)1つ以上のプロセッサにより実行される1つ以上のプログラムを記憶するメモリとを備えるコンピュータシステムで実行される。
コンピュータシステムは、複数の表示可能な文書要素と、対応付けられたホットスポット属性セットとを含む電子文書を取得し(502)、ホットスポット属性セットは、1つ以上の所定の身体ジェスチャおよび対応付けられた文書アクションにそれぞれ対応付けられ、電子文書が表示されたときに表示可能である表示可能ホットスポットの1つ以上の属性をそれぞれ規定する。コンピュータシステム102は、(例えば、ホットスポット属性を文書104に導入することによって)ホットスポット対応文書106を取得する。ホットスポット対応文書106は、複数の文書要素と、1つ以上のホットスポット属性セットとをそれぞれ対応付けて含む。文書要素のホットスポット属性セットは、その文書要素と、1つ以上のジェスチャアクションおよび1つ以上の文書アクションに対応付けられたホットスポットとを対応付ける。
いくつかの実施形態において、ホットスポットは、文書要素の特定のタグに対応付けられる。例えば、ある要素に対応付けられたホットスポットは、文書内での当該要素の始点タグおよび終点タグに対応付けられることで、文書内における当該要素にリンク付けされてもよい。
いくつかの実施形態において、利用可能なホットスポットタグ、属性等は、ホットスポット導入データベース264に記憶され、ホットスポット導入データベース264から読み出されてもよく、ここで、データベース264は、文書への導入に利用可能なホットスポットタグ、属性等のテキスト文字列、パラメータ等を含む。システムは、データベース264から所望のタグ、属性等を読み出し、読み出されたタグ、属性等を関連する値とともに文書に導入する。
システムは、カメラの視野内のディスプレイ上に電子文書を表示し(504)、表示された電子文書は、1つ以上の表示されたホットスポットを含み、1つ以上の表示されたホットスポットは、ホットスポット属性セットに対応し、対応付けられたホットスポット属性セットに応じて表示される。コンピュータシステム102は、ホットスポット対応文書106を対話型文書108としてカメラシステム112の視界内に表示させる(例えば、ホットスポット文書106をディスプレイまたは表示用プロジェクタシステムに出力する)。対話型文書108は、ホットスポット属性セットに対応するとともに、対応付けられたホットスポット属性セットに応じて表示されるホットスポットを含む。
コンピュータシステムは、カメラの視野内にある表示された文書の前方でなされたユーザの身体ジェスチャをカメラで撮像する(506)。カメラシステム112は、カメラ112の視野において対話型文書108の一部を遮るようにユーザ110によって行われるジェスチャを撮像する。
コンピュータシステムは、カメラから見たときに身体ジェスチャの第1の身体ジェスチャが表示された第1のホットスポットと一致していると判定する(508)。このような一致は、ユーザがホットスポットを選択している可能性があることを示すものである。ジェスチャ収集解析モジュール240は、カメラシステム112からの撮像データを解析し、1つ以上のジェスチャを検出する。ジェスチャ収集解析モジュール240は、ジェスチャの1つが、対話型文書のホットスポットの少なくとも一部をを覆ったり遮ったりしていると判定し、このような状態は、ユーザ110がホットスポットをアクティブにしている可能性があることを示すものである。
コンピュータシステムは、身体ジェスチャのうち第1の身体ジェスチャを、第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識する(510)。コンピュータシステムは、第1の身体ジェスチャが第1の文書アクションに対応すると判定し、電子文書に対して第1の文書アクションを実行する(512)。ジェスチャ収集解析モジュール240は、検出されたジェスチャをホットスポットに対応付けられたジェスチャとして認識し、ホットスポットに対応付けられたジェスチャは、文書アクションに対応付けられる。この認識に応じて、コンピュータシステム102は文書アクションを実行する。
いくつかの実施形態において、コンピュータシステムは、表示された電子文書を更新して、実行された第1の文書アクションを反映する。コンピュータシステム102が文書アクションを実行すると、コンピュータシステム102(例えば、文書編集表示モジュール242)は、実行された文書アクションに応じて文書の出力を更新する。
いくつかの実施形態において、コンピュータシステムは、カメラから見たときに身体ジェスチャのうち第1の身体ジェスチャが、表示された第1のホットスポットと一致していると判定すると、表示された第1のホットスポットの第1の視覚的特性を変更して、表示された第1のホットスポットをユーザが選択した可能性があることを示す。コンピュータシステム102(例えば、文書編集表示モジュール242)は、ジェスチャが行われる対象のホットスポットの視覚的外観を更新する。
いくつかの実施形態において、コンピュータシステムは、第1のホットスポットに対応付けられた所定のジェスチャの1つとして身体ジェスチャの第1の身体ジェスチャを認識すると、表示された第1のホットスポットの第2の視覚的特性を変更して、第1の身体ジェスチャの認識を示す。コンピュータシステム102(例えば、文書編集表示モジュール242)は、ジェスチャと、ジェスチャが行われる対象のホットスポットとが対応付けられているという判定に応じて、ホットスポットの視覚的外観をさらに更新する。
例えば、コンピュータシステム102がホットスポットに対して行われたジェスチャを検出すると、コンピュータシステム102(例えば、文書編集表示モジュール242)は、ホットスポットの視覚的外観を更新する。視覚的外観は、ホットスポットの1つ以上の視覚的特性(例えば、色、サイズ、境界線の太さ、テキストサイズ、テキストの色)を変更する。コンピュータシステム102が、ジェスチャがホットスポットに対応付けられた所定のジェスチャの1つであるとさらに判定すると、コンピュータシステム102(例えば、文書編集表示モジュール242)は、ホットスポットの視覚的外観をさらに更新する。この更新は、ジェスチャがホットスポットに対して行われたと検出されたときの更新と同じ視覚的特性または異なる視覚的特性を変更するものであってもよい。
いくつかの実施形態において、カメラから見たときに身体ジェスチャの第1の身体ジェスチャが表示された第1のホットスポットと一致すると判定することは、表示された第1のホットスポットがユーザジェスチャによって遮られる遮蔽度を評価することと、遮蔽度が第1のしきい値を超えると、ユーザが表示された第1のホットスポットを選択する意図がなかったものと判定することと、遮蔽度が第1のしきい値未満であると、ユーザが表示された第1のホットスポットを選択する意図があったと判定することを含む。コンピュータシステム102(例えば、ジェスチャ収集解析モジュール240)は、ジェスチャがどの程度ホットスポットを遮るかを判定する。遮蔽度がしきい値より大きいと判定された場合、コンピュータシステム102は、ユーザ110がホットスポットを選択またはアクティブ化する意図はなかったと判定する。遮蔽度がしきい値未満であると判定された場合、コンピュータシステム102は、ユーザ110がホットスポットを選択またはアクティブ化する意図があったと判定する。
いくつかの実施形態において、コンピュータシステムは、取得ステップの前に、複数の文書要素のうちの第1の文書要素に関連する電子文書に1つ以上のホットスポット属性の第1のセットを導入し、第1のホットスポット属性セットは、電子文書が表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定し、第1のホットスポット属性セットは、1つ以上の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられる。コンピュータシステム102は、ホットスポット属性を文書102に導入することで、ホットスポット対応文書106を取得する。
いくつかの実施形態において、1つ以上の文書アクションを実行することは、(i)表示された電子文書から複数の文書要素のうちの1つ以上の文書要素を除去することと、(ii)複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)表示された電子文書から表示されたホットスポットを追加または除去することと、(vii)表示されたホットスポットに関連する表示された電子文書に不可視ホットスポットを追加することと、(viii)表示された電子文書からリンクされた他の電子文書に移動することと、(ix)カメラシステムを制御することと、(x)遠隔会議システムを制御することとを含む。コンピュータシステム102によって実行される文書アクションは、文書から文書要素を除去または削除することと、文書を機械翻訳に翻訳させることと、文書に対応付けられた音声出力を切り替えること(例えば、文書内で再生中の音声からの音声出力の消音または消音解除等)と、文書に対応付けられた映像から音声を切り替えること(例えば、文書内で再生中の映像からの音声の消音または消音解除等)と、文章に対応付けられた音声または映像の再生を切り替えること(例えば、文書内で再生中の音声または映像の再生または一時停止)と、文書へ可視ホットスポットを追加または文書から可視ホットスポットを除去することと、文書内の文書要素へ不可視ホットスポットを追加することと、リンクされた文書に移動することと、カメラシステムを制御すること(例えば、カメラシステム112への撮像実行命令の発行等)と、遠隔会議システムを制御すること(例えば、遠隔会議システムでの文書閲覧の共有等)であってもよい。
いくつかの実施形態において、表示された電子文書に追加され、または表示された電子文書から除去された表示されたホットスポットは、電子商取引ウィジェットである。追加または除去されるホットスポットは、電子商取引エンティティに対応付けられたウィジェット(例えば、特定の販売元の文書に示された商品を購入するためのアフォーダンス)であってもよい。
いくつかの実施形態において、第1のホットスポット属性セットは、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含む。ホットスポット属性は、ホットスポットのタイプ(例えば、ボタン、アイコン等)および/またはホットスポットの視覚的特性(例えば、サイズ、色等)を指定するものであってもよい。
いくつかの実施形態において、ホットスポットのタイプはボタンまたはスワイプウィジェットのうちの1つである。ホットスポットは、ボタン(例えば、仮想ボタン、トグルアイコン等)(例えば、ボタンホットスポット304、トグルホットスポット310、312等)またはスワイプウィジェット(例えば、スワイプホットスポット306等)であってもよい。いくつかの実施形態において、スワイプウィジェットは、スワイプジェスチャアクションによって文書に沿ってドラッグされてもよいアイコンである。スワイプウィジェットは、ユーザがスワイプジェスチャアクションを誘導するための視覚的なヒントを提供する。ホットスポットの他の例には、ハイパーリンク、プルダウンメニュー、チェックボックス、ラジオボタン、テキストボックス等がある。
いくつかの実施形態において、第1のホットスポットの視覚的特性は、スワイプウィジェットに対応付けられたスワイプジェスチャの方向を示す。スワイプウィジェットは、例えば、対応付けられたスワイプジェスチャアクションの方向を示す矢印を含んでもよい。
いくつかの実施形態において、視覚的特性は、表示されたホットスポットのサイズを示し、そのサイズは、ホットスポットが表示されるとき、ホットスポットの前方でユーザが行ったジェスチャによりホットスポット全体が覆われることがないようなサイズに規定される。視覚的特性属性は、ホットスポットのサイズを指定するものであって、ホットスポットが、ユーザのジェスチャアクションによって全体が覆われたり遮られたりしない程度の大きさになるようにしてもよい。
なお、「第1」、「第2」等の用語は、本明細書においてさまざまな要素を説明するために用いられうるが、これらの要素は、これらの用語によって限定されるものではないことが理解される。これらの用語は、要素を互いに区別するためにのみ用いられる。例えば、説明の意味は変わるが、第1の接点を第2の接点と呼び、同様に第2の接点を第1の接点と呼んでもよい。ただし、「第1の接点」と記載されている箇所すべてが一貫して第2の接点と読み替えられ、第2の接点と記載されている箇所すべてが一貫して第1の接点と読み替えられている場合に限る。第1の接点と第2の接点は両方とも接点であるが、それらは同じ接点ではない。
本明細書において使用される用語は、特定の実施形態のみを説明するためのものであり、特許請求の範囲を限定するものではない。単数形「a」、「an」および「the」は、特段別の記載がない限り、複数形も含むことが意図されている。なお、本明細書において使用される「および/または」という用語は、関連する列挙された1つ以上のものの任意のあらゆる可能な組み合わせをさし、包含するものである。さらに、「含む(comprise)」および/または「含む(comprising)」という用語は、本明細書において使用される場合、記載された特徴、完全体、工程、操作、要素および/または構成要素の存在を特定するが、1つ以上の他の特徴、完全体、工程、操作、要素、構成要素および/またはそれらの群のうちの1つ以上のものの存在または追加を排除するものではない。
「場合(if)」という用語は、本明細書において使用される場合、文脈に応じて、記載した前提条件が成り立つ「場合(when)」または「と(upon)」または「という判定に応答して」または「という判定に応じて」または「という検出に応答して」を意味すると解釈されてもよい。同様に、「(記載された前提条件が成り立つことが)判定される場合」または「(記載された前提条件が成り立つ)と」または「(記載された前提条件が成り立つ)場合」という表現は、文脈に応じて、記載した前提条件が成り立つ「場合(when)」または「と(upon)」または「という判定に応答して」または「という判定に応じて」または「という検出に応答して」を意味すると解釈されてもよい。
以下、添付図面に例示したさまざまな実施形態について詳述する。以下の詳細な説明では、本発明および記載する実施形態について十分な理解が得られるように、さまざまな具体的な詳細が示されている。しかしながら、本発明は、これらの具体的な詳細を用いずに実施されてもよい。なお、場合に応じて、実施形態の態様について不要に明瞭さが損なわれることがないように、既知の方法、手順、構成要素および回路については詳細に説明していない。
上記記載は、説明を目的として、特定の実施形態を参照しながら説明したものである。しかしながら、上述したような例示的な説明は、網羅的であることを意図したものではなく、または本発明を開示された形態そのものに限定することを意図したものでもない。上記教示を考慮して多くの修正および変形が可能である。本実施形態の選択および説明は、他の当業者が想定された特定の用途に合わせてさまざまな修正を加えて本発明およびさまざまな実施形態を最良に利用することができるように、本発明の原理およびその実用的な応用を最良に説明するためになされたものである。

Claims (21)

  1. コンピュータにより実行される方法であって、
    1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリとを有するコンピュータシステムにおいて、
    複数の文書要素を備える電子文書を取得するステップと、
    前記複数の文書要素のうちの第1の文書要素に関連する前記電子文書に、前記電子文書が表示システムによって表示されるときに前記第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入するステップとを含み、
    前記導入するステップにおいて、前記導入は、前記第1のホットスポットが、表示された電子文書の一部として前記表示システムによって表示されるとき、前記表示された電子文書の閲覧者が前記表示された電子文書と前記1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、前記1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある前記電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)前記対応付けられたカメラシステムによって撮像されるものであり、前記1つ以上の身体ジェスチャが前記対応付けられたカメラシステムによってそれぞれ撮像されると、前記表示された電子文書上で前記1つ以上の文書アクションがそれぞれ実行される方法。
  2. 前記1つ以上の文書アクションは、(i)前記表示された電子文書から前記複数の文書要素のうちの1つ以上の文書要素を除去することと、(ii)前記複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)前記表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)前記表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)前記表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)前記表示された電子文書から表示されたホットスポットを追加または除去することと、(vii)表示されたホットスポットに関連する前記表示された電子文書に不可視ホットスポットを追加することと、(viii)前記表示された電子文書からリンクされた他の電子文書に移動することと、(ix)前記カメラシステムを制御することと、(x)遠隔会議システムを制御することの1つ以上を含む、請求項1に記載の方法。
  3. 前記表示された電子文書に追加または前記表示された電子文書から削除された前記表示されたホットスポットは電子商取引ウィジェットである、請求項2に記載の方法。
  4. 前記1つ以上の第1のホットスポット属性は、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含む、請求項1に記載の方法。
  5. 前記ホットスポットのタイプは、ボタンまたはスワイプウィジェットのうちの1つであることを特徴とする、請求項4に記載の方法。
  6. 前記第1のホットスポットの視覚的特性は、前記スワイプウィジェットに対応付けられたスワイプジェスチャの方向を示す、請求項5に記載の方法。
  7. 前記視覚的特性は、前記表示されたホットスポットのサイズを示し、前記サイズは、前記ホットスポットが表示されるとき、前記ホットスポットの前方でユーザが行ったジェスチャによりホットスポット全体が覆われることがないようなサイズに規定される、請求項5に記載の方法。
  8. 前記複数の文書要素は、コンテンツ部分と、前記コンテンツ部分の各々の特性を規定するタグ部分とをそれぞれ備え、
    第1のタグ部分を含む前記第1の文書要素を含む前記複数の文書要素のうちの1つ以上の文書要素に対応付けられた1つ以上のタグ部分のタイプを評価することによって、前記電子文書の構造を解析するステップと、
    前記第1のタグ部分の前記評価されたタイプに基づいて、前記第1の文書要素がホットスポットとの対応付け候補であるかを判定するステップと、
    前記判定に応答して、前記第1の文書要素に関連する前記第1のホットスポット属性の導入を実行するステップと
    をさらに含む、請求項1に記載の方法。
  9. 前記表示システムは、投影システムまたはダイレクトディスプレイシステムである、請求項1に記載の方法。
  10. 前記カメラシステムは、前記身体ジェスチャおよび前記表示された電子文書が前記カメラシステムの視野内に同時に存在するように配置され、前記表示システムおよび前記カメラシステムは、前記カメラシステムが前記身体ジェスチャに関する情報を前記表示システムに送信して、前記情報が送信された前記身体ジェスチャに対応付けられた前記文書アクションをディスプレイが前記電子文書上で実行できるように互いに通信可能に接続される、請求項1に記載の方法。
  11. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリとを備えるコンピュータシステムであって、前記1つ以上のプログラムは、
    複数の文書要素を備える電子文書を取得する命令と、
    前記複数の文書要素のうちの第1の文書要素に関連する前記電子文書に、前記電子文書が表示システムによって表示されるときに前記第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入する命令とを含み、
    前記導入は、前記第1のホットスポットが、表示された電子文書の一部として前記表示システムによって表示されるとき、前記表示された電子文書の閲覧者が前記表示された電子文書と前記1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、前記1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある前記電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)前記対応付けられたカメラシステムによって撮像されるものであり、前記1つ以上の身体ジェスチャが前記対応付けられたカメラシステムによってそれぞれ撮像されると、前記表示された電子文書上で前記文書アクションがそれぞれ実行されるコンピュータシステム。
  12. コンピュータにより実行される方法であって、
    1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリと、表示システムと、視野を有するカメラとを有するコンピュータシステムにおいて、
    複数の表示可能な文書要素と、対応付けられた複数のホットスポット属性セットとを備える電子文書を取得するステップを含み、前記複数のホットスポット属性セットは、1つ以上の所定の身体ジェスチャと、対応付けられた文書アクションとにそれぞれ対応付けられ、前記電子文書が表示されるときに表示可能な表示可能ホットスポットのそれぞれの1つ以上の属性を規定し、
    前記カメラの前記視野内にあるディスプレイ上に前記電子文書を表示するステップを含み、前記表示された電子文書は1つ以上の表示されたホットスポットを含み、前記1つ以上の表示されたホットスポットは、前記対応付けられた複数のホットスポット属性セットに対応するとともに、前記対応付けられた複数のホットスポット属性セットに応じて表示され、
    前記カメラの前記視野内にある前記表示された文書の前方においてなされたユーザの身体ジェスチャを前記カメラで撮像するステップを含み、
    前記複数の身体ジェスチャのうちの第1の身体ジェスチャが、前記カメラから見たとき、表示された第1のホットスポットと一致していると判定するステップを含み、前記判定は、ユーザが前記ホットスポットを選択している可能性があることを示し、
    前記複数の身体ジェスチャのうちの前記第1の身体ジェスチャを、前記第1のホットスポットに対応付けられた前記所定のジェスチャの1つとして認識するステップを含み、
    前記第1の身体ジェスチャが第1の文書アクションに対応すると判定し、前記第1の文書アクションを前記電子文書上で実行するステップとを含む方法。
  13. 前記実行された第1の文書アクションを反映するように前記表示された電子文書を更新するステップをさらに含む、請求項12に記載の方法。
  14. 前記複数の身体ジェスチャのうちの前記第1の身体ジェスチャが、前記カメラから見たとき、前記表示された第1のホットスポットと一致すると判定すると、前記表示された第1のホットスポットをユーザが選択した可能性があることを示すために、前記表示された第1のホットスポットの第1の視覚的特性を変更するステップをさらに含む、請求項12に記載の方法。
  15. 前記複数の身体ジェスチャのうちの前記第1の身体ジェスチャを、前記第1のホットスポットに対応付けられた所定のジェスチャの1つとして認識すると、前記第1の身体ジェスチャが認識されたことを示すために、前記表示された第1のホットスポットの第2の視覚的特性を変更するステップをさらに含む、請求項14に記載の方法。
  16. 前記複数の身体ジェスチャのうちの第1の身体ジェスチャが、前記カメラから見たとき、表示された第1のホットスポットと一致すると判定するステップは、
    前記表示された第1のホットスポットがユーザジェスチャによって遮られる遮蔽度を評価することと、
    前記遮蔽度が第1のしきい値を超えると、前記ユーザが前記表示された第1のホットスポットを選択する意図がなかったものと判定することと、
    前記遮蔽度が前記第1のしきい値未満であると、前記ユーザが前記表示された第1のホットスポットを選択する意図があったと判定することを含む、請求項12に記載の方法。
  17. 前記取得するステップの前に、前記複数の文書要素の第1の文書要素に関連する前記電子文書に1つ以上のホットスポット属性の第1のセットを導入するステップをさらに含み、第1のホットスポット属性セットは、前記電子文書が表示されるときに前記第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定し、前記第1のホットスポット属性セットは、1つ以上の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられる、請求項12に記載の方法。
  18. 前記1つ以上の文書アクションを実行することは、(i)前記表示された電子文書から前記複数の文書要素のうちの1つ以上の文書要素を除去することと、(ii)前記複数の文書要素のうちの1つ以上の文書要素を特定の言語に翻訳することと、(iii)前記表示された電子文書に対応付けられた音声出力を消音または再開することと、(iv)前記表示された電子文書に対応付けられた映像表示を消音または再開することと、(v)前記表示された電子文書に対応付けられたスクリプトの実行を終了または再開することと、(vi)前記表示された電子文書から表示されたホットスポットを追加または除去することと、(vii)表示されたホットスポットに関連する前記表示された電子文書に不可視ホットスポットを追加することと、(viii)表示された電子文書からリンクされた第2の電子文書に移動することと、(ix)カメラシステムを制御することと、(x)遠隔会議システムを制御することの1つ以上を含む、請求項12に記載の方法。
  19. 前記表示された電子文書に追加または前記表示された電子文書から削除された前記表示されたホットスポットは電子商取引ウィジェットである、請求項18に記載の方法。
  20. 第1のホットスポット属性セットは、ホットスポットのタイプおよび/またはホットスポットの視覚的特性を含む、請求項12に記載の方法。
  21. 1つ以上のプロセッサを備えるコンピュータシステムによって実行されると、コンピュータシステムに、複数の文書要素を備える電子文書を取得させ、前記複数の文書要素のうちの第1の文書要素に関連する電子文書に、前記電子文書が表示システムによって表示されるときに第1の文書要素とともに表示可能な第1のホットスポットの1つ以上の属性を規定するものであって、1つ以上の所定の身体ジェスチャと1つ以上の文書アクションとにそれぞれ対応付けられた1つ以上の第1のホットスポット属性を導入させプログラムであって、
    前記導入は、前記第1のホットスポットが、表示された電子文書の一部として前記表示システムによって表示されるとき、前記表示された電子文書の閲覧者が前記表示された電子文書と1つ以上の所定の身体ジェスチャを用いて対話可能であることを示すように行われ、前記1つ以上の所定の身体ジェスチャは、(i)対応付けられたカメラシステムの視野にある電子文書の表示されたものを少なくとも部分的に覆う位置で行われ、(ii)前記対応付けられたカメラシステムによって撮像されるものであり、1つ以上の身体ジェスチャが対応付けられたカメラシステムによってそれぞれ撮像されると、表示された電子文書上で1つ以上の文書アクションがそれぞれ実行される、プログラム。
JP2017178018A 2017-04-20 2017-09-15 カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム Pending JP2018181294A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/493,070 US10691217B2 (en) 2017-04-20 2017-04-20 Methods and systems for providing a camera-based graphical user interface
US15/493,070 2017-04-20

Publications (1)

Publication Number Publication Date
JP2018181294A true JP2018181294A (ja) 2018-11-15

Family

ID=63853941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178018A Pending JP2018181294A (ja) 2017-04-20 2017-09-15 カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム

Country Status (2)

Country Link
US (1) US10691217B2 (ja)
JP (1) JP2018181294A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11681397B2 (en) 2020-06-08 2023-06-20 Seiko Epson Corportation Position detection system, position detection apparatus, and position detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113382108A (zh) * 2020-02-25 2021-09-10 珠海金山办公软件有限公司 一种电子文档显示方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135014A (ja) * 2005-11-10 2007-05-31 Fuji Xerox Co Ltd 遠隔制御システムおよび遠隔制御方法
JP2009043157A (ja) * 2007-08-10 2009-02-26 Panasonic Electric Works Co Ltd 画像表示装置
JP2010003159A (ja) * 2008-06-20 2010-01-07 Hitachi Ltd Web利用者支援システム、Web利用者支援方法、およびWeb利用者支援プログラム
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2014211858A (ja) * 2013-04-18 2014-11-13 富士ゼロックス株式会社 ジェスチャに基づくユーザ・インターフェイスを提供するシステム、方法及びプログラム
JP2015179491A (ja) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6669631B2 (en) * 2000-06-14 2003-12-30 Medtronic, Inc. Deep computing applications in medical device systems
US7702673B2 (en) * 2004-10-01 2010-04-20 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment
EP2597868B1 (en) * 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
US20130024819A1 (en) * 2011-07-18 2013-01-24 Fuji Xerox Co., Ltd. Systems and methods for gesture-based creation of interactive hotspots in a real world environment
JP6316540B2 (ja) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
US10180728B2 (en) * 2013-05-17 2019-01-15 Citrix Systems, Inc. Remoting or localizing touch gestures at a virtualization client agent
US9632686B1 (en) * 2014-07-24 2017-04-25 Wells Fargo Bank, N.A. Collaborative document creation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135014A (ja) * 2005-11-10 2007-05-31 Fuji Xerox Co Ltd 遠隔制御システムおよび遠隔制御方法
JP2009043157A (ja) * 2007-08-10 2009-02-26 Panasonic Electric Works Co Ltd 画像表示装置
JP2010003159A (ja) * 2008-06-20 2010-01-07 Hitachi Ltd Web利用者支援システム、Web利用者支援方法、およびWeb利用者支援プログラム
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2014211858A (ja) * 2013-04-18 2014-11-13 富士ゼロックス株式会社 ジェスチャに基づくユーザ・インターフェイスを提供するシステム、方法及びプログラム
US9317171B2 (en) * 2013-04-18 2016-04-19 Fuji Xerox Co., Ltd. Systems and methods for implementing and using gesture based user interface widgets with camera input
JP2015179491A (ja) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11681397B2 (en) 2020-06-08 2023-06-20 Seiko Epson Corportation Position detection system, position detection apparatus, and position detection method

Also Published As

Publication number Publication date
US20180307316A1 (en) 2018-10-25
US10691217B2 (en) 2020-06-23

Similar Documents

Publication Publication Date Title
US11204650B2 (en) Method, apparatus and system for interacting with content on web browsers
US11797131B2 (en) Apparatus and method for image output using hand gestures
EP3180687B1 (en) Hover-based interaction with rendered content
US20110087974A1 (en) User interface controls including capturing user mood in response to a user cue
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20150149889A1 (en) Displaying page elements
CN104199552A (zh) 多屏显示方法、设备及系统
CN107209756B (zh) 在标记语言文档中支持数字墨水
US10838585B1 (en) Interactive content element presentation
US20140123036A1 (en) Touch screen display process
CN108829371A (zh) 界面控制方法、装置、存储介质及电子设备
WO2015043352A1 (en) Method and apparatus for selecting test nodes on webpages
JP2014082605A (ja) 情報処理装置、その制御方法及びプログラム
JP2018181294A (ja) カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム
WO2017020719A1 (zh) 一种对页面中对象信息分类的方法和设备
KR20170045101A (ko) 콘텐트를 외부 장치와 공유하는 전자 장치 및 이의 콘텐트 공유 방법
KR20150097250A (ko) 태그 정보를 이용한 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN117193514A (zh) 人机交互的方法及电子设备
KR20150093045A (ko) 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN105260435A (zh) 一种网页浏览模式选择方法及电子设备
KR20240174559A (ko) 손 제스쳐 기반의 모션 디스플레이 시스템 및 그 구동방법
CN119760247A (zh) 智能推荐方法及电子设备
CN119576461A (zh) 界面显示方法、装置、电子设备及存储介质
HK40092285A (zh) 信息展示方法及相关产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210914