[go: up one dir, main page]

JP2013140578A - 電子装置及びその制御方法 - Google Patents

電子装置及びその制御方法 Download PDF

Info

Publication number
JP2013140578A
JP2013140578A JP2012275273A JP2012275273A JP2013140578A JP 2013140578 A JP2013140578 A JP 2013140578A JP 2012275273 A JP2012275273 A JP 2012275273A JP 2012275273 A JP2012275273 A JP 2012275273A JP 2013140578 A JP2013140578 A JP 2013140578A
Authority
JP
Japan
Prior art keywords
motion
icon
user
input
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012275273A
Other languages
English (en)
Inventor
Sang-Jin Han
尚 珍 韓
Yokan Ken
容 煥 權
Jung Geun Kim
正 根 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013140578A publication Critical patent/JP2013140578A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 本発明の目的とするところは、モーション入力部を介して入力されたユーザモーション、ディスプレイ画面にディスプレイされた複数のアイコン及びポインタを用いて電子装置の機能を実行する電子装置及びその制御方法を提供することにある。
【解決手段】 電子装置及びその制御方法が提供される。本電子装置の制御方法は、モーション開始命令が入力されると、モーションタスクモードを行うためのアイコン及びポインタをディスプレイし、ユーザの第1モーションに沿ってポインタを移動させ、ポインタがアイコンに位置した状態でユーザの第2モーションが入力されると、アイコンに対応する機能を実行する。それにより、ユーザはモーションを用いて電子装置をより便利かつ直観的に制御することができるようになる。
【選択図】 図10

Description

本発明は、電子装置及びその制御方法に関し、より詳細には、モーション入力部を介して入力されたモーションに応じて制御される電子装置及びその制御方法に関する。
電子技術の発展により、多様な種類の電子装置が開発され普及されている。特に、最近はテレビをはじめとする多様な類型の電子装置が一般家庭でも使われている。これらの電子装置は、ユーザの要求に応じてより多様な機能を備えるようになっている。特に、テレビの場合、最近はインターネットと接続されてインターネットサービスまでサポートしている。なお、ユーザはテレビを通じて数多くのデジタル放送チャネルも視聴できるようになっている。
よって、電子装置の多様な機能を効率的に使うための多様な入力方法が要求されている。例えば、リモコンを用いた入力方法、マウスを用いた入力方法、及びタッチパッドを用いた入力方法等が電子装置に適用されている。
ところが、このような単純な入力方法だけでは、電子装置の多様な機能を効果的に使いこなすことが困難であった。仮に、電子装置のすべての機能をリモコンだけで制御するように実現できると、リモコンのボタン数を増やさざるを得なかった。この場合、一般のユーザがリモコンの使用法を習得することは決して容易なことではない。なお、多様なメニューを画面上に表示してユーザが当該メニューを探し出して選択する方法の場合、ユーザが複雑なメニューツリーを一々確認し、自分の望むメニューを選択しなければならないため、不便であった。
従って、電子装置をより便利かつ効果的に制御するための技術が求められるようになった。
韓国特開第2007−0055210号公報 韓国特開第2010−0102354号公報 韓国特開第2006−0084251号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、モーション入力部を介して入力されたユーザモーション、ディスプレイ画面にディスプレイされた複数のアイコン及びポインタを用いて電子装置の機能を実行する電子装置及びその制御方法を提供することにある。
前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、モーション開始命令(Trigger Motion)が入力されると、モーションタスクモードを行うためのアイコン及びポインタをディスプレイするステップと、ユーザの第1モーションに沿って前記ポインタを移動させるステップと、前記ポインタが前記アイコンに位置した状態でユーザの第2モーションが入力されると、前記アイコンに対応する機能を実行するステップとを含む。
そして、前記アイコンに位置した前記ポインタは、前記ユーザの第2モーションが入力される間、動かされずに固定されてよい。
なお、前記実行するステップは、前記ポインタが前記アイコンに位置しながら前記第2モーションの入力が保持されると、前記ポインタの位置するアイコンの機能を連続して実行してよい。
そして、前記ユーザの第1モーションは、ユーザの手を開いたスプレッド(Spread)モーションであり、前記ユーザの第2モーションは、前記ユーザの手を握ったグラブ(Grab)モーションであってよい。
なお、前記アイコンは、音量アップのアイコン、音量ダウンのアイコン、チャネルアップのアイコン及びチャネルダウンのアイコンのうち、少なくとも一つを含んでよい。
そして、前記アイコンは、ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記音量アップのアイコン及び前記音量ダウンのアイコンと、前記ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記チャネルアップのアイコン及び前記チャネルダウンのアイコンとを含んでよい。
なお、前記音量アップのアイコン及び前記音量ダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定された音量レベル情報がディスプレイされ、前記チャネルアップのアイコン及び前記チャネルダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定されたチャネル情報がディスプレイされてよい。
そして、モーション終了モーションが入力されると、前記ディスプレイされた複数のアイコン及びポインタをディスプレイ画面から除去するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザのモーションが入力されるモーション入力部と、ディスプレイ部と、前記モーション入力部を介してモーション開始命令(Trigger Motion)が入力されると、モーションタスクモードを行うためのアイコン及びポインタをディスプレイし、前記モーション入力部に入力されたユーザの第1モーションに沿って前記ポインタを移動させるように前記ディスプレイ部を制御し、前記ポインタが前記アイコンに位置した状態で前記モーション入力部にユーザの第2モーションが入力されると、前記アイコンに対応する機能を実行する制御部とを具備する。
そして、前記制御部は、前記ユーザの第2モーションが入力される間、前記ポインタの位置を動かさずに固定してよい。
なお、前記制御部は、前記ポインタが前記アイコンに位置しながら前記第2モーションの入力が保持されると、前記ポインタの位置するアイコンの機能を連続して実行してよい。
そして、前記ユーザの第1モーションは、ユーザの手を開いたスプレッド(Spread)モーションであり、前記ユーザの第2モーションは、前記ユーザの手を握ったグラブ(Grab)モーションであってよい。
なお、前記アイコンは、音量アップのアイコン、音量ダウンのアイコン、チャネルアップのアイコン及びチャネルダウンのアイコンのうち、少なくとも一つを含んでよい。
そして、前記アイコンは、ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記音量アップのアイコン及び前記音量ダウンのアイコンと、前記ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記チャネルアップのアイコン及び前記チャネルダウンのアイコンとを含んでよい。
なお、前記音量アップのアイコン及び前記音量ダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定された音量レベル情報がディスプレイされ、前記チャネルアップのアイコン及び前記チャネルダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定されたチャネル情報がディスプレイされてよい。
そして、前記制御部は、前記モーション入力部を介してモーション終了モーションが入力されると、前記ディスプレイされた複数のアイコン及びポインタを前記ディスプレイ部のディスプレイ画面から除去してよい。
以上説明したように、本発明によれば、ユーザはユーザモーションを用いてより便利かつ直観的に電子装置を制御することができるようになる。
本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の多様な実施形態に係るユーザモーションを用いたチャネル制御及び音量制御を行う方法を説明するための図である。 本発明の一実施形態に係るユーザモーションを用いて電子装置の制御方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の実施形態に係る電子装置を示す概略的なブロック図である。
図1を参照すると、電子装置100は、モーション入力部120と、保存部130と、制御部140及びディスプレイ部193を含む。電子装置100は、外部のネットワークと接続可能なスマートテレビ、セットトップボックス、PCであって、又はデジタルテレビや携帯電話等で実現されてよいが、これらに限られるものではない。
モーション入力部120は、ユーザのモーションを撮像した映像信号(例えば、連続するフレーム)を受信して制御部140に提供する。例えば、モーション入力部120は、レンズ及びイメージセンサで構成されるカメラユニットで実現されてよい。なお、モーション入力部120は、電子装置100と一体型だけでなく、分離した形で実現されてよい。分離されたモーション入力部120は、電子装置100と有線または無線ネットワークを通じて接続されてよい。
保存部130は、電子装置100を駆動して制御するための多様なデータ及びプログラムを保存する。保存部130は、音声入力部を介して入力された音声を認識するための音声認識モジュール及びモーション入力部120を介して入力されたモーションを認識するためのモーション認識モジュールを保存する。
保存部130は、音声データベース及びモーションデータベースを含んでよい。音声データベースは、予め設定された音声及び予め設定された音声にマッチする音声タスクが記録されたデータベースのことを意味する。モーションデータベースは、予め設定されたモーション及び予め設定されたモーションにマッチするモーションタスクが記録されたデータバースのことを意味する。
ディスプレイ部193は、放送受信部を介して受信された放送信号に対応する映像を表示する。ディスプレイ部193は、外部端子入力部を介して入力される映像データ(例えば、動画)を表示することができる。ディスプレイ部193は、制御部140の制御に応じて音声タスクを行うための音声ガイド情報及びモーションタスクを行うためのモーションガイド情報を表示することができる。
制御部140は、モーション入力部120と、保存部130及びディスプレイ部193を制御する。制御部140は、CPU(Central ProcessingUnit)及び電子装置100を制御するためのモジュール及びデータを保存するROM(Read Only Memory)及びRAM(Random Access Memory)を含んでよい。
制御部140は、モーション入力部120を介してモーションが入力される場合、モーション検知モジュール及びモーションデータベースを用いてモーションを認識する。モーション認識(Motion Recognition)はモーション入力部120を介して入力されるユーザのモーションに対応する映像(例えば、連続するフレーム)をモーション認識モジュールを用いて周囲の背景と手(例えば、指を伸ばしたり指を曲げて拳を作る)領域に分離し、連続する手の動きを認識することができる。ユーザモーションが入力される場合、制御部140は受信された映像をフレーム単位で保存し、保存されたフレームを用いてユーザモーションの対象であるオブジェクト(例えば、ユーザの手)を検知する。制御部140は、フレームに含まれたオブジェクトの形、色、動きのうち、少なくともいずれか一つを検知してオブジェクトを検出する。制御部140は、複数のフレームに含まれた各々のオブジェクトの位置を用いて検出されたオブジェクトの動きを追跡することができる。
制御部140は、追跡されたオブジェクトの形及び動きに応じてモーションを判断する。例えば、制御部140は、オブジェクトの形の変化、速度、位置、方向のうち、少なくともいずれか一つを用いてユーザのモーションを判断する。ユーザのモーションは、手を握るモーションであるグラブ(Grab)、表示されたカーソルを手で移動させるモーションであるポインティング移動(Pointing move)、手を一定速度以上に一方向に動かすモーションであるスラップ(Slap)、手を左/右又は上/下に振るモーションであるシェイク(Shake)及び手を回転させるモーションである回転を含む。上述の実施形態以外の他のモーションにも本発明の技術的思想が適用されてよい。例えば、握られた手を開くスプレッド(Spread)モーション等が更に含まれてよい。
制御部140は、ユーザのモーションがポインティング移動であるか、スラップであるかを判断するために、オブジェクトが決定された時間(例えば、800ms)内に決定された領域(例えば、40cm×40cmの四角形)から外れているかを判断する。オブジェクトが決定された時間内に決定された領域から外れていない場合、制御部140はユーザのモーションをポインティング移動と判断してよい。オブジェクトが決定された時間内に決定された領域から外れている場合、制御部140はユーザのモーションをスラップと判断してよい。別の一例として、オブジェクトの速度が予め設定された速度(例えば、30cm/s)以下であると判断された場合、制御部140はユーザのモーションをポインティング移動と判断する。オブジェクトの速度が予め設定された速度超過であると判断される場合、制御部140はユーザのモーションをスラップと判断する。
制御部140は、上述のように、認識された音声を用いて、電子装置100のタスク(Task)を行う。電子装置100のタスクは、チャネル変更、音量調節、コンテンツ(例えば、動画や音楽、写真等)の再生又はインターネットブラウジング等のように、電子装置100によって実行可能な機能の少なくとも一つを含む。
特に、モーション入力部120を介してモーション開始命令(Trigger Motion)が入力されると、制御部140は、電子装置100のモードをモーションタスクモードに切り替える。このとき、モーション開始命令は、ユーザの片手を左右に複数回振るモーションであってよい。そして、モーションタスクモードは、電子装置100がモーション入力部120を介して入力されたユーザのモーションに応じて制御されるモードである。
モーションタスクモードに切り替えられると、制御部140は、モーションタスクモードを行うためのアイコン及びポインタをディスプレイ193にディスプレイする。このとき、ディスプレイされるアイコンは、電子装置100の機能(例えば、音量調節やチャネル変更)を制御するためのアイコンである。そして、アイコンは、ディスプレイ画面の左側領域及び右側領域にディスプレイされてよい。なお、ポインタはディスプレイ画面の中央領域にディスプレイされてよい。
そして、制御部140は、モーション入力部120を介して入力されたユーザの第1モーションに沿ってポインタを移動させる。このとき、ユーザの第1モーションは、ユーザの手を開いた状態であるスプレッド(Spread)モーションをいう。即ち、モーション入力部120を介してユーザの手が開いた状態で移動されるモーションが入力されると、制御部140は、ユーザの手の移動に沿ってポインタを移動させることができる。
そして、ポインタがアイコンに位置した状態でモーション入力部120を介してユーザの第2モーションが入力されると、制御部140は、アイコンに対応する機能を実行する。このとき、ユーザの第2モーションは、手を握るグラブ(Grab)モーションであってよい。例えば、ポインタが音量アップのアイコンに位置した状態でモーション入力部120を介してユーザのグラブモーションが入力されると、制御部14は、現在の音量レベルから音量レベルを“1”上げてよい。
ここで、制御部140は、ユーザの第2モーションが入力される間ポインタの位置が動かされずに固定されるように制御する。それは、ユーザの第2モーションを入力する際、ユーザの手が動いたと判断されてポインタの位置が変更されると、ユーザは電子装置100を正確に制御することができないためである。
なお、ポインタがアイコンに位置しながら第2モーションの入力が保持されると、制御部140は、ポインタの位置するアイコンの機能を連続して実行することができる。例えば、ポインタが音量ダウンのアイコンに位置しながら第2モーションの入力が保持されると、制御部140は音量レベルを更に下げることができる。このとき、第2モーションの入力が保持されると、制御部140はポインタの位置するアイコンの機能をより素早く実行することができる。例えば、ポインタが音量ダウンのアイコンに位置しながら第2モーションの入力が保持されると、制御部140は音量レベルを次第に早く下げることができる。
そして、モーション入力部120を介してモーション終了モーションが入力されると、制御部140は、ディスプレイされた複数のアイコン及びポインタをディスプレイ部193のディスプレイ画面から除去することができる。このとき、モーション終了モーションとモーション開始モーションとが同様のモーションであってよい。
ユーザのモーション、複数のアイコン及びポインタを用いて電子装置100を制御する方法に対しても、図4ないし図9を参照して詳細に説明する。
図2は、本発明の別の実施形態に係る電子装置100の構成を示すブロック図である。図2を参照すると、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180及び映像出力部190を含む。図2に示す電子装置100は、セットトップボックス(Set Top Box)で実現されてよい。
一方、図2に示すモーション入力部120と、保存部130及び制御部140に対する説明は、図1において説明したモーション入力部120と、保存部130及び制御部140に対する説明と同様であるため、詳細な説明は省略する。
音声入力部110には、ユーザの発話(Utterance)した音声命令が入力される。音声入力部110は、入力された音声信号を電気信号に変換して制御部140に出力する。例えば、音声入力部110は、マイクで実現されてよい。なお、音声入力部110は、電子装置100と一体型(All−in−one)だけでなく、分離した形で実現されてよい。分離された音声入力部110は、電子装置100と有線又は無線ネットワークを通じて接続されてよい。
放送受信部150は、有/無線で外部から放送信号を受信する。放送信号は、映像(Video)、オーディオ(Audio)及び付加データ(例えば、EPG)を含む。放送受信部150は、地上波放送、ケーブル放送、衛星放送、インターネット放送等のような多様なソースから放送信号を受信することができる。
外部端子入力部160は、電子装置100の外部から映像データ(例えば、動画や写真等)、オーディオデータ(例えば、音楽等)等を受信する。外部端子入力部160は、HDMI入力端子(High−Definition Multimedia Interface Input)、コンポーネント入力端子、PC入力端子、又はUSB入力端子の少なくとも一つを含んでよい。リモコン信号受信部170は、外部のリモコンから入力されるリモコン信号を受信する。リモコン信号受信部170は、電子装置100が音声タスクモードか、モーションタスクモードでも、リモコン信号を受信することができる。
ネットワークインターフェース部180は、制御部140の制御によって電子装置100と外部装置(例えば、サーバ)を接続することができる。制御部140は、ネットワークインターフェース部180を介して接続された外部装置からアプリケーションをダウンロードしたり、ウェブブラウジングをすることができる。ネットワークインターフェース部180は、イーサネット(登録商標)(Ethernet(登録商標))、無線LAN及びブルートゥース(登録商標)(Bluetooth(登録商標))の少なくとも一つを提供することができる。
映像出力部190は、放送受信部150を介して受信される外部の放送信号、又は外部端子入力部160で入力される映像データ、又は保存部130に保存された映像データを外部のディスプレイ装置(例えば、モニタやテレビ)に出力する。
制御部140は、音声入力部110からユーザ音声が入力される場合、音声認識モジュール及び音声データベースを用いて音声を認識する。音声認識(Voice Recognition)は入力される音声の形態によって、各々の単語を区分して発話した音声を認識する孤立単語認識(Isolated Word Recognition)、連続単語、連続文章及び会話体音声を認識する連続音声認識(Continuous speech Recognition)及び孤立単語認識と連続音声認識との中間形態で、予め定められたキーワードを検出して認識するキーワード検出(Keyword Spotting)で区分されてよい。
ユーザ音声が入力される場合、制御部140は入力された音声信号内でユーザが発話した音声の始めと終わりを検出して音声区間を判断する。制御部140は、入力された音声信号のエネルギーを計算し、計算されたエネルギーに応じて音声信号のエネルギーレベルを分類し、動的プログラミングを通じて音声区間を検出することができる。制御部140は、検出された音声区間内の音声信号から、音響モデル(Acoustic Model)に基づいて、音声の最小単位である音素を検出して音素データを生成する。制御部140は、生成された音素データにHMM(Hidden Markov Model)確率モデルを適用してテキスト情報を生成する。しかし、上述のように、ユーザの音声を認識する方法は一実施形態に過ぎず、他の方法を用いてユーザ音声を認識することができる。それにより、制御部140は、音声信号の中に含まれたユーザの音声を認識することができる。
図3は、本発明の更に別の実施形態に係る電子装置100のブロック図を示す図である。図3に示すように、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180と、ディスプレイ部193及びオーディオ出力部196を含む。このとき、電子装置100は、デジタルテレビであってよいが、これに限られるものではない。
一方、図3において、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180及びディスプレイ部193に対する説明は、図1及び図2で同じ参照番号を有する構成に対する説明と同様であるため、詳細な説明は省略する。
オーディオ出力部196は、制御部140の制御によって放送信号に対応する音声を出力する。オーディオ出力部196は、スピーカ196a、ヘッドホン出力端子196b又はS/PDIF出力端子163cの少なくともいずれか一つを含んでよい。
一方、保存部130は、図3に示すように、電源制御モジュール130a、チャネル制御モジュール130b、音量制御モジュール130c、外部入力制御モジュール130d、画面制御モジュール130e、オーディオ制御モジュール130f、インターネット制御モジュール130g、アプリケーションモジュール130h、検索制御モジュール130i、UI処理モジュール130j、音声認識モジュール130k、モーション認識モジュール130l、音声データベース130m及びモーションデータベース130nを含む。これらのモジュール(130aないし130n)は、それぞれ、電源制御機能、チャネル制御機能、音量制御機能、外部入力制御機能、画面制御機能、オーディオ制御機能、インターネット制御機能、アプリケーション実行機能、検索制御機能、UI処理機能を行うためにソフトウェアで実現されてよい。制御部140は、保存部130に保存されたこれらのソフトウェアを実行させて当該機能を行うことができる。
以下では、図4ないし図9を参照して、本発明の多様な実施形態について説明する。
制御部140は、放送受信部150を介して受信された放送信号を信号処理して、図4に示すように、放送映像400をディスプレイ画面にディスプレイする。
このとき、モーション入力部120を介してモーション開始命令が入力されると、制御部140は、電子装置100のモードをモーションタスクモードに切り替える。このとき、モーションタスクモードとは、電子装置100をモーション入力部120を介してユーザのモーションによって制御するモードである。
モーションタスクモードに切り替えられると、制御部140は、電子装置100の特定機能を行うための複数のアイコン510、530、540、560及びポインタがディスプレイ570される。具体的には、図5に示すように、制御部140はディスプレイ画面の左側領域に音量レベル制御のための音量アップのアイコン510及び音量ダウンのアイコン530をディスプレイし、ディスプレイ画面の右側領域にチャネル制御のためのチャネルアップのアイコン540及びチャネルダウンのアイコン560をディスプレイし、ディスプレイ画面の中央部分にポインタ570をディスプレイする。
このとき、音量アップのアイコン510及び音量ダウンのアイコン530の間に現在の電子装置100に設定された音量レベル情報520がディスプレイされる。そして、チャネルアップのアイコン540及びチャネルダウンのアイコン560の間には現在の電子装置100に設定されたチャネル情報(例えば、チャネル名やチャネル番号)550がディスプレイされる。従って、ユーザは現在設定されたチャネル情報及び音量レベル情報を容易に確認することができるようになる。
一方、上述の実施形態においては、音量レベル制御のためのアイコン510、530が左側領域にディスプレイされ、チャネル制御のためのアイコン540、560が右側領域にディスプレイされるものとして説明したが、それは一実施形態に過ぎず、他の領域にディスプレイされてよい。
なお、上述の実施形態においては、音量レベル制御のためのアイコン510、530及びチャネル制御のためのアイコン540、560がディスプレイされるものとして説明したが、電子装置100の別の機能を制御するためのアイコン(例えば、消音や電源オフ等)のためのアイコンがディスプレイされてよい。
複数のアイコン510、530、540、560及びポインタ570がディスプレイされた状態で、モーション入力部120を介してユーザの手が開いた状態で移動されるモーションが入力されると、制御部140は移動モーションに沿ってポインタ570を移動させる。
そして、ポインタ570が複数のアイコン510、530、540、560のうちの一つのアイコン上に位置した状態で、モーション入力部120を介してユーザのグラブモーションが入力されると、制御部140はポインタ570の位置したアイコンに対応する機能を実行させることができる。
例えば、モーション入力部120を介してユーザの手が開いた状態で左側に移動されるモーションが入力されると、制御部140は移動モーションに沿ってポインタ570を左側に移動させる。そして、図6に示すように、ポインタ570が音量ダウンのアイコン530上に位置した状態で、モーション入力部120を介してユーザのグラブモーションが一回入力されると、制御部140は現在の電子装置100に設定された音量レベルを“1”下げる。即ち、現在の電子装置100に設定された音量レベルが“21”である場合、ポインタ570が音量ダウンのアイコン530上に位置した状態でモーション入力部120を介してユーザのグラブモーションが一回入力されると、制御部140は現在の電子装置100の音量レベルを“20”に設定する。そして、制御部140は、電子装置100の音量レベルを調節するだけでなく、図7に示すように、音量レベル情報520も変更されるようにする。
このとき、制御部140は、モーション入力部120を介してグラブモーションが入力される場合、ユーザの手が動いたとしても、ポインタ570の位置を変更させることなく、固定することができる。
なお、ポインタ570が音量ダウンのアイコン530上に位置した状態でモーション入力部120を介してユーザのグラブモーションが入力され続けると、制御部140は現在の電子装置100の音量レベルを更に下げることができる。
更に、別の実施形態として、モーション入力部120を介してユーザの手が開いた状態で右側に移動されるモーションが入力されると、制御部140は移動モーションに応じてポインタ570を右側に移動させる。そして、図8に示すように、ポインタ570がチャネルダウンのアイコン560上に位置した状態でモーション入力部120を介してユーザのグラブモーションが二回入力されると、制御部140は現在の電子装置100に設定されたチャネル番号から“2”下げた放送映像を受信してディスプレイする。即ち、現在の電子装置100に設定されたチャネル番号が“11”である場合、ポインタ570がチャネルダウンのアイコン560上に位置した状態でモーション入力部120を介してユーザのグラブモーションが二回入力されると、制御部140は現在の電子装置100のチャネル番号が“9”の放送映像を受信してディスプレイすることができる。そして、制御部140は、電子装置100のチャネルを制御するだけでなく、図9に示すように、チャネル情報550も変更されるようにする。
なお、ポインタ570がチャネルダウンのアイコン560上に位置した状態でモーション入力部120を介してユーザのグラブモーションが入力され続けると、制御部140は、現在の電子装置100のチャネル番号を更に下げることができる。
上述のように、電子装置100によって、ユーザはモーションを用いて便利かつ直観的にディスプレイ装置を制御することができるようになる。
以下では、図10を参照して、ユーザモーションを用いた電子装置100の制御方法についてより詳細に説明する。
まず、電子装置100は、モーション入力部120を介してモーション開始命令が入力されたか否かを判断する(S1010)。このとき、モーション開始命令はユーザの手を左右に複数回振るモーションであってよい。
モーション開始命令が入力されると(1010−Y)、電子装置100は、電子装置100のモードをモーションタスクモードに切り替える(S1020)。このとき、モーションタスクモードは、電子装置100をユーザモーションによって制御するモードである。
モーションタスクモードに切り替えられると、電子装置100はディスプレイ画面に複数のアイコン及びポインタをディスプレイする(S1030)。このとき、複数のアイコンは、ディスプレイ画面の左側領域又は右側領域にディスプレイされ、ポインタはディスプレイ画面の中央領域にディスプレイされてよい。なお、複数のアイコンには、チャネル設定のためのアイコン及び音量レベル設定のためのアイコンが含まれてよい。しかし、電子装置の他の機能を制御するために、ディスプレイスクリーンに別のアイコンがディスプレイされてよく、このようなアイコンは上述したように、ユーザの手を垂直に複数回振るモーションに対応してディスプレイされてよく、ユーザの別のモーションに応じてディスプレイされてよい。例えば、別のアイコンは、ユーザの別のモーションによって生成されてよい。
そして、電子装置100は、モーション入力部120を介してユーザの第1モーションが入力されたか否かを判断する(S1040)。このとき、ユーザモーションは、ユーザの手を開いた状態で移動するモーションであってよい。
第1モーションが入力されたと判断されると(S1040−Y)、電子装置100は、第1モーションに応じてディスプレイ画面のポインタを移動させる(S1050)。
そして、電子装置100は、モーション入力部120を介してユーザの第2モーションが入力された否かを判断する(S1060)。このとき、ユーザモーションはユーザの手を握るグラブモーションであってよい。
第2モーションが入力されたと判断されると(S1060−Y)、電子装置100は、ポインタの位置するアイコンに対応する機能を実行させる(S1070)。例えば、ポインタが音量アップのアイコンに位置し、第2モーションが入力されたと判断されると、電子装置100は現在の電子装置100に設定された音量レベルを上げる。なお、ポインタが特定アイコンに位置した状態で第2モーションが入力され続けると、電子装置100はポインタの位置するアイコンの機能を引き続き実行させることができる。
そして、電子装置100は、第2モーションが入力される場合、ユーザの手が動いたとしても、ポインタを動かさずに固定することができる。
上述のように、電子装置の制御方法によって、ユーザはユーザモーションを用いてより便利かつ直観的に電子装置100を制御することができるようになる。
なお、以上のような多様な実施形態に係る制御方法を行うためのプログラムコードは、多様な類型の記録媒体に保存されてよい。具体的には、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROM等のように、端末機で読み取り可能な多様な類型の記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
110 音声入力部
120 モーション入力部
130 保存部
130a 電源制御モジュール
130b チャネル制御モジュール
130c 音量制御モジュール
130d 外部入力制御モジュール
130e 画面制御モジュール
130f オーディオ制御モジュール
130g インターネット制御モジュール
130h アプリケーションモジュール
130i 検索制御モジュール
130j UI処理モジュール
130k 音声認識モジュール
130l モーション認識モジュール
130m 音声データベース
130n モーションデータベース
140 制御部
150 放送受信部
160 外部端子入力部
161 HDMI端子
162 コンポーネント端子
163 PC端子
164 USB端子
170 リモコン信号受信部
180 ネットワークインターフェース部
182 無線LAN
183 ブルートゥース
190 映像出力部
193 ディスプレイ部
196 オーディオ出力部
196a スピーカ
196b ヘッドホン

Claims (15)

  1. 電子装置の制御方法において、
    モーション開始命令(Trigger Motion)が入力されると、モーションタスクモードを行うためのアイコン及びポインタをディスプレイするステップと、
    ユーザの第1モーションに沿って前記ポインタを移動させるステップと、
    前記ポインタが前記アイコンに位置した状態で前記ユーザの第2モーションが入力されると、前記アイコンに対応する機能を実行するステップと
    を含む制御方法。
  2. 前記アイコンに位置した前記ポインタは、
    前記ユーザの第2モーションが入力される間、動かされずに固定されることを特徴とする請求項1に記載の制御方法。
  3. 前記実行するステップは、
    前記ポインタが前記アイコンに位置しながら前記第2モーションの入力が保持されると、前記ポインタの位置するアイコンの機能を連続して実行することを特徴とする請求項1に記載の制御方法。
  4. 前記ユーザの第1モーションは、
    ユーザの手を開いたスプレッド(Spread)モーションであり、
    前記ユーザの第2モーションは、
    前記ユーザの手を握ったグラブ(Grab)モーションであることを特徴とする請求項1に記載の制御方法。
  5. 前記アイコンは、
    音量アップのアイコン、音量ダウンのアイコン、チャネルアップのアイコン及びチャネルダウンのアイコンのうち、少なくとも一つを含むことを特徴とする請求項1に記載の制御方法。
  6. 前記アイコンは、
    ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記音量アップのアイコン及び前記音量ダウンのアイコンと、
    前記ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記チャネルアップのアイコン及び前記チャネルダウンのアイコンとを含むことを特徴とする請求項1に記載の制御方法。
  7. 前記音量アップのアイコン及び前記音量ダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定された音量レベル情報がディスプレイされ、
    前記チャネルアップのアイコン及び前記チャネルダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定されたチャネル情報がディスプレイされることを特徴とする請求項6に記載の制御方法。
  8. モーション終了モーションが入力されると、前記ディスプレイされた複数のアイコン及びポインタをディスプレイ画面から除去するステップを更に含むことを特徴とする請求項1に記載の制御方法。
  9. 電子装置において、
    ユーザのモーションを入力されるモーション入力部と、
    ディスプレイ部と、
    前記モーション入力部を介してモーション開始命令(Trigger Motion)が入力されると、モーションタスクモードを行うためのアイコン及びポインタをディスプレイし、前記モーション入力部に入力されたユーザの第1モーションに沿って前記ポインタを移動させるように前記ディスプレイ部を制御し、前記ポインタが前記アイコンに位置した状態で前記モーション入力部にユーザの第2モーションが入力されると、前記アイコンに対応する機能を実行する制御部と
    を具備する電子装置。
  10. 前記制御部は、
    前記ユーザの第2モーションが入力される間、前記ポインタの位置を動かさずに固定することを特徴とする請求項9に記載の電子装置。
  11. 前記制御部は、
    前記ポインタが前記アイコンに位置しながら前記第2モーションの入力が保持されると、前記ポインタの位置するアイコンの機能を連続して実行することを特徴とする請求項9に記載の電子装置。
  12. 前記ユーザの第1モーションは、
    ユーザの手を開いたスプレッド(Spread)モーションであり、
    前記ユーザの第2モーションは、
    前記ユーザの手を握ったグラブ(Grab)モーションであることを特徴とする請求項9に記載の電子装置。
  13. 前記アイコンは、
    音量アップのアイコン、音量ダウンのアイコン、チャネルアップのアイコン及びチャネルダウンのアイコンのうち、少なくとも一つを含むことを特徴とする請求項9に記載の電子装置。
  14. 前記アイコンは、
    ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記音量アップのアイコン及び前記音量ダウンのアイコンと、
    前記ディスプレイ画面の左側領域及び右側領域の何れか一方にディスプレイされる前記チャネルアップのアイコン及び前記チャネルダウンのアイコンとを含むことを特徴とする請求項9に記載の電子装置。
  15. 前記音量アップのアイコン及び前記音量ダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定された音量レベル情報がディスプレイされ、
    前記チャネルアップのアイコン及び前記チャネルダウンのアイコンがディスプレイされる領域には、前記電子装置の現在設定されたチャネル情報がディスプレイされることを特徴とする請求項14に記載の電子装置。
JP2012275273A 2011-12-30 2012-12-18 電子装置及びその制御方法 Pending JP2013140578A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0147457 2011-12-30
KR1020110147457A KR101237472B1 (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법

Publications (1)

Publication Number Publication Date
JP2013140578A true JP2013140578A (ja) 2013-07-18

Family

ID=47290578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012275273A Pending JP2013140578A (ja) 2011-12-30 2012-12-18 電子装置及びその制御方法

Country Status (7)

Country Link
US (2) US20130174099A1 (ja)
EP (2) EP2610705A1 (ja)
JP (1) JP2013140578A (ja)
KR (1) KR101237472B1 (ja)
CN (1) CN103197862A (ja)
AU (1) AU2012216583B2 (ja)
WO (1) WO2013100367A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530660A (ja) * 2013-09-13 2016-09-29 クアルコム,インコーポレイテッド コンテキスト感知ジェスチャ分類

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105378593B (zh) 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
CN104951051B (zh) * 2014-03-24 2018-07-06 联想(北京)有限公司 一种信息处理方法和电子设备
US10222866B2 (en) 2014-03-24 2019-03-05 Beijing Lenovo Software Ltd. Information processing method and electronic device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05281937A (ja) * 1992-03-31 1993-10-29 Toshiba Corp 情報処理装置及び表示制御方法
JPH1195912A (ja) * 1997-09-22 1999-04-09 Sanyo Electric Co Ltd 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
JP2010191585A (ja) * 2009-02-17 2010-09-02 Canon Inc 表示制御装置、撮像装置、表示制御方法、プログラム、及び記録媒体
JP2011056953A (ja) * 2010-09-13 2011-03-24 Seiko Epson Corp 画像表示装置、画像表示方法及びプログラム
JP2011513847A (ja) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド 認識されたジェスチャーを用いた高機能化入力
JP2011258158A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4902878A (en) * 1988-11-04 1990-02-20 General Electric Company Data entry and control arrangement for an appliance
US6094188A (en) * 1990-11-30 2000-07-25 Sun Microsystems, Inc. Radio frequency tracking system
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6075575A (en) * 1995-10-02 2000-06-13 Starsight Telecast, Inc. Remote control device and method for using television schedule information
US5825308A (en) * 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US5764901A (en) * 1995-12-21 1998-06-09 Intel Corporation Record and playback in a data conference
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
WO2001022719A2 (en) * 1999-09-24 2001-03-29 United Video Properties, Inc. Interactive television program guide with enhanced user interface
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US6515687B1 (en) * 2000-05-25 2003-02-04 International Business Machines Corporation Virtual joystick graphical user interface control with one and two dimensional operation
AU2003217587A1 (en) * 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US7352359B2 (en) * 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
EP1408443B1 (en) * 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
KR101085917B1 (ko) * 2004-04-30 2011-11-23 삼성전자주식회사 디지털 캡션과 osd를 동일한 스타일의 문자로 표시할수 있는 방송수신장치 및 문자정보 표시방법
EP3367218A1 (en) * 2004-04-30 2018-08-29 IDHL Holdings, Inc. Free space pointing device with tilt compensation and improved usability
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
TWI251163B (en) * 2004-10-29 2006-03-11 Avision Inc Apparatus and method for adjusting a digital setting value at a variable speed
US20080174550A1 (en) * 2005-02-24 2008-07-24 Kari Laurila Motion-Input Device For a Computing Terminal and Method of its Operation
US9201507B2 (en) * 2005-11-15 2015-12-01 Carefusion 303, Inc. System and method for rapid input of data
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
KR20070103895A (ko) * 2006-04-20 2007-10-25 강남대학교 산학협력단 손 제스쳐 인식 시스템 및 방법
KR100827243B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
JP5127242B2 (ja) * 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
WO2008108352A1 (ja) * 2007-03-07 2008-09-12 Rohm Co., Ltd. リモコンシステム、テレビ、及び、リモコン
KR101358767B1 (ko) * 2007-04-02 2014-02-07 삼성전자주식회사 사용자 입력장치의 공간상 이동에 기초한 사용자 명령수행방법 및 이를 적용한 영상기기
KR101391602B1 (ko) * 2007-05-29 2014-05-07 삼성전자주식회사 터치 스크린 기반의 사용자 인터페이스 인터렉션 방법 및 멀티 미디어 단말 기기
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5430572B2 (ja) * 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US7975243B2 (en) * 2008-02-25 2011-07-05 Samsung Electronics Co., Ltd. System and method for television control using hand gestures
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
US20090284478A1 (en) * 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
KR101479338B1 (ko) * 2008-06-25 2015-01-05 엘지전자 주식회사 디스플레이 장치 및 상기 디스플레이 장치의 동작 방법
US8264381B2 (en) * 2008-08-22 2012-09-11 Microsoft Corporation Continuous automatic key control
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
DE102009017772A1 (de) * 2009-04-16 2010-11-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und System zum Erkennen eines Objektes, und Verfahren und System zum Erzeugen einer Markierung in einer Bildschirmdarstellung mittels eines berührungslos gestikgesteuerten Bildschirmzeigers
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
KR101585466B1 (ko) * 2009-06-01 2016-01-15 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
US10357714B2 (en) * 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
JP5122544B2 (ja) * 2009-10-30 2013-01-16 京セラドキュメントソリューションズ株式会社 数値入力装置及び該数値入力装置を備えた画像形成装置
CN101853568A (zh) * 2010-04-13 2010-10-06 鸿富锦精密工业(深圳)有限公司 手势遥控装置
US20120032877A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US20130100115A1 (en) * 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05281937A (ja) * 1992-03-31 1993-10-29 Toshiba Corp 情報処理装置及び表示制御方法
JPH1195912A (ja) * 1997-09-22 1999-04-09 Sanyo Electric Co Ltd 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
JP2011513847A (ja) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド 認識されたジェスチャーを用いた高機能化入力
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
JP2010191585A (ja) * 2009-02-17 2010-09-02 Canon Inc 表示制御装置、撮像装置、表示制御方法、プログラム、及び記録媒体
JP2011258158A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2011056953A (ja) * 2010-09-13 2011-03-24 Seiko Epson Corp 画像表示装置、画像表示方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530660A (ja) * 2013-09-13 2016-09-29 クアルコム,インコーポレイテッド コンテキスト感知ジェスチャ分類

Also Published As

Publication number Publication date
CN103197862A (zh) 2013-07-10
AU2012216583B2 (en) 2014-06-26
EP2610705A1 (en) 2013-07-03
WO2013100367A1 (en) 2013-07-04
US20130174099A1 (en) 2013-07-04
US20130174036A1 (en) 2013-07-04
EP3009919A1 (en) 2016-04-20
AU2012216583A1 (en) 2013-07-18
KR101237472B1 (ko) 2013-02-28

Similar Documents

Publication Publication Date Title
JP5535298B2 (ja) 電子装置及びその制御方法
JP5746111B2 (ja) 電子装置及びその制御方法
CN103187054B (zh) 电子装置和控制电子装置的方法
JP5819269B2 (ja) 電子装置及びその制御方法
JP6111030B2 (ja) 電子装置及びその制御方法
JP6184098B2 (ja) 電子装置及びその制御方法
JP2013037689A (ja) 電子装置及びその制御方法
KR20130016025A (ko) 음성 인식 및 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치
CN104620593A (zh) 显示装置及用于控制该显示装置的方法
JP2013140578A (ja) 電子装置及びその制御方法
JP2014130595A (ja) 電子装置及びその制御方法
EP2752732A2 (en) Electronic apparatus and control method thereof
KR101324232B1 (ko) 전자 장치 및 그의 제어 방법
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
JP2013140582A (ja) 電子装置およびその制御方法
KR20130078483A (ko) 전자 장치 및 그의 제어 방법
JP2015535971A (ja) ディスプレイ装置及びその制御方法
US20140195014A1 (en) Electronic apparatus and method for controlling electronic apparatus
KR20130078489A (ko) 전자 장치 및 이의 화각 설정 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150203

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150327