[go: up one dir, main page]

JP2004178469A - Remote control system - Google Patents

Remote control system Download PDF

Info

Publication number
JP2004178469A
JP2004178469A JP2002346758A JP2002346758A JP2004178469A JP 2004178469 A JP2004178469 A JP 2004178469A JP 2002346758 A JP2002346758 A JP 2002346758A JP 2002346758 A JP2002346758 A JP 2002346758A JP 2004178469 A JP2004178469 A JP 2004178469A
Authority
JP
Japan
Prior art keywords
controller
acceleration
control command
gesture
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002346758A
Other languages
Japanese (ja)
Inventor
Masaya Umemura
雅也 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002346758A priority Critical patent/JP2004178469A/en
Publication of JP2004178469A publication Critical patent/JP2004178469A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】レーザポインタで制御対象物やプロジェクターで投影されたメニューアイテムを指し示すことで利用者の意志を示すが、レーザ光が描くスポットが小さく検出が困難で解像度の高いイメージセンサを必要とした。スポット光が周囲の光に埋もれたり対象物の色との色の混合で変色するため薄暗い環境で用いる。薄暗いため対象物の認識率が下がる。
【解決手段】赤外線リモコンと数十万画素のCMOSイメージセンサを用いる。マイクロプロセッサはCMOSイメージセンサの赤色フィルターを装着する受光素子のみで撮影し、非自然光の光源であるリモコンを認知しデータを復調する。利用者は赤外線リモコンを振り回し、マイクロプロセッサはリモコンの動いた方向と加速度を割り出し、利用者のジェスチャを同定する。メニューアイテムを切り換え、選択を確定し当該コマンドを対象物に送付し遠隔操作を行う。
【選択図】 図1
A laser pointer indicates a control target or a menu item projected by a projector to indicate a user's intention. However, a spot drawn by a laser beam is small and difficult to detect, and an image sensor with high resolution is required. It is used in a dimly lit environment because the spot light is buried in ambient light or changes its color by mixing with the color of the object. The dimness lowers the recognition rate of the object.
An infrared remote controller and a CMOS image sensor having several hundred thousand pixels are used. The microprocessor captures an image only with the light receiving element equipped with the red filter of the CMOS image sensor, and recognizes a remote controller which is a non-natural light source to demodulate data. The user swings the infrared remote control, and the microprocessor determines the direction and acceleration of the remote control to identify the user's gesture. The menu item is switched, the selection is confirmed, the command is sent to the object, and the remote operation is performed.
[Selection diagram] Fig. 1

Description

【0001】
【発明の属する技術分野】
本発明は、赤外線リモコンとCMOSイメージセンサを用いた家電品の遠隔制御に関するものである。
【0002】
【従来の技術】
従来の技術を図11に示す。図中、2はイメージセンサ、3はマイクロプロセッサ、7はレーザポインタ、70はレーザ光が壁に描くスポット、8はプロジェクタ、81、82、83はプロジェクタが表示するリモコン画面のメニューアイテムである。
【0003】
従来の技術においては、レーザポインタ7が指し示した家電品をイメージセンサで撮影し、撮像からレーザポインタのレーザ光が対象物上に描くスポットを検索し、改めて対象物の輪郭や特徴を認識する。
【0004】
対象物が決定した段階で対象物である家電品の状態や制御体系を取得しプロジェクタ8でリモコン画面を投影する。リモコン画面として部屋の壁面にメニューアイテム81、82、83が投影され、レーザポインタ7でメニューアイテム83上にレーザ光が壁に描くスポット70を移動させ、静止することでメニューアイテム83を選択する意志を示した。
【0005】
マイクロプロセッサ3は対象物の認識と同様の手順でレーザ光が描くスポットを検索した後、対象物であるメニューアイテム83が選択されていることを認識する。マイクロプロセッサ3は認識結果に従い対象物に選択されたコマンドを送り遠隔操作を実現していた。
【0006】
また、特許文献1の「ジェスチャ認識装置」では利用者のジェスチャをイメージセンサで撮影し、画像認識において利用者を切り出し、利用者の体の各部位を個別に認識の上各部位の軌跡と位置関係からジェスチャを同定し対応するコマンドを実行していた。
【0007】
【特許文献1】
特開平11−296673号公報
【0008】
【発明が解決しようとする課題】
従来の技術では、レーザポインタの様な強力な単一光を発する投光器で制御対象物やプロジェクターで投影されたメニューアイテムを指し示すことで利用者の意志を示そうとしているが、レーザ光が描くスポットがレーザ光の直進性の故に小さく検出が困難で解像度の高い数百万画素のCMOSイメージセンサを用いる必要があった。
【0009】
また、レーザポインタが描くスポット光の周囲の光に埋もれたり対象物の色との色の混合で変色することで検出は難しくなるため、薄暗い環境で用いる必要があった。薄暗いため対象物の認識率が下がる問題もあった。また、プロジェクタの投影するメニューアイテムの輝度を下げる必要があり、また投影する色にも制限があった。
【0010】
レーザポインタであるため、CMOSイメージセンサに直接レーザ光が飛び込むことで焼き付きを生じ、CMOSイメージセンサの破損、引いてはシステムの故障を招く危険性があった。また、レーザポインタは一般家庭で非日常的な投光器であり、いたずらや不注意でレーザ光が目に直接飛び込むことで人や動物を傷つける危険もあった。
また、特許文献1の「ジェスチャ認識装置」では、利用者が暗い部屋にいたり、極端に明るくて白浮きしたり、服装の色のせいで背景や周囲に埋没する場合、正確に認識できなかった。システムの性格上常時利用者を撮影をしてジェスチャを認識するため、利用者の何気ない無意識のしぐさをジェスチャとご認識し意図しないコマンド動作や誤動作の原因となった。
【0011】
【課題を解決するための手段】
本発明では、一般家庭に転がっていて認知度、受容性の高い赤外線リモコンとデジタルカメラ等で用いられている数十万画素のCMOSイメージセンサを用いる。マイクロプロセッサはCMOSイメージセンサの受光素子のうち赤色フィルターを装着する受光素子を用い撮影を行い、撮像から高輝度で且つパルス変調された非自然光すなわち信号を検出しデータに復調する。
【0012】
データの復調の他に、利用者が赤外線リモコンを振り回し、決められたジェスチャを行うことでマイクロプロセッサが表示したメニュー画面のメニューアイテムを選択する。CMOSイメージセンサが読み出す受光素子の数を間引くことでフレーム数を稼ぎ、利用者のリモコンが出力する赤外光の軌跡を確実に撮影しフレームを比較することでリモコンの動いた方向と加速度を割り出すことで、利用者のジェスチャを同定し、利用者の意図したメニューアイテムの選択を行う。メニューアイテムの選択が確定することでコマンドを対象物に送付し遠隔操作を行う。
【0013】
【発明の実施の形態】
図1から図8を用いて、本発明の第1の実施の形態を示す。
【0014】
図1において、1はリモコン、2はCMOSイメージセンサ、3はマイクロプロセッサ、4はバス、5はネットワーク、6はネットワーク接続された家電品、10は赤外光のスポットである。
【0015】
図1において複数の利用者はリモコン1を用いて家電品の制御を行う。リモコン1は押下されたボタンに対応した制御データをASKでパルス変調し赤外光パルスとして空間に放射する。本発明ではCMOSイメージセンサ2は30万程度の画素を平面上に配したCMOSイメージセンサを用いており、このCMOSイメージセンサ2で家電品の周囲を撮影する。CMOSイメージセンサ2の各画素は可視光から赤外光の範囲の自然光と、非自然光であるリモコンが放射したパルス変調された赤外光を受光する。CMOSイメージセンサ2は画素を行列にマッピングし列毎に全列読み出しバス4を介してマイクロプロセッサ3に伝送する。マイクロプロセッサ3は伝送されたデータを平面上に再配置し撮像として処理する。
【0016】
リモコン1が赤外光を放射すると、CMOSイメージセンサ2の撮像中に強度の高い赤外光のスポット10が現れ、マイクロプロセッサ3はこの赤外光のスポット10から制御データを復調する。本発明において、赤外光のスポット10の周囲の画素が受光している自然光は長周期では変化が少ないのに対して、受光した赤外光はパルス変調されており且つ強度は高いので、マイクロプロセッサ3は容易にリモコンから赤外光が放射していることを認識する。
【0017】
マイクロプロセッサ3には機器管理手段と表示装置、加速度検出手段、ジェスチャ推定/同定手段がある。機器管理手段はネットワーク5を介してネットワーク上の家電品6を検索し、状態や制御体系等の情報を取得する。これら情報から、遠隔制御に必要なコマンド体系を構築し表示装置にリモコン画面として表示する。利用者は赤外線リモコンを振り回し、決められたジェスチャを行うことでマイクロプロセッサが表示したメニュー画面のメニューアイテムを選択する。加速度検出手段はCMOSイメージセンサが撮影したリモコンが出力する赤外光の軌跡から加速度を抽出し、この加速度情報を元にジェスチャ推定/同定手段が利用者のジェスチャを同定する。同定したジェスチャに対応するアクションを表示中のメニューに照らし合わせて、利用者の意図したメニューアイテムの選択を行う。メニューアイテムの選択が確定することで機器管理手段は該当するコマンドをネットワーク上の家電品6に送付し遠隔操作を行う。
【0018】
本発明の第1の実施の形態においてマイクロプロセッサ3は単独のネットワーク機器であるが、屋内で見晴らしの良い場所にある例えばエアコンや照明装置、テレビに組み込まれたマイクロプロセッサが上述の機器管理手段と表示装置、加速度検出手段、ジェスチャ推定/同定手段を搭載することでも同等の機能は実現される。
【0019】
図2を用いてCMOSイメージセンサ2の動作モードを説明する。
【0020】
図中、41aは可視画像撮影モード設定コマンド、42aは可視画像撮影モード時の撮像データ、41bはキャリア検出モード設定コマンド、42bはキャリア検出モード時の撮像データである。
【0021】
マイクロプロセッサ3はバス4を介して可視画像撮影モード設定コマンド41aもしくはキャリア検出モード設定コマンド41bでCMOSイメージセンサ2の動作モードを可視画像撮影モードないしキャリア検出モードに設定する。設定が済むとCMOSイメージセンサ2はバス4にモードに応じたデータ、可視画像撮影モード時の撮像データ42a、キャリア検出モード時の撮像データ42bを送出する。
【0022】
可視画像撮影モードにおいて図はプログレッシブに設定されており一フレームの撮像データは全列の読み出しデータから構成される。この時、フレームレートは1秒あたり30フレームである。インターレースに設定すると撮像データは1列おきの読み出しとなり、1秒間に60フィールド読み出すこととなる。キャリア検出モードに設定すると、撮像データは8列おき、8画素おきに読み出されフレームレートは1秒あたり1920フィールドとなる。本発明のキャリア検出モードではフィールド単位でキャリアを検出しユーザの意図したコマンドを処理するので、便宜上フィールドをフレームと称する。
【0023】
何れのモードにおいてもバス4上の撮像データの転送レートは8.79Mbpsで、マイクロプロセッサ3のバス4のインタフェースに設定の変更は不要である。
【0024】
図3を用いてキャリア検出モード時にCMOSイメージセンサ2の画素の読み出し順序を説明する。
【0025】
図中、20は8×8の64画素から構成される区画、201は1番目に読み出される画素、203は3番目に読み出される画素、208は8番目に読み出される画素である。
【0026】
図に示す、区画20は8×8の64画素から構成され、本発明のCMOSイメージセンサ2は列方向に有効画素について80区画、行方向に60区画、計4800区画に区分される。区画20はこの4800区画の一つを示している。
【0027】
キャリア検出モード時、区画20中の特定の1画素が読み出されるが、列方向に隣接する区画間では、画素は8列おき、8画素おきに選ばれ読み出される。1フレームのキャリア検出時1フレーム目の読み出しでは画素201を読み出すと、以後2フレーム目では画素202、3フレーム目で画素203、8フレーム目で画素208の順に読み出す画素を交代させる。キャリア検出時、赤色フィルタが装着された画素のみ読み出されるので、読み出される画素は1画素、1列おきとなり、列方向で隣接する緑色のフィルタを装着した画素と、次列の緑色のフィルタを装着した画素および青色のフィルタを装着した画素は読み飛ばす事となる。
【0028】
フレーム毎に読み出す画素を代えることで電子シャッターの開閉時間つまり露光時間に制約を与えず、解像度を向上している。
【0029】
図4を用いてキャリア検出モード時、CMOSイメージセンサ2によるパルス変調された赤外光の受信方法を説明する。
図中、10は赤外線通信の1つのデータサイクル、10aはガイドパルス、10b、10dは無出力、10cはシンボル0、10eはシンボル1である。
【0030】
図の通り、赤外線通信はデータサイクル10は45ミリ秒である。次のデータサイクルは最短で、ガイドパルス10aから次のガイドパルス10aまでの45ミリ秒間隔で出現する。
【0031】
赤外線通信において2.4ミリ秒間出力が続くことでガイドパルス10aを、その後無出力となり、0.6ミリ秒ないし1.2ミリ秒の出力でシンボル0、シンボル1を表している。ガイドパルス10a以後”001011100”と続いた後、無出力10bに続く0.6ミリ秒のシンボル0(10c)が出現し”0”を、引き続き無出力10dに続く1.2ミリ秒のシンボル1(10e)が出現し1を示す。その後”10”が出現しデータは尽きて、次のガイドパルスが出現するまでの間無出力となる。
【0032】
本発明のCMOSイメージセンサ2は、キャリア検出モード時そのフレームレートは毎秒1920フレームすなわち0.52ミリ秒間隔で赤外光の撮影を繰り返す。赤外線通信において最短のパルスは0.6ミリ秒の無出力ないしシンボル0であり、0.52ミリ秒間隔で撮影することでこれら無出力とシンボル0を切り分けている。
【0033】
図5にシンボルの検出とデータの復調を示す。
【0034】
図中、11a、11b、11c、11d、11eはリモコン1の赤外光のスポット、31a、31bはリモコン1の出力したデータ、5はマイクロプロセッサ3が接続されたネットワーク、6はネットワーク接続する家電品である。
【0035】
キャリア検出モード時、リモコンから出力された赤外光はCMOSイメージセンサ2の撮像に明るいスポットとして現れる。図中、0.52秒おきに撮影された5フレームにおいて順にはリモコン1aの赤外光はスポット11a、11b、11c、11d、11eとして現れる。スポット11a及びスポット11cは露光時間中に前後の何れかのシンボルがかかるため、真っ暗ではないが、閾値よりも小さいため無出力と判定する。また、閾値よりも高いためスポット11b、11d、11eは出力と判定する。無出力と判定されたスポット10aの後無出力が出現するまでの出力の数が1つか2つかでシンボル0かシンボル1を区別する。スポット11aの後に初めて現れる無出力はスポット11cであり、その間の出力はスポット11bのみであるからリモコン1aの出力したデータ31aはシンボル0に復調される。同様に、スポット11cの後、スポット11d、スポット11eと続いたので、リモコン1aの出力したデータ31bはシンボル1に復調される。
【0036】
リモコン1aの出力したデータ31bは赤外線通信中のデータであるから、スポット11eの次は必ず無出力が来ると決めつけてシンボル1に復調する。スポット11eに引き続き出力が出現するとスポット11eまでを31bの通りシンボル1に復調し、スポット11eより後に到着したスポットはエラーとして先頭のスポットを無出力と見なしエラー訂正を試みる。
【0037】
復調したデータはメーカコード、製品コード等の情報を含んでおり、データが別メーカか別製品を指し示しているとマイクロプロセッサ3は対応する家電品をネットワーク5上で検索した上でデータをネットワーク5上に中継するか、もしくはネットワーク5上の該当する家電品が受け取ることを期待してデータをネットワーク5上に中継する。中継した結果、ネットワーク5上の家電品6が該当したのでコマンドを解釈し正常にコマンドを履行する。
【0038】
マイクロプロセッサ3はネットワーク5上での検索で該当する製品を見つけると当該製品の制御体系情報を得る。制御体系情報は例えば、米国マイクロソフト社が提唱するUPnP:ユニバーサルプラグアンドプレイや日本国ECHONETコンソーシアムのECHONETで規定されており、これを流用することで、例えばエアコンなら電源のオンやオフ以外に、冷房運転、暖房運転の切り換えや、風量やルーバの向き、温度の制御を行う。
【0039】
図6〜8を用いてネットワーク5を介した家電品の制御を説明する。
【0040】
図6において、1a、1bはリモコンの位置、12a、12bはリモコン1の赤外光のスポット、32aは赤外光スポットのy軸方向の加速度、32bは赤外光スポットのx軸方向の加速度、33a、33bはマイクロプロセッサが表示するリモコン画面、330a、330b、330cはリモコン画面のメニューアイテムである。
【0041】
図6を用いてジェスチャによるメニューアイテムの選択を示す。
【0042】
図5の通りマイクロプロセッサ3はリモコン1の出力したデータを復調してメーカコード、製品コード等の情報を得る。図6においてマイクロプロセッサ3は、得られたメーカコードと製品コード等の情報から当該製品の制御体系情報を取得する。マイクロプロセッサ3はネットワーク5を介して当該製品を呼出し状態を問い合わせ、制御メニューを作成しリモコン画面33aとして表示する。リモコン画面のメニューアイテム330aはUp、リモコン画面のメニューアイテム330bはDown、リモコン画面のメニューアイテム330cはOffとして3つの制御コマンドを提示している。
【0043】
利用者はリモコン1をCMOSイメージセンサ2の方向に向けリモコン2の何れかのボタンを押すもしくは押し続ける事で赤外線を出力する。ある時点でリモコンの位置1aに静止していたリモコン1は、利用者のメニュー選択に伴うジェスチャによりリモコンの位置1bにしゃくり上げ、まもなくリモコンの位置1aに戻り静止する。
【0044】
この時、CMOSイメージセンサ2の撮像では、フレーム1番でリモコン1は赤外光のスポット12aで静止しているが、110フレーム後のフレーム111番で赤外光のスポット12bまで上がり、110フレーム後のフレーム221番で再び赤外光のスポット12aに戻り、以後のフレームではこの位置で静止する。
【0045】
本発明においてCMOSイメージセンサ2はキャリア検出モードにおいて1920fpsの高頻度で撮像を得ることが出来るので、前述の1番目と111番目、221番目のフレームの間でも撮像を得ている。CMOSイメージセンサがこの間に撮影したフレームについて、マイクロプロセッサ3はリモコン1が出力した赤外光のスポットを追跡し、x軸、y軸方向それぞれの加速度Ax、Ayを算出し、赤外光スポットのy軸方向の加速度32a、赤外光スポットのx軸方向の加速度32bを得る。
【0046】
マイクロプロセッサ3は赤外光スポットのy軸方向の加速度32aとスポットのx軸方向の加速度32bから、リモコン1がしゃくり上げたと認識する。マイクロプロセッサ3は利用者がリモコン画面33aのメニューアイテムのハイライトを繰り上げたいのだと判断し、既にハイライトが掛かっていたメニューアイテム330bからメニューアイテム330aに切り換え、リモコン画面33bに移行する。
【0047】
メニュー画面33aからメニュー画面33bへの移行において、リモコン1の出力した赤外光はメニュー画面33aやメニュー画面33a上のメニューアイテムに照射されたり、指してはおらず、利用者がリモコン1をお辞儀させる事でリモコン画面上でハイライトは移動している。
【0048】
図7において、1a、1cはリモコンの位置、12cはリモコン1の赤外光のスポット、32cは赤外光スポットのy軸方向の加速度、32dは赤外光スポットのx軸方向の加速度、33c、33dはマイクロプロセッサが表示するリモコン画面、330dはリモコン画面のメニューアイテムである。
【0049】
図7を用いてジェスチャによるメニューアイテムのポップアップを示す。
【0050】
簡単のため、図6との差異を説明する。図6と同様に、リモコンの位置1aに静止していたリモコン1は、利用者のメニュー選択に伴うジェスチャによりリモコンの位置1cに水平に振られ、まもなくリモコンの位置1aに戻り静止する。この間リモコン1は赤外線を出力した状態にある。
【0051】
この時、CMOSイメージセンサ2の撮像では、フレーム1番でリモコン1は赤外光のスポット12aで静止しているが、110フレーム後のフレーム111番で赤外光のスポット12Cまで右に振れて、110フレーム後のフレーム221番で再び赤外光のスポット12aに戻り、以後のフレームではこの位置で静止する。
【0052】
マイクロプロセッサ3はリモコン1が出力した赤外光のスポットを追跡し、x軸、y軸方向それぞれの加速度Ax、Ayを算出し、赤外光スポットのy軸方向の加速度32c、赤外光スポットのx軸方向の加速度32dを得る。
【0053】
マイクロプロセッサ3は赤外光スポットのy軸方向の加速度32cとスポットのx軸方向の加速度32dから、リモコン1が右に触れたと認識する。マイクロプロセッサ3は利用者がリモコン画面33cのハイライトの掛かっているメニューアイテム330aについてメニューアイテム330aの下層のメニューアイテムを表示もしくは選択したいのだと判断し、既にハイライトが掛かっていたメニューアイテム330aからメニューアイテム330dを右方向にポップアップさせ、リモコン画面33dに移行する。
【0054】
メニュー画面33cからメニュー画面33dへの移行において、リモコン1の出力した赤外光はメニュー画面33cやメニュー画面33c上のメニューアイテムに照射されたり、指してはおらず、利用者がリモコン1を右に振る事でリモコン画面上で下層のメニューアイテムがポップアップしハイライトもポップアップしたメニューアイテムに移動している。
【0055】
図8において、1a、1dはリモコンの位置、12dはリモコン1の赤外光のスポット、32eは赤外光スポットのy軸方向の加速度、32fは赤外光スポットのx軸方向の加速度、33e、33fはマイクロプロセッサが表示するリモコン画面である。
【0056】
図8を用いてジェスチャによるメニューアイテムの選択確定を示す。
【0057】
図6と同様に、リモコンの位置1aに静止していたリモコン1は、利用者のメニュー選択に伴うジェスチャによりリモコンの位置1dを通る円を描くように振られ、まもなくリモコンの位置1aに戻り静止する。この間リモコン1は赤外線を出力した状態にある。
【0058】
この時、CMOSイメージセンサ2の撮像では、フレーム1番でリモコン1は赤外光のスポット12aで静止しているが、110フレーム後のフレーム111番で赤外光のスポット12dにあり、110フレーム後のフレーム221番で再び赤外光のスポット12aに戻り、以後のフレームではこの位置で静止する。
【0059】
マイクロプロセッサ3はリモコン1が出力した赤外光のスポットを追跡し、x軸、y軸方向それぞれの加速度Ax、Ayを算出し、赤外光スポットのy軸方向の加速度32e、赤外光スポットのx軸方向の加速度32fを得る。
【0060】
マイクロプロセッサ3は赤外光スポットのy軸方向の加速度32eとスポットのx軸方向の加速度32fから、リモコン1が円を描くように振られたと認識する。マイクロプロセッサ3は利用者がリモコン画面33eのハイライトの掛かっているメニューアイテム330d選択したのだと判断し、既にハイライトが掛かっていたメニューアイテム330dを強調表示ないしブリンクさせ、リモコン画面33fに移行する。
【0061】
メニュー画面33eからメニュー画面33fへの移行において、リモコン1の出力した赤外光はメニュー画面33eやメニュー画面33e上のメニューアイテムに照射されたり、指してはおらず、利用者がリモコン1を円を描くように振る事でリモコン画面上でハイライトの掛かっている下層のメニューアイテムを強調表示ないしブリンクさせている。
【0062】
以上図6〜図8に示した通り、利用者がリモコン1を振り回すジェスチャをCMOSイメージセンサ2で撮影することで、マイクロプロセッサ3はリモコン画面を更新し、利用者の意図したコマンドを認識する。こうして認識されたコマンドは程なくネットワーク5を介して当該製品に送られ遠隔操作を実現する。
【0063】
また、マイクロプロセッサ3は、従来リモコン上の箇々のボタンに割り当てられていた機能をリモコン画面上に階層的に表示する他、独自の機能をメニューアイテムに付加したり、利用頻度に応じて表示したり省略したり、機能の呼出までのメニュー階層を動的に変更したり、所謂学習機能を備える。
【0064】
図9、図10に本発明の第2の実施の形態を示す。
【0065】
図中、1g、1hはリモコンの位置、12g、12hはリモコン1の赤外光のスポット、32gは赤外光スポットのy軸方向の加速度、32hは赤外光スポットのx軸方向の加速度、33g、33hはマイクロプロセッサが表示するリモコン画面、330e、330f、330g、330h、330iはメニュー画面のメニューアイテム、61は家電品である。
【0066】
マイクロプロセッサ3はリモコン1の出力したデータを復調してメーカコード、製品コード等の情報を得る。マイクロプロセッサ3は、得られたメーカコードと製品コード等の情報から当該製品の制御体系情報を取得する。マイクロプロセッサ3はネットワーク5を介して当該製品である家電品6を呼出し状態を問い合わせ、制御メニューを作成しリモコン画面33aとして表示する。リモコン画面のメニューアイテム330eはUp、リモコン画面のメニューアイテム330fはDown、リモコン画面のメニューアイテム330gはOffとして3つの制御コマンドを提示している。
【0067】
利用者はリモコン1をCMOSイメージセンサ2の方向に向けリモコン2の何れかのボタンを押すもしくは押し続ける事で赤外線を出力する。ある時点でリモコンの位置1gに静止していたリモコン1は、利用者のメニュー選択に伴うジェスチャによりリモコンの位置1hにしゃくり上げその位置に留まる。
【0068】
この時、CMOSイメージセンサ2の撮像では、フレーム1番でリモコン1は赤外光のスポット12gで静止しているが、110フレーム後のフレーム111番で赤外光のスポット12hまで上がり、110フレーム後のフレーム221番でスポット12hに、以後のフレームでもこの位置で静止する。
【0069】
本発明第2の実施の形態において、マイクロプロセッサ3はリモコン1が出力した赤外光のスポットを追跡し、x軸、y軸方向それぞれの加速度Ax、Ayを算出し、赤外光スポットのy軸方向の加速度32g、赤外光スポットのx軸方向の加速度32hを得る。
【0070】
マイクロプロセッサ3は赤外光スポットのy軸方向の加速度32gとスポットのx軸方向の加速度32hから、リモコン1がしゃくり上げ留まったと認識する。マイクロプロセッサ3は利用者がリモコン画面33gのメニューアイテムを家電品6の制御画面から、周囲の他の家電情報の一覧に切り換えたいのだと判断し、周囲の家電品を検索する。ネットワーク5上で検索した家電品61を見つけ、状態を問い合わせる。問い合わせた結果は、家電品6の動作状態を示すメニューアイテム330hの下に、メニューアイテム330iとしてリモコン画面33h表示し、リモコン画面は33hに移行する。
【0071】
メニュー画面33gからメニュー画面33hへの移行において、リモコン1の出力した赤外光はメニュー画面33gやメニュー画面33h上のメニューアイテムに照射されたり、指してはおらず、利用者がリモコン1をお辞儀させる事でリモコン画面上でハイライトは移動している。
【0072】
本来リモコン1は家電品6もしくは家電品6相当の機器の制御コードを保持しておりリモコン1のボタンに割り当てられた制御コードのみを送信するのだが、リモコン1は家電品61は制御コードが異なるため制御できない。また家電品61として、リモコン1が出力するデータの先頭にあるメーカコードや製品コードが一致しないので家電品61は制御コードを解釈することもなくこのデータを破棄する。すなわちリモコン1と家電品61は互いに疎遠な状況にあるが、本実施例の通り、マイクロプロセッサ3が介在しメニュー画面33hを提示し利用者にメニューアイテムを選択させることで家電品6の制御から家電品61の制御へ移行する。
【0073】
本構成で家電品6がネットワーク5に接続されていないなどの理由でマイクロプロセッサ3が見つけられなかった場合も、マイクロプロセッサ3は周囲の家電品や制御できる製品を検索しメニュー画面を作成し表示する。この時表示される内容はメニュー画面33hに出現したメニューアイテム330h、330iと同様の製品名やニックネームとその動作状態を含むメニューアイテムである。
【0074】
図10にリモコンを示す。
【0075】
図中、1はリモコン、100は赤外線投光部、101は電源ボタン、102はテンキー、103は矢印キー、104はタッチセンサー付き太陽電池パネルである。
【0076】
リモコン1は、通常のテレビやビデオデッキのリモコンで最小限必要なボタンとして、電源ボタン101とテンキー102と矢印キー103を搭載している。矢印キーはテンキー102の2、4、6、8や類似の組み合わせで代用の上省略できるが、本発明の第二の実施の形態では音量ボタンや早送り巻き戻しに用いる。
【0077】
マイクロプロセッサ3が表示するリモコン画面を用いた制御では、利用者は先ず電源ボタン101を押し、メーカコードと製品コード等を含むデータが赤外線で送信される。この後ジェスチャによるメニューアイテムの選択を行う。利用者がリモコン1を握る限りにおいて、タッチセンサー付き太陽電池パネル104を通じてリモコン1は握られていることを検知する。この間リモコンは、電源ボタン101やテンキー102、矢印キー103が押されない限り、リモコンが本来制御する家電品が使わずリザーブしている制御コードを送信し続ける。電源ボタン101やテンキー102、矢印キー103が押されるか、利用者の手がタッチセンサー付き太陽電池パネル104から離れて暫く経つとリザーブされた制御コードの送出は停止する。
【0078】
本発明の実施の形態では、タッチセンサー付き太陽電池パネル104を搭載しているが、太陽電池パネルを省略したタッチセンサーでも期待したとおりリザーブされた制御コードの送出は可能である。
【0079】
また、リモコンがリザーブされた制御コードの送出以外に、リザーブされたメーカコードや製品コード等おおよそ家電品が受信しても無視し破棄するコードを送出することで同様の役割を果たすし、ガイド信号に引き続き無出力が出現したり、ガイド信号が繰り返すようなエラー信号を送出しても同様の役割を果たす。この様に意図的にエラーを埋め込むことでマイクロプロセッサ3がメーカコードや製品コードを特定できない場合、本発明のマイクロプロセッサ3は周囲の家電品や制御できる製品を検索しメニュー画面を作成し表示し、遠隔操作を実現する。
【0080】
【発明の効果】
本発明のCMOSイメージセンサとマイクロコンピュータの構成により、CMOSイメージセンサの撮像の中で一般家庭に転がっているリモコンを振り回し、決められたジェスチャを行うことで家電品を制御することができる。
【0081】
リモコンのボタンを用いないので、リモコン上で探していた機能はメニュー表示で出現するため、手許のリモコンのボタンに目を落とすことなく機能の呼出が出来るばかり、リモコンのボタンの数を削減ないし省略でき、またリモコンの液晶表示部を省略できる。
【0082】
買い換えや買い増した家電品も従来のリモコンで制御可能で、リモコンの数は一つないし各人に一つまで削減でき、家電品に添付していたリモコンを省略しコストを削減出来る。また、迷子になったリモコンを探す手間も省ける。
【図面の簡単な説明】
【図1】第1の実施の形態を示す図である。
【図2】第1の実施の形態におけるCMOSイメージセンサの動作モードを示す図である。
【図3】第1の実施の形態におけるCMOSイメージセンサのキャリア検出モード時の読み出し順序を示す図である。
【図4】第1の実施の形態における赤外線通信のフォーマットとタイミングを示す図である。
【図5】第1の実施の形態における赤外線通信のシンボル検出とデータ復調を示す図である
【図6】第1の実施の形態におけるジェスチャによるメニューアイテムの選択を示す図である。
【図7】第1の実施の形態におけるジェスチャによるメニューアイテムのポップアップを示す図である。
【図8】第1の実施の形態におけるジェスチャによるメニューアイテムの選択確定を示す図である。
【図9】第2の実施の形態を示す図である。
【図10】第2の実施の形態におけるリモコンを示す図である。
【図11】従来の技術を示す図である。
【符号の説明】
1…リモコン、1a、1b、1c、1d、1g、1h…リモコンの位置、10…赤外光のスポット、10a…ガイドパルス、10b、10d…無出力、10c…シンボル0、10e…シンボル1、11…リモコン1aの赤外光のスポット、11a、11b、11c、11d、11e…リモコン1の赤外光のスポット、12…リモコン1の赤外光のスポット、100…赤外線投光部、101…電源ボタン、102…テンキー、103…矢印キー、104…タッチセンサー付き太陽電池パネル、12a、12b、12c、12d、12g、12h…リモコン1の赤外光のスポット、2…CMOSイメージセンサ、3…マイクロプロセッサ、31a、31b…リモコン1の出力したデータ、32a、32c、32e、32g…赤外光スポットのy軸方向の加速度、32b、32d、32f、32h…赤外光スポットのx軸方向の加速度、33a、33b、33c、33d、33e、33f、33g、33h…マイクロプロセッサが表示するリモコン画面、330a、330b、330c、330d、330e、330f、330g、330h、330i…メニュー画面のメニューアイテム、4…バス、41a…可視画像撮影モード設定コマンド、42a…可視画像撮影モード時の撮像データ、41b…キャリア検出モード設定コマンド、42b…キャリア検出モード時の撮像データ、5…マイクロプロセッサ3が接続されたネットワーク、6…ネットワーク接続する家電品、61…ネットワーク接続する家電品、7…レーザポインタ、70…レーザポインタ、70…レーザ光が壁に描くスポット、8…プロジェクタ、81、82、83…プロジェクタが表示するリモコン画面のメニューアイテム。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to remote control of home appliances using an infrared remote controller and a CMOS image sensor.
[0002]
[Prior art]
FIG. 11 shows a conventional technique. In the figure, 2 is an image sensor, 3 is a microprocessor, 7 is a laser pointer, 70 is a spot drawn by a laser beam on a wall, 8 is a projector, and 81, 82, and 83 are menu items on a remote control screen displayed by the projector.
[0003]
In the related art, the home appliance pointed by the laser pointer 7 is photographed by an image sensor, and a spot drawn by the laser light of the laser pointer on the object is searched from the image, and the outline and the feature of the object are recognized again.
[0004]
When the target object is determined, the state and control system of the home electric appliance as the target object are acquired, and the projector 8 projects the remote control screen. The menu items 81, 82, and 83 are projected on the wall surface of the room as a remote control screen, and the laser pointer 7 moves the spot 70 drawn on the wall by the laser beam on the menu item 83, and the user selects the menu item 83 by standing still. showed that.
[0005]
After searching for the spot drawn by the laser beam in the same procedure as that for recognizing the target, the microprocessor 3 recognizes that the menu item 83 as the target is selected. The microprocessor 3 sends a selected command to the object according to the recognition result to realize remote operation.
[0006]
Further, in the “gesture recognition device” of Patent Document 1, a user's gesture is photographed by an image sensor, the user is cut out in image recognition, each part of the user's body is individually recognized, and the locus and position of each part are recognized. The gesture was identified from the relationship and the corresponding command was executed.
[0007]
[Patent Document 1]
JP-A-11-296673
[0008]
[Problems to be solved by the invention]
In the conventional technology, a light emitting device that emits a strong single light such as a laser pointer attempts to indicate a user's will by pointing to a control target or a menu item projected by a projector. However, it is necessary to use a CMOS image sensor having millions of pixels, which is small and difficult to detect because of the straightness of the laser beam and has high resolution.
[0009]
Further, the detection becomes difficult when the laser beam is buried in the light around the spot light drawn by the laser pointer or changes its color by mixing with the color of the object, so that it has to be used in a dim environment. There was also a problem that the recognition rate of the object was reduced due to the dim light. Further, it is necessary to lower the brightness of the menu items projected by the projector, and there are also restrictions on the colors projected.
[0010]
Since the laser pointer is used, burn-in occurs when the laser light directly enters the CMOS image sensor, and there is a risk that the CMOS image sensor may be damaged and the system may be damaged. In addition, the laser pointer is an unusual light projector in ordinary households, and there is a danger of damaging people and animals due to the laser light jumping directly into the eyes by mischief or carelessness.
In addition, the “gesture recognition device” disclosed in Patent Document 1 cannot be accurately recognized when a user is in a dark room, is extremely bright and white, or is buried in the background or surroundings due to the color of clothes. . Due to the nature of the system, the user always shoots the user and recognizes the gesture, so the casual and unconscious gesture of the user is recognized as a gesture, causing unintended command operation or malfunction.
[0011]
[Means for Solving the Problems]
In the present invention, an infrared remote controller which is rolled into a general household and has high recognition and receptivity and a CMOS image sensor having several hundred thousand pixels used in a digital camera or the like are used. The microprocessor performs photographing using a light receiving element to which a red filter is mounted among the light receiving elements of the CMOS image sensor, detects non-natural light, that is, a pulse-modulated non-natural light, that is, a signal from the image pickup and demodulates the data.
[0012]
In addition to demodulating data, the user swings the infrared remote controller and performs a predetermined gesture to select a menu item on the menu screen displayed by the microprocessor. The number of frames is earned by thinning out the number of light receiving elements read out by the CMOS image sensor, the trajectory of the infrared light output by the user's remote controller is reliably taken, and the frame is compared to determine the moving direction and acceleration of the remote controller. Thus, the gesture of the user is identified, and the menu item intended by the user is selected. When the selection of the menu item is confirmed, the command is sent to the object and the remote operation is performed.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
A first embodiment of the present invention will be described with reference to FIGS.
[0014]
In FIG. 1, 1 is a remote controller, 2 is a CMOS image sensor, 3 is a microprocessor, 4 is a bus, 5 is a network, 6 is a home appliance connected to the network, and 10 is a spot of infrared light.
[0015]
In FIG. 1, a plurality of users control home electric appliances using a remote controller 1. The remote controller 1 pulse-modulates the control data corresponding to the pressed button by ASK and radiates it to the space as infrared light pulses. In the present invention, the CMOS image sensor 2 uses a CMOS image sensor in which about 300,000 pixels are arranged on a plane, and the CMOS image sensor 2 photographs the surroundings of home electric appliances. Each pixel of the CMOS image sensor 2 receives natural light in the range from visible light to infrared light, and pulse-modulated infrared light emitted by the remote controller, which is non-natural light. The CMOS image sensor 2 maps the pixels into a matrix and transmits the pixels to the microprocessor 3 via the all-column read bus 4 for each column. The microprocessor 3 rearranges the transmitted data on a plane and processes it as an image.
[0016]
When the remote controller 1 emits infrared light, a high-intensity infrared light spot 10 appears during imaging by the CMOS image sensor 2, and the microprocessor 3 demodulates control data from the infrared light spot 10. In the present invention, natural light received by pixels around the spot 10 of infrared light has little change in a long cycle, whereas received infrared light is pulse-modulated and has a high intensity. The processor 3 easily recognizes that infrared light is emitted from the remote controller.
[0017]
The microprocessor 3 includes a device management unit and a display device, an acceleration detection unit, and a gesture estimation / identification unit. The device management means searches the home electric appliances 6 on the network via the network 5 and acquires information such as a state and a control system. From this information, a command system necessary for remote control is constructed and displayed on a display device as a remote control screen. The user swings the infrared remote controller and performs a predetermined gesture to select a menu item on the menu screen displayed by the microprocessor. The acceleration detecting means extracts the acceleration from the locus of the infrared light output by the remote controller photographed by the CMOS image sensor, and the gesture estimating / identifying means identifies the user's gesture based on the acceleration information. The action corresponding to the identified gesture is compared with the displayed menu to select a menu item intended by the user. When the selection of the menu item is confirmed, the device management means sends the corresponding command to the home electric appliance 6 on the network and performs remote control.
[0018]
In the first embodiment of the present invention, the microprocessor 3 is a single network device. However, the microprocessor incorporated in, for example, an air conditioner, a lighting device, or a television in a place with a good view indoors is the same as the device management unit. Equivalent functions can be realized by mounting a display device, acceleration detection means, and gesture estimation / identification means.
[0019]
The operation mode of the CMOS image sensor 2 will be described with reference to FIG.
[0020]
In the drawing, reference numeral 41a denotes a visible image shooting mode setting command, 42a denotes imaging data in the visible image shooting mode, 41b denotes a carrier detection mode setting command, and 42b denotes imaging data in the carrier detection mode.
[0021]
The microprocessor 3 sets the operation mode of the CMOS image sensor 2 to the visible image shooting mode or the carrier detection mode by the visible image shooting mode setting command 41a or the carrier detection mode setting command 41b via the bus 4. When the setting is completed, the CMOS image sensor 2 sends data corresponding to the mode, imaging data 42a in the visible image shooting mode, and imaging data 42b in the carrier detection mode to the bus 4.
[0022]
In the visible image capturing mode, the drawing is set to progressive, and one frame of imaging data is composed of read data of all columns. At this time, the frame rate is 30 frames per second. When the mode is set to interlace, image data is read out every other column, and 60 fields are read out per second. When the carrier detection mode is set, the imaging data is read out every eight columns and every eight pixels, and the frame rate is 1920 fields per second. In the carrier detection mode of the present invention, a carrier is detected in a field unit and a command intended by a user is processed, so that a field is referred to as a frame for convenience.
[0023]
In any mode, the transfer rate of the image data on the bus 4 is 8.79 Mbps, and it is not necessary to change the setting of the interface of the bus 3 of the microprocessor 3.
[0024]
The reading order of the pixels of the CMOS image sensor 2 in the carrier detection mode will be described with reference to FIG.
[0025]
In the figure, reference numeral 20 denotes a section composed of 64 8 × 8 pixels, 201 denotes a pixel read first, 203 denotes a pixel read third, and 208 denotes a pixel read eighth.
[0026]
The section 20 shown in the figure is composed of 64 8 × 8 pixels, and the CMOS image sensor 2 of the present invention is divided into 80 sections for effective pixels in the column direction and 60 sections in the row direction, for a total of 4800 sections. Section 20 shows one of the 4800 sections.
[0027]
In the carrier detection mode, one specific pixel in the section 20 is read out, but between sections adjacent in the column direction, pixels are selected and read out every eight columns and every eight pixels. In the first frame read at the time of carrier detection of one frame, the pixel 201 is read, and thereafter, the pixel 202 is read in the second frame, the pixel 203 is read in the third frame, and the pixel 208 is read in the eighth frame in order. At the time of carrier detection, only the pixels with the red filter are read out, so the pixels to be read out are every other pixel, every other column, and the pixel with the green filter adjacent in the column direction and the green filter in the next column are mounted The read pixel and the pixel to which the blue filter is attached are skipped.
[0028]
By changing the pixels to be read for each frame, the resolution is improved without restricting the opening / closing time of the electronic shutter, that is, the exposure time.
[0029]
A method of receiving pulse-modulated infrared light by the CMOS image sensor 2 in the carrier detection mode will be described with reference to FIG.
In the drawing, 10 is one data cycle of infrared communication, 10a is a guide pulse, 10b and 10d are no output, 10c is symbol 0, and 10e is symbol 1.
[0030]
As shown in the figure, in the infrared communication, the data cycle 10 is 45 milliseconds. The next data cycle is the shortest and appears at 45 millisecond intervals between the guide pulse 10a and the next guide pulse 10a.
[0031]
In the infrared communication, the output continues for 2.4 milliseconds, so that the guide pulse 10a is not output. Thereafter, the output of 0.6 to 1.2 milliseconds represents the symbol 0 and the symbol 1. After "001011100" following the guide pulse 10a, a symbol 0 (10c) of 0.6 ms following the non-output 10b appears, and "0" appears, followed by a symbol 1 of 1.2 ms following the non-output 10d. (10e) appears and indicates 1. Thereafter, "10" appears, the data runs out, and there is no output until the next guide pulse appears.
[0032]
The CMOS image sensor 2 of the present invention repeats infrared light imaging at a frame rate of 1920 frames per second, that is, 0.52 millisecond intervals in the carrier detection mode. In infrared communication, the shortest pulse is a non-output of 0.6 milliseconds or a symbol 0, and the non-output and the symbol 0 are separated by photographing at an interval of 0.52 milliseconds.
[0033]
FIG. 5 shows symbol detection and data demodulation.
[0034]
In the figure, 11a, 11b, 11c, 11d and 11e are infrared light spots of the remote controller 1, 31a and 31b are data output from the remote controller 1, 5 is a network to which the microprocessor 3 is connected, and 6 is home appliances to be connected to the network. Goods.
[0035]
In the carrier detection mode, the infrared light output from the remote controller appears as a bright spot on the image captured by the CMOS image sensor 2. In the figure, the infrared light of the remote controller 1a sequentially appears as spots 11a, 11b, 11c, 11d, and 11e in five frames photographed every 0.52 seconds. The spot 11a and the spot 11c are not completely dark because any one of the symbols before and after the exposure time is applied, but are determined to be non-output because they are smaller than the threshold value. In addition, since it is higher than the threshold, the spots 11b, 11d, and 11e are determined to be outputs. The symbol 0 or the symbol 1 is distinguished depending on whether the number of outputs until the no output appears after the spot 10a determined to be no output is one or two. The non-output that appears for the first time after the spot 11a is the spot 11c, and the output in the meantime is only the spot 11b. Similarly, since the spot 11c is followed by the spot 11d and the spot 11e, the data 31b output from the remote controller 1a is demodulated into the symbol 1.
[0036]
Since the data 31b output from the remote controller 1a is data during infrared communication, it is determined that there is no output after the spot 11e and demodulated to the symbol 1. When an output appears after the spot 11e, the signal up to the spot 11e is demodulated into the symbol 1 as indicated by 31b, and the spot arriving after the spot 11e is regarded as an error, and the first spot is regarded as no output, and an error correction is attempted.
[0037]
The demodulated data includes information such as a maker code and a product code. If the data indicates another manufacturer or another product, the microprocessor 3 searches for the corresponding home appliance on the network 5 and then transmits the data to the network 5. The data is relayed to the network 5 or the data is relayed to the network 5 in expectation of receiving the corresponding home electric appliance on the network 5. As a result of the relay, the home electric appliance 6 on the network 5 is applicable, so the command is interpreted and the command is normally executed.
[0038]
When the microprocessor 3 finds a corresponding product by searching on the network 5, it obtains control system information of the product. The control system information is defined in, for example, UPnP: Universal Plug and Play proposed by Microsoft Corporation in the United States or ECHONET of the ECHONET Consortium in Japan. It switches between operation and heating operation, and controls air volume, louver direction, and temperature.
[0039]
Control of home electric appliances via the network 5 will be described with reference to FIGS.
[0040]
In FIG. 6, 1a and 1b denote remote controller positions, 12a and 12b denote infrared light spots of the remote controller 1, 32a denotes an acceleration of the infrared light spot in the y-axis direction, and 32b denotes an acceleration of the infrared light spot in the x-axis direction. , 33a, 33b are remote control screens displayed by the microprocessor, and 330a, 330b, 330c are menu items on the remote control screen.
[0041]
FIG. 6 shows selection of a menu item by a gesture.
[0042]
As shown in FIG. 5, the microprocessor 3 demodulates the data output from the remote controller 1 to obtain information such as a maker code and a product code. In FIG. 6, the microprocessor 3 acquires control system information of the product from the obtained information such as the manufacturer code and the product code. The microprocessor 3 inquires the calling state of the product via the network 5, creates a control menu, and displays it as a remote control screen 33a. The menu item 330a on the remote control screen presents three control commands as Up, the menu item 330b on the remote control screen as Down, and the menu item 330c on the remote control screen as Off.
[0043]
The user turns the remote controller 1 toward the CMOS image sensor 2 and presses or keeps pressing any button of the remote controller 2 to output infrared rays. The remote controller 1 which has been stationary at the remote controller position 1a at a certain point of time, lifts up to the remote controller position 1b by a gesture according to the menu selection of the user, and soon returns to the remote controller position 1a and stops.
[0044]
At this time, in imaging by the CMOS image sensor 2, the remote controller 1 is stationary at the infrared light spot 12 a at frame 1 but rises to the infrared light spot 12 b at frame 111 after 110 frames, and In the subsequent frame 221, the light returns to the infrared light spot 12 a again, and in the subsequent frames, it stops at this position.
[0045]
In the present invention, since the CMOS image sensor 2 can obtain an image at a high frequency of 1920 fps in the carrier detection mode, the image is obtained even between the first, 111th, and 221st frames. For the frame captured by the CMOS image sensor during this time, the microprocessor 3 tracks the spot of the infrared light output by the remote controller 1, calculates accelerations Ax and Ay in the x-axis and y-axis directions, and calculates the acceleration of the infrared light spot. An acceleration 32a in the y-axis direction and an acceleration 32b in the x-axis direction of the infrared light spot are obtained.
[0046]
The microprocessor 3 recognizes that the remote controller 1 has lifted up from the acceleration 32a of the infrared light spot in the y-axis direction and the acceleration 32b of the spot in the x-axis direction. The microprocessor 3 determines that the user wants to raise the highlight of the menu item on the remote control screen 33a, switches the menu item 330b that has already been highlighted to the menu item 330a, and shifts to the remote control screen 33b.
[0047]
In the transition from the menu screen 33a to the menu screen 33b, the infrared light output from the remote controller 1 does not irradiate or point at the menu items on the menu screen 33a or the menu screen 33a, and the user bows the remote controller 1. The highlight is moving on the remote control screen.
[0048]
In FIG. 7, 1a and 1c indicate positions of the remote controller, 12c indicates an infrared light spot of the remote controller 1, 32c indicates the acceleration of the infrared light spot in the y-axis direction, 32d indicates the acceleration of the infrared light spot in the x-axis direction, and 33c. , 33d are remote control screens displayed by the microprocessor, and 330d is a menu item on the remote control screen.
[0049]
FIG. 7 shows a pop-up of a menu item by a gesture.
[0050]
For simplicity, differences from FIG. 6 will be described. Similarly to FIG. 6, the remote controller 1 which has been stopped at the remote controller position 1a is horizontally moved to the remote controller position 1c by a gesture according to the user's menu selection, and soon returns to the remote controller position 1a and stops. During this time, the remote control 1 is in a state of outputting infrared rays.
[0051]
At this time, in the imaging by the CMOS image sensor 2, the remote controller 1 is stationary at the infrared light spot 12a at frame No. 1, but swings rightward to the infrared light spot 12C at frame number 111 after 110 frames. , 110 frames, the frame 221 returns to the infrared light spot 12a again, and in the subsequent frames, it stops at this position.
[0052]
The microprocessor 3 tracks the spot of the infrared light output from the remote controller 1, calculates accelerations Ax and Ay in the x-axis and y-axis directions, and calculates the acceleration 32c of the infrared light spot in the y-axis direction and the infrared light spot. Is obtained in the x-axis direction.
[0053]
The microprocessor 3 recognizes that the remote controller 1 has touched the right from the acceleration 32c of the infrared light spot in the y-axis direction and the acceleration 32d of the spot in the x-axis direction. The microprocessor 3 determines that the user wants to display or select a menu item below the menu item 330a for the highlighted menu item 330a on the remote control screen 33c, and the menu item 330a that has already been highlighted , The menu item 330d is popped up rightward, and the screen shifts to the remote control screen 33d.
[0054]
In the transition from the menu screen 33c to the menu screen 33d, the infrared light output from the remote controller 1 does not irradiate or point at the menu screen 33c or the menu item on the menu screen 33c, and the user moves the remote controller 1 to the right. By shaking, the lower-level menu item pops up on the remote control screen, and the highlight moves to the pop-up menu item.
[0055]
In FIG. 8, 1a and 1d are the positions of the remote controller, 12d is the infrared light spot of the remote controller 1, 32e is the acceleration of the infrared light spot in the y-axis direction, 32f is the acceleration of the infrared light spot in the x-axis direction, and 33e. , 33f are remote control screens displayed by the microprocessor.
[0056]
A selection of a menu item by a gesture will be described with reference to FIG.
[0057]
As in FIG. 6, the remote controller 1 which has been stopped at the remote controller position 1a is swung so as to draw a circle passing through the remote controller position 1d by a gesture accompanying the user's menu selection, and soon returns to the remote controller position 1a and stops. I do. During this time, the remote control 1 is in a state of outputting infrared rays.
[0058]
At this time, in the imaging by the CMOS image sensor 2, the remote controller 1 is stationary at the infrared light spot 12a at frame 1 but is at the infrared light spot 12d at frame number 111 after 110 frames. In the subsequent frame 221, the light returns to the infrared light spot 12 a again, and in the subsequent frames, it stops at this position.
[0059]
The microprocessor 3 tracks the spot of the infrared light output from the remote controller 1, calculates accelerations Ax and Ay in the x-axis and y-axis directions, and calculates the acceleration 32e of the infrared light spot in the y-axis direction and the infrared light spot. The acceleration 32f in the x-axis direction is obtained.
[0060]
The microprocessor 3 recognizes that the remote controller 1 has been swung in a circle from the acceleration 32e of the infrared light spot in the y-axis direction and the acceleration 32f of the spot in the x-axis direction. The microprocessor 3 determines that the user has selected the highlighted menu item 330d on the remote control screen 33e, highlights or blinks the already highlighted menu item 330d, and shifts to the remote control screen 33f. I do.
[0061]
In the transition from the menu screen 33e to the menu screen 33f, the infrared light output from the remote controller 1 does not irradiate or point at the menu screen 33e or the menu item on the menu screen 33e. Shake like a drawing to highlight or blink the lower-level menu item highlighted on the remote control screen.
[0062]
As shown in FIGS. 6 to 8, the microprocessor 3 updates the remote control screen by recognizing a command intended by the user by capturing a gesture of the user swinging the remote control 1 with the CMOS image sensor 2. The command thus recognized is sent to the product via the network 5 shortly to realize remote operation.
[0063]
Further, the microprocessor 3 hierarchically displays functions conventionally assigned to buttons on the remote control on the remote control screen, adds unique functions to menu items, and displays the functions according to the frequency of use. It has a so-called learning function, or dynamically changes the menu hierarchy until the function is called.
[0064]
9 and 10 show a second embodiment of the present invention.
[0065]
In the figure, 1g and 1h are the positions of the remote controller, 12g and 12h are the infrared light spots of the remote controller 1, 32g is the acceleration of the infrared light spot in the y-axis direction, 32h is the acceleration of the infrared light spot in the x-axis direction, 33g and 33h are remote control screens displayed by the microprocessor, 330e, 330f, 330g, 330h and 330i are menu items on the menu screen, and 61 is a home appliance.
[0066]
The microprocessor 3 demodulates the data output from the remote controller 1 to obtain information such as a maker code and a product code. The microprocessor 3 acquires control system information of the product from the obtained information such as the manufacturer code and the product code. The microprocessor 3 inquires the calling state of the home appliance 6 as the product via the network 5, creates a control menu, and displays it as a remote control screen 33a. The menu item 330e on the remote control screen presents three control commands as Up, the menu item 330f on the remote control screen shows Down, and the menu item 330g on the remote control screen shows Off as three control commands.
[0067]
The user turns the remote controller 1 toward the CMOS image sensor 2 and presses or keeps pressing any button of the remote controller 2 to output infrared rays. The remote controller 1 which has been stationary at the remote controller position 1g at a certain point in time is moved up to the remote controller position 1h by a gesture accompanying the menu selection of the user and stays there.
[0068]
At this time, in the imaging by the CMOS image sensor 2, the remote controller 1 is stationary at the infrared light spot 12g at the first frame, but rises to the infrared light spot 12h at the frame 111 after 110 frames, and the 110th frame. It stops at the spot 12h in the subsequent frame 221 and in this position in the subsequent frames.
[0069]
In the second embodiment of the present invention, the microprocessor 3 tracks the spot of infrared light output from the remote controller 1, calculates accelerations Ax and Ay in the x-axis and y-axis directions, and calculates y of the infrared light spot. An acceleration 32g in the axial direction and an acceleration 32h in the x-axis direction of the infrared light spot are obtained.
[0070]
The microprocessor 3 recognizes that the remote control 1 has been hiccuped and stopped from the acceleration 32g in the y-axis direction of the infrared light spot and the acceleration 32h in the x-axis direction of the spot. The microprocessor 3 determines that the user wants to switch the menu item on the remote control screen 33g from the control screen of the home electric appliance 6 to a list of other home electric appliances information, and searches for the peripheral electric home appliances. The home appliance 61 searched on the network 5 is found, and the state is inquired. The result of the inquiry is displayed as a menu item 330i on the remote control screen 33h below the menu item 330h indicating the operation state of the household electrical appliance 6, and the remote control screen shifts to 33h.
[0071]
In the transition from the menu screen 33g to the menu screen 33h, the infrared light output by the remote controller 1 does not irradiate or point at the menu items on the menu screen 33g or the menu screen 33h, and the user bows the remote controller 1. The highlight is moving on the remote control screen.
[0072]
Originally, the remote controller 1 holds the control code of the home appliance 6 or a device corresponding to the home appliance 6 and transmits only the control code assigned to the button of the remote controller 1. However, the remote controller 1 has a different control code from the home appliance 61. Cannot be controlled. In addition, since the manufacturer code and product code at the head of the data output from the remote controller 1 do not match as the home appliance 61, the home appliance 61 discards this data without interpreting the control code. That is, although the remote controller 1 and the home appliance 61 are distant from each other, as shown in the present embodiment, the microprocessor 3 intervenes to present the menu screen 33h and allow the user to select a menu item. The control shifts to the control of the home electric appliance 61.
[0073]
In this configuration, even when the microprocessor 3 is not found because the home electric appliance 6 is not connected to the network 5, the microprocessor 3 searches for surrounding home electric appliances and controllable products and creates and displays a menu screen. I do. The contents displayed at this time are menu items including the same product names and nicknames as the menu items 330h and 330i that have appeared on the menu screen 33h, and their operation states.
[0074]
FIG. 10 shows a remote controller.
[0075]
In the figure, 1 is a remote controller, 100 is an infrared light emitting unit, 101 is a power button, 102 is a numeric keypad, 103 is an arrow key, and 104 is a solar cell panel with a touch sensor.
[0076]
The remote controller 1 has a power button 101, a numeric keypad 102, and an arrow key 103 as the minimum necessary buttons for a remote controller of a normal television or VCR. The arrow keys can be replaced with 2, 4, 6, 8, or similar combinations of the numeric keys 102, and can be omitted. However, in the second embodiment of the present invention, the arrow keys are used for a volume button and fast-forward / rewind.
[0077]
In the control using the remote control screen displayed by the microprocessor 3, the user first presses the power button 101, and data including a maker code and a product code is transmitted by infrared rays. Thereafter, a menu item is selected by a gesture. As long as the user holds the remote controller 1, the remote controller 1 detects that the remote controller 1 is being held through the solar cell panel 104 with a touch sensor. During this time, unless the power button 101, the numeric keypad 102, or the arrow key 103 is pressed, the remote controller continues to transmit the reserved control code without using the home appliance that the remote controller originally controls. The transmission of the reserved control code stops when the power button 101, the numeric keypad 102, or the arrow key 103 is pressed or when the user's hand leaves the touch-sensitive solar panel 104 for a while.
[0078]
In the embodiment of the present invention, the solar cell panel 104 with a touch sensor is mounted. However, it is possible to transmit the reserved control code as expected even with a touch sensor in which the solar cell panel is omitted.
[0079]
In addition to transmitting the reserved control code, the remote controller also transmits a code for ignoring and discarding even received home appliances such as a reserved maker code and a product code, and performs a similar function by transmitting a guide signal. A similar function is achieved even if a non-output appears subsequently or an error signal is transmitted such that the guide signal is repeated. When the microprocessor 3 cannot identify the manufacturer code or the product code by intentionally embedding the error in this way, the microprocessor 3 of the present invention searches for surrounding home electric appliances and controllable products, and creates and displays a menu screen. , Realize remote control.
[0080]
【The invention's effect】
With the configuration of the CMOS image sensor and the microcomputer of the present invention, it is possible to control a household electrical appliance by swinging a remote controller rolling in a general home and performing a predetermined gesture during imaging by the CMOS image sensor.
[0081]
Since the buttons on the remote control are not used, the function you were looking for on the remote control appears in the menu display, so you can call the function without dropping your eyes on the buttons on the remote control, reducing or eliminating the number of buttons on the remote control And the liquid crystal display of the remote controller can be omitted.
[0082]
Replacement or additional home appliances can be controlled with the conventional remote controller, and the number of remote controllers can be reduced to one or one for each person, and the cost can be reduced by omitting the remote controller attached to the home appliance. It also saves the trouble of searching for a lost remote control.
[Brief description of the drawings]
FIG. 1 is a diagram showing a first embodiment.
FIG. 2 is a diagram illustrating an operation mode of the CMOS image sensor according to the first embodiment.
FIG. 3 is a diagram illustrating a reading order in a carrier detection mode of the CMOS image sensor according to the first embodiment.
FIG. 4 is a diagram showing a format and timing of infrared communication according to the first embodiment.
FIG. 5 is a diagram showing symbol detection and data demodulation in infrared communication according to the first embodiment.
FIG. 6 is a diagram illustrating selection of a menu item by a gesture according to the first embodiment.
FIG. 7 is a diagram illustrating a pop-up of a menu item by a gesture according to the first embodiment.
FIG. 8 is a diagram illustrating selection and confirmation of a menu item by a gesture according to the first embodiment.
FIG. 9 is a diagram showing a second embodiment.
FIG. 10 is a diagram showing a remote controller according to the second embodiment.
FIG. 11 is a diagram showing a conventional technique.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Remote control, 1a, 1b, 1c, 1d, 1g, 1h ... Remote control position, 10 ... Infrared light spot, 10a ... Guide pulse, 10b, 10d ... No output, 10c ... Symbol 0, 10e ... Symbol 1, 11: infrared light spot of remote control 1a, 11a, 11b, 11c, 11d, 11e: infrared light spot of remote control 1, 12: infrared light spot of remote control 1, 100: infrared light emitting section, 101: Power button, 102 numeric keypad, 103 arrow keys, 104 solar cell panel with touch sensor, 12a, 12b, 12c, 12d, 12g, 12h infrared light spot of remote controller 1, 2 CMOS image sensor, 3 ... Microprocessor, 31a, 31b: data output from remote controller 1, 32a, 32c, 32e, 32g: y-axis of infrared light spot Direction acceleration, 32b, 32d, 32f, 32h ... acceleration in the x-axis direction of the infrared light spot, 33a, 33b, 33c, 33d, 33e, 33f, 33g, 33h ... remote control screen displayed by the microprocessor, 330a, 330b , 330c, 330d, 330e, 330f, 330g, 330h, 330i: Menu items on the menu screen, 4: Bus, 41a: Visible image shooting mode setting command, 42a: Image data in the visible image shooting mode, 41b: Carrier detection mode Setting command, 42b: imaging data in the carrier detection mode, 5: a network to which the microprocessor 3 is connected, 6: home appliances connected to the network, 61: home appliances connected to the network, 7: laser pointer, 70: laser pointer, 70: Laser light drawn on the wall Tsu door, 8 ... projector, remote control screen menu items of 81, 82, 83 ... projector to display.

Claims (13)

イメージセンサとネットワークに接続したプロセッサを具備する遠隔制御システムであって、
前記イメージセンサは全ての受光素子を逐一読み出す状態と列単位で間引いて逐一読み出す状態と全ての受光素子のうち特定の色を撮影する受光素子を列方向行方向で間引いて読み出す状態を備え、
前記プロセッサは撮像中の対象物について撮像間での加速度を検出する加速度検出手段と、
前記加速度を検出する手段がもたらした対象物の加速度と対象物の軌跡からジェスチャを同定するジェスチャ同定手段とネットワーク上の機器を検索ないし呼出して状態と制御コマンド体系を収集し機器の状態から制御コマンドを再構成した制御コマンドメニューを作成する機器管理手段と前記再構成した制御コマンドメニューを表示する表示手段を具備し、
遠隔制御システムはパルス変調をかけた前記特定の色を撮影する受光素子が受光する色の光を送出する制御器の送出した光の軌跡と加速度を検出し制御器が撮像中に描いたジェスチャを同定するのであって、
遠隔制御システムの機器管理手段は前記表示手段で表示している制御コマンドメニューの制御コマンド群のうち指示されている制御コマンドと位置関係に基づき、前記同定したジェスチャに従い指示する制御コマンドを切り換えるないし指示している制御コマンドの選択を確定するのであって、
前記制御コマンドの切り換えないし確定した制御コマンドの選択を表示手段で表示し、
ネットワークを介して当該ネットワーク上の機器に選択された制御コマンドを送付し遠隔制御を行う事を特徴とした前記遠隔制御システム。
A remote control system comprising an image sensor and a processor connected to a network,
The image sensor includes a state in which all the light receiving elements are read out one by one, a state in which the light receiving elements capturing a specific color among all the light receiving elements are read out in a column direction and a row direction,
The processor is an acceleration detection unit that detects an acceleration between imaging of the object being imaged,
Gesture identifying means for identifying a gesture from the acceleration of the object and the trajectory of the object provided by the means for detecting the acceleration, and searching or calling a device on the network to collect a state and a control command system, and to execute a control command from the state of the device. Comprising device management means for creating a reconfigured control command menu and display means for displaying the reconfigured control command menu,
The remote control system detects the trajectory and acceleration of the light emitted by the controller that emits the light of the color received by the light receiving element that captures the specific color subjected to pulse modulation, and detects the gesture drawn by the controller during the imaging. To identify,
The device management means of the remote control system switches or instructs a control command to be instructed according to the identified gesture, based on a control command and a positional relationship instructed from a control command group of a control command menu displayed on the display means. To confirm the selection of the control command
The switching of the control command or the selection of the determined control command is displayed on the display means,
The remote control system according to claim 1, wherein the remote control is performed by transmitting a selected control command to a device on the network via the network.
請求項1のイメージセンサと制御器であって、前記特定の色が赤色ないし波長が500ナノメートル以上、もしくは近赤外光ないしほぼ950ナノメートルの電磁波であることを特徴とする前記イメージセンサ。2. The image sensor and controller according to claim 1, wherein the specific color is red or an electromagnetic wave having a wavelength of 500 nm or more, or near infrared light or approximately 950 nm. 請求項1のプロセッサの加速度検出手段であって、前記制御器を前記対象物とし、撮像間で前記制御器の送出するパルス変調の掛かった光を認知し撮像中の位置を検出し軌跡情報を検出し、撮像間でこの位置情報を比較し差分を算出する事で加速度を検出することを特徴とした加速度検出手段。2. The acceleration detecting means of the processor according to claim 1, wherein the controller is the object, and a pulse-modulated light transmitted from the controller during imaging is recognized, a position during imaging is detected, and trajectory information is obtained. An acceleration detecting means for detecting the acceleration, detecting the acceleration by detecting and comparing the position information between the imagings and calculating the difference. 請求項1のプロセッサのジェスチャを同定するジェスチャ同定手段であって、前記加速度検出手段がもたらす加速度と軌跡情報から加速度が概ね0の静止状態から脱した時点を開始点とし静止状態に戻った時点を終点とし、前記軌跡情報から前記開始点から前記終点までの期間を切り出すのであって、
切り出された軌跡情報とあらかじめ登録されたジェスチャを比較しジェスチャを同定しジェスチャ情報を発信することを特徴としたジェスチャ同定手段。
2. A gesture identifying means for identifying a gesture of the processor according to claim 1, wherein a time point at which the acceleration departs from a stationary state where the acceleration is substantially zero is determined as a starting point based on the acceleration and trajectory information provided by the acceleration detecting means. As an end point, a period from the start point to the end point is cut out from the trajectory information,
Gesture identifying means for comparing the extracted trajectory information with a pre-registered gesture, identifying the gesture, and transmitting the gesture information.
請求項1のパルス変調をかけた光を発する制御器と制御器による光通信であって、前記制御器は同期符号ないしガイドパルスに引き続きメーカコードと製品コードと制御コードを含むデータを光通信で送信するのであって、
前記制御器がジェスチャを描く期間前記データを繰り返し送信する事を特徴とする前記制御器。
The optical communication by a controller for emitting pulse-modulated light according to claim 1, wherein the controller optically transmits data including a maker code, a product code, and a control code subsequent to a synchronization code or a guide pulse. To send,
The controller, wherein the controller repeatedly transmits the data during a period in which the controller draws a gesture.
請求項5の制御器であって、制御器を握る利用者に接触するタッチセンサを具備し、前記タッチセンサは定期的に接触を検知するのであって、前記タッチセンサが接触を検知すると自動的に次の接触の検知まで前記データを繰り返し送信することを特徴とする制御器。6. The controller of claim 5, further comprising a touch sensor for contacting a user holding the controller, wherein the touch sensor periodically detects a contact, and automatically detects when the touch sensor detects the contact. A controller that repeatedly transmits the data until the next contact is detected. 請求項6の制御器であって、タッチセンサが接触を検知する間に、他の制御コマンドが割り当てられたキーが押されたこと検知し、前記自動的に繰り返し送信する動作を中断し、前記制御コマンドに対応するデータを優先して送信することを特徴とした制御器。7. The controller according to claim 6, wherein, while the touch sensor detects a contact, it detects that a key to which another control command is assigned is pressed, and interrupts the operation of automatically transmitting repeatedly. A controller characterized in that data corresponding to a control command is transmitted with priority. 請求項5のデータであって、前記メーカコードと製品コードと制御コードの何れか少なくとも一つは既存の製品に割り当てられたことのないリザーブコードであることを特徴とした前記制御器と前記光通信。The data according to claim 5, wherein at least one of the maker code, the product code, and the control code is a reserved code that has not been assigned to an existing product. communication. 請求項5のデータであって、前記同期符号ないしガイドパルスに引き続き送信するデータは、前記メーカコードと製品コードと制御コードに無作為にエラーを付加したデータ、もしくは一部を削除した未完のデータ、もしくは無出力、もしくは同期符号ないしガイドパルスである事を特徴とした前記制御器と前記光通信。6. The data according to claim 5, wherein the data to be transmitted subsequent to the synchronization code or the guide pulse is data in which an error is randomly added to the maker code, product code, and control code, or incomplete data in which a part is deleted. The controller and the optical communication, wherein the controller is a non-output or a synchronous code or a guide pulse. 請求項1の機器管理手段であって、前記制御器が送信したメーカコードと製品コードと制御コードを含むデータに基づき、ネットワーク上の該当する機器を検索し、発見した当該機器の制御コマンドメニュー作成する事を特徴とする機器管理手段。2. The device management means according to claim 1, wherein a corresponding device on a network is searched based on data including a maker code, a product code, and a control code transmitted by the controller, and a control command menu for the found device is created. Device management means characterized by doing. 請求項1の機器管理手段であって、前記制御器が送信したデータがエラーを含んでいるないし未定義ないし無効の場合、ネットワーク上の機器を検索し、発見した機器を前記表示手段で一覧表示し、発見した機器毎に動作状況と制御コマンド体系を収集し制御コマンドメニューを作成する事を特徴とする機器管理手段。2. The device management unit according to claim 1, wherein when the data transmitted by the controller includes an error, is undefined, or is invalid, a device on the network is searched and a list of the found devices is displayed on the display unit. Device management means for collecting the operation status and control command system for each discovered device and creating a control command menu. 請求項10の機器管理手段であって、当該機器を発見できなかった場合もしくは制御コマンドメニューに提示したネットワーク上の機器一覧表示要求を制御器が選択した場合、ネットワーク上の機器を検索し、発見した機器を前記表示手段で一覧表示し、発見した機器毎に動作状況と制御コマンド体系を収集し制御コマンドメニューを作成する事を特徴とする機器管理手段。11. The device management means according to claim 10, wherein if the device cannot be found or if the controller selects a device list display request on the network presented in the control command menu, the device is searched for and found. Device management means for displaying a list of devices which have been identified by the display means, collecting an operation status and a control command system for each discovered device, and creating a control command menu. 請求項3の加速度検出手段であって、前記特定の色の光が撮像中に1ないし数秒の期間にわたり間断なく且つほぼ同じ位置に出現した事を検出するとある期間この位置の光について位置情報と加速度の検出を行わないことを特徴とする加速度検出手段。4. The acceleration detecting means according to claim 3, wherein the light of the specific color has a position information and a light for a certain period when it is detected that the light of the specific color appears continuously and substantially at the same position for one to several seconds during the imaging. An acceleration detecting means which does not detect acceleration.
JP2002346758A 2002-11-29 2002-11-29 Remote control system Pending JP2004178469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002346758A JP2004178469A (en) 2002-11-29 2002-11-29 Remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002346758A JP2004178469A (en) 2002-11-29 2002-11-29 Remote control system

Publications (1)

Publication Number Publication Date
JP2004178469A true JP2004178469A (en) 2004-06-24

Family

ID=32707546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002346758A Pending JP2004178469A (en) 2002-11-29 2002-11-29 Remote control system

Country Status (1)

Country Link
JP (1) JP2004178469A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100818990B1 (en) * 2006-12-28 2008-04-04 삼성전자주식회사 Apparatus and method for converting motion signals
JP2008287625A (en) * 2007-05-21 2008-11-27 Sony Corp Image processing system, image processing apparatus and method, and program
WO2011062716A1 (en) * 2009-11-17 2011-05-26 Qualcomm Incorporated User interface methods and systems for providing gesturing on projected images
JP2011523138A (en) * 2008-06-04 2011-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. System and method for remotely controlling a computer
CN102184633A (en) * 2011-04-27 2011-09-14 杭州芯赛微电子有限公司 Infrared receiving and amplifying circuit realized through CMOS (Complementary Metal-Oxide-Semiconductor Transistor) technology
US8538367B2 (en) 2009-06-29 2013-09-17 Qualcomm Incorporated Buffer circuit with integrated loss canceling
CN104183115A (en) * 2014-08-28 2014-12-03 北京慧物科联科技有限公司 Remote controller capable of identifying family gesture operation by virtue of internet of things
CN105892301A (en) * 2016-05-19 2016-08-24 深圳还是威健康科技有限公司 Smart home control method and device
CN107705526A (en) * 2017-09-21 2018-02-16 深圳Tcl新技术有限公司 Control method, device and the computer-readable recording medium of electronic equipment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100818990B1 (en) * 2006-12-28 2008-04-04 삼성전자주식회사 Apparatus and method for converting motion signals
JP2008287625A (en) * 2007-05-21 2008-11-27 Sony Corp Image processing system, image processing apparatus and method, and program
JP2011523138A (en) * 2008-06-04 2011-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. System and method for remotely controlling a computer
US8538367B2 (en) 2009-06-29 2013-09-17 Qualcomm Incorporated Buffer circuit with integrated loss canceling
WO2011062716A1 (en) * 2009-11-17 2011-05-26 Qualcomm Incorporated User interface methods and systems for providing gesturing on projected images
CN102184633A (en) * 2011-04-27 2011-09-14 杭州芯赛微电子有限公司 Infrared receiving and amplifying circuit realized through CMOS (Complementary Metal-Oxide-Semiconductor Transistor) technology
CN104183115A (en) * 2014-08-28 2014-12-03 北京慧物科联科技有限公司 Remote controller capable of identifying family gesture operation by virtue of internet of things
CN105892301A (en) * 2016-05-19 2016-08-24 深圳还是威健康科技有限公司 Smart home control method and device
CN107705526A (en) * 2017-09-21 2018-02-16 深圳Tcl新技术有限公司 Control method, device and the computer-readable recording medium of electronic equipment

Similar Documents

Publication Publication Date Title
US6967695B2 (en) Remote control network system for remotely controlling a plurality of electric apparatus such as home appliances
CN102640081B (en) Power control method for gesture recognition device by detecting user's presence
JP4697279B2 (en) Image display device and detection method
US9357119B2 (en) Imaging apparatus capable of wireless communication
US11561608B2 (en) Method for controlling an application employing identification of a displayed image
US20100231511A1 (en) Interactive media system with multi-directional remote control and dual mode camera
CN109243153A (en) mobile device and control method
CN107343185B (en) Processing method and device of projection equipment and camera of projection equipment
JPH09128141A (en) Control device and control method
JP2009223490A (en) Virtual switch, and household electric appliance control system and method using same
JP2004178469A (en) Remote control system
KR20160024848A (en) Remote control programming using images
KR20160126448A (en) Remote controller capable of remotely controlling a plurality of device and image display apparatus including the same
KR20170038530A (en) Remote controller capable of remotely controlling a plurality of device
US8525786B1 (en) Multi-directional remote control system and method with IR control and tracking
JP2008288737A (en) Television control device
US10289213B2 (en) Remote control device, user device and system thereof, and method , computer program product and identification signal
JP2009296239A (en) Information processing system, and information processing method
KR100977443B1 (en) Gesture based home appliance control device and method
US12073009B2 (en) Method for controlling an application employing identification of a displayed image
JP2004356803A (en) Remote device operation system, operation terminal and imaging device in the system
JP4950230B2 (en) Remote control system
US20250117068A1 (en) Method for controlling an application employing identification of a displayed image
JP2013207520A (en) Control device
JP2001275278A (en) Standby power saving unit