[go: up one dir, main page]

JP6367031B2 - Electronic device remote control system and program - Google Patents

Electronic device remote control system and program Download PDF

Info

Publication number
JP6367031B2
JP6367031B2 JP2014146470A JP2014146470A JP6367031B2 JP 6367031 B2 JP6367031 B2 JP 6367031B2 JP 2014146470 A JP2014146470 A JP 2014146470A JP 2014146470 A JP2014146470 A JP 2014146470A JP 6367031 B2 JP6367031 B2 JP 6367031B2
Authority
JP
Japan
Prior art keywords
graphic
identification information
target device
electronic device
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014146470A
Other languages
Japanese (ja)
Other versions
JP2016024519A (en
Inventor
哲晃 馬場
哲晃 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan Public University Corp
Original Assignee
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan Public University Corp filed Critical Tokyo Metropolitan Public University Corp
Priority to JP2014146470A priority Critical patent/JP6367031B2/en
Publication of JP2016024519A publication Critical patent/JP2016024519A/en
Application granted granted Critical
Publication of JP6367031B2 publication Critical patent/JP6367031B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ナチュラルユーザインターフェースに関し、より詳細には、ユーザの手書き動作に基づいて電子機器を遠隔操作するためのシステムに関する。   The present invention relates to a natural user interface, and more particularly to a system for remotely operating an electronic device based on a user's handwriting action.

近年、ナチュラルユーザインターフェース(NUI)について種々検討がなされている。NUIとは、人間が自然に行う動作によって電子機器を操作するための方式であり、これまで、ジェスチャーによる操作(例えば、特許文献1)や発話(音声)による操作(例えば、特許文献2)について検討がなされてきた。   In recent years, various studies have been made on the natural user interface (NUI). NUI is a method for manipulating an electronic device by an action naturally performed by a human. Until now, an operation by a gesture (for example, Patent Document 1) or an operation by speech (voice) (for example, Patent Document 2). Consideration has been made.

しかしながら、ジェスチャーや発話を利用するこれらのNUIについては、ユーザビリティの観点からいささか疑問が残る。というのも、電化製品に対して手を振ったり話しかけたりすることに抵抗感を覚える人は決して少なくないであろうし、なじみのない特定のジェスチャーや発話を一から覚えることは、ユーザにとって大きな負担となるからである。   However, these NUIs that use gestures and utterances are somewhat questionable from the viewpoint of usability. This is because many people feel reluctant to shake hands or talk to electrical appliances, and learning specific gestures and utterances that are unfamiliar from the beginning is a heavy burden on users. Because it becomes.

特開2009−230460号公報JP 2009-230460 A 国際公開第2003/052737号International Publication No. 2003/052737

本発明は、上記従来技術における課題に鑑みてなされたものであり、本発明は、ユーザビリティの高い新規な電子機器遠隔操作システムを提供することを目的とする。   The present invention has been made in view of the above-described problems in the prior art, and an object of the present invention is to provide a new electronic device remote operation system with high usability.

本発明者は、ユーザビリティの高い電子機器遠隔操作システムの構成につき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。   As a result of intensive studies on the configuration of the electronic device remote control system with high usability, the present inventor has conceived the following configuration and arrived at the present invention.

すなわち、本発明によれば、手書きの軌跡を入力として受け付ける手書き入力受付手段と、前記手書きの軌跡からユーザが描画した内容を解析する手書き描画解析手段と、ユーザが描画した前記内容を所定の記法に照らして該ユーザが要求する電子機器の操作内容を特定する操作要求特定手段と、特定された操作内容に対応する電子機器の操作コードを生成する操作コード生成手段と、を含む、電子機器遠隔操作システムが提供される。   That is, according to the present invention, the handwriting input accepting means for accepting a handwritten locus as an input, the handwritten drawing analyzing means for analyzing the content drawn by the user from the handwritten locus, and the content drawn by the user in a predetermined notation An operation request specifying means for specifying the operation content of the electronic device requested by the user, and an operation code generating means for generating an operation code of the electronic device corresponding to the specified operation content. An operating system is provided.

上述したように、本発明によれば、ユーザビリティの高い新規な電子機器遠隔操作システムが提供される。   As described above, according to the present invention, a novel electronic device remote operation system with high usability is provided.

本実施形態の電子機器遠隔操作システムの機能ブロック図。The functional block diagram of the electronic device remote control system of this embodiment. 筆記によって遠隔操作される電子機器を示す図。The figure which shows the electronic device remotely operated by writing. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series. 電子機器を筆記によって遠隔操作する様子を時系列に示す図。The figure which shows a mode that the electronic device is operated remotely by writing in time series.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, the present invention will be described with reference to embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.

本発明は、ユーザの手書き動作に基づいた電子機器を遠隔操作するためのナチュラルユーザインターフェース(NUI)を実現することを目的とする。現在、ユーザの手書きの軌跡をデジタルデータとして取得する手段として、タッチパッド、タッチパネル、ペンタブレット、デジタルペンなどが製品化されているが、本発明の用途においては、デジタルペンが適している。というのも、デジタルペンは、ユーザにまずもって筆記用具として意識されるため、リモコンレス感覚を抱かせやすく、また、紙に筆記するという動作が最もなじみ深いものとしてユーザに受け入れられやすいからである。よって、以下では、デジタルペンを用いた実施形態について説明する。   An object of the present invention is to realize a natural user interface (NUI) for remotely operating an electronic device based on a user's handwriting action. Currently, touchpads, touch panels, pen tablets, digital pens, and the like have been commercialized as means for acquiring a user's handwritten trajectory as digital data, but digital pens are suitable for use in the present invention. This is because the digital pen is first recognized as a writing instrument by the user, so it is easy to embrace a remote control-less sensation, and it is easy for the user to accept the action of writing on paper as the most familiar thing. . Therefore, in the following, an embodiment using a digital pen will be described.

図1は、本発明の実施形態である電子機器遠隔操作システム100の機能ブロック図を示す。本実施形態の電子機器遠隔操作システム100は、デジタルペン12を含む手書き軌跡取得手段(以下、これを総称して、デジタルペン12という)と、情報処理装置50と、操作信号出力装置60とを含んで構成されている。   FIG. 1 is a functional block diagram of an electronic device remote control system 100 according to an embodiment of the present invention. The electronic device remote operation system 100 of the present embodiment includes a handwriting trajectory acquisition unit including the digital pen 12 (hereinafter collectively referred to as the digital pen 12), an information processing device 50, and an operation signal output device 60. It is configured to include.

デジタルペン12は、ユーザの手書きの軌跡をデジタルデータとして取得する機能を備える。現在、ユーザの手書きの軌跡をデジタルデータとして取得するための方式として、ペン先から発する微弱電波を用紙パッドの中に敷設したタブレット型センサーで感知することでペン先の軌跡座標を取得する方式(電磁誘導方式)、ペン先から発する超音波を2箇所のセンサで受信することで三角測量の原理に基づいてペン先の軌跡座標を計算により取得する方式(超音波方式)、用紙に印刷された微細パターン(アノトパターン)をペン先のCCDカメラで読み取ることで当該パターンからペン先の軌跡座標を取得する方式(アノトパターン方式)が実用化されているが、本実施形態におけるデジタルペン12は、いずれの方式を採用するものであってもよい。   The digital pen 12 has a function of acquiring a user's handwritten locus as digital data. Currently, as a method for acquiring a user's handwritten trajectory as digital data, a pen tip trajectory coordinate is acquired by sensing a weak radio wave emitted from the pen tip with a tablet-type sensor laid in a paper pad ( Electromagnetic induction method), ultrasonic wave emitted from the pen nib is received by two sensors and the trajectory coordinates of the nib are calculated based on the triangulation principle (ultrasonic wave method), printed on paper A method (Anoto pattern method) of acquiring a trace coordinate of the pen tip from the pattern by reading a fine pattern (Anoto pattern) with a CCD camera of the pen tip has been put into practical use. Any method may be adopted.

情報処理装置50は、コンピュータとして参照されるものであり、所定のプログラムのインストールにより、デジタルペン12が取得した手書きの軌跡を入力として受け付ける手書き入力受付部10、受け付けた手書きの軌跡からユーザが描画した内容を解析する手書き描画解析部20、ユーザが要求する電子機器の操作内容を特定する操作要求特定部30、特定された操作内容に対応する電子機器の操作コードを生成する操作コード生成部40として機能する。   The information processing apparatus 50 is referred to as a computer, and a user draws a handwriting input accepting unit 10 that accepts a handwritten locus acquired by the digital pen 12 as an input by installing a predetermined program. The handwritten drawing analysis unit 20 that analyzes the content that has been performed, the operation request specification unit 30 that specifies the operation content of the electronic device requested by the user, and the operation code generation unit 40 that generates the operation code of the electronic device corresponding to the specified operation content Function as.

操作信号出力装置60は、情報処理装置50の操作コード生成部40から入力される操作コードに基づいて操作信号を生成し、当該操作信号を操作対象となる電子機器が対応する通信媒体(電子、電波、音波、光など)に載せて無線または有線で出力する。ここで、操作信号出力装置60は、操作対象となる複数の電子機器のそれぞれが異なる通信媒体を使用するケースでは、その種類に応じた複数の信号出力手段を備える。   The operation signal output device 60 generates an operation signal based on the operation code input from the operation code generation unit 40 of the information processing device 50, and the operation signal is transmitted to a communication medium (electronic, (Radio wave, sound wave, light, etc.) Here, the operation signal output device 60 is provided with a plurality of signal output means corresponding to the type in the case where each of the plurality of electronic devices to be operated uses different communication media.

以上、本実施形態の電子機器遠隔操作システム100の構成について概説したが、本システムの利用に際して、ユーザは、予め定められた所定の記法に基づいて自身が要求する電子機器の操作の内容をデジタルペン12で紙14に描画する。これを受けて情報処理装置50では、手書き描画解析部20がユーザの描画内容を解析し、操作要求特定部30がその解析結果を所定の記法に照らすことでユーザが要求する電子機器の操作内容を特定する。   As described above, the configuration of the electronic device remote operation system 100 according to the present embodiment has been outlined. However, when using this system, the user digitally displays the content of the electronic device operation requested by the user based on a predetermined notation. Draw on paper 14 with pen 12. In response to this, in the information processing device 50, the handwritten drawing analysis unit 20 analyzes the user's drawing content, and the operation request specifying unit 30 illuminates the analysis result in accordance with a predetermined notation to request the operation content of the electronic device requested by the user. Is identified.

なお、上述した“記法“は、NUIとしてのユーザビリティを考えた場合、できる限りシンプルで直感的なものであることが望ましい。ここで、以下では、本発明が採用しうる1つの記法を提案する。それは、対象となる「電子機器」および「操作命令」を、それ自体を意味する自然な言葉(文字)とシンプルな図形の組み合わせで表現するとともに、「電子機器」と「操作命令」の対応関係をシンプルな線図で定義することを特徴とする記法である。以下においては、本記法を採用した電子機器遠隔操作システム100の具体的な利用シーンを説明する中で、本記法の内容と上述した各機能部が実行する処理の内容を明らかにしてくものとする。なお、以下の説明においては、適宜、図1を参照するものとする。   Note that the above-described “notation” is desirably as simple and intuitive as possible when considering usability as a NUI. Here, in the following, one notation that can be adopted by the present invention is proposed. It expresses the target “electronic device” and “operation instruction” with a combination of natural words (characters) and simple figures that mean itself, and the correspondence between “electronic device” and “operation instruction” Is a notation characterized by defining it with a simple diagram. In the following, in describing a specific usage scene of the electronic device remote control system 100 adopting the present notation, the contents of the present notation and the contents of the processes executed by the respective functional units will be clarified. . In the following description, FIG. 1 will be referred to as appropriate.

本利用シーンでは、図2(a)に示す初期状態から、卓上照明72と液晶テレビ74に対して以下に挙げる5つの操作を行うものとする。   In this usage scene, it is assumed that the following five operations are performed on the table lamp 72 and the liquid crystal television 74 from the initial state shown in FIG.

(操作1)卓上照明72をONする。
(操作2)卓上照明72をOFFする。
(操作3)卓上照明72とテレビ74を同時にONする。
(操作4)液晶テレビ74のチャンネルを変える。
(操作5)液晶テレビ74をOFFする。
(Operation 1) The table lamp 72 is turned on.
(Operation 2) The table light 72 is turned off.
(Operation 3) The table light 72 and the television 74 are turned on simultaneously.
(Operation 4) The channel of the liquid crystal television 74 is changed.
(Operation 5) The liquid crystal television 74 is turned off.

(操作1)
まず最初に、ユーザは、図3(a)に示すように、デジタルペン12で紙14に「Light」と描画する。一方、手書き描画解析部20の文字認識部22は、手書き入力受付部10に入力される手書きの軌跡を、常時、機械学習識別器26に照会して文字認識を実施するように構成されている。ここで、機械学習識別器26には、操作対象機器である卓上照明72を意味する文字“Light”を手書きした軌跡の学習済みデータが事前に登録されており、この場合、文字認識部22は、紙14に文字列“Light”が描画されたことを認識する。
(Operation 1)
First, as shown in FIG. 3A, the user draws “Light” on the paper 14 with the digital pen 12. On the other hand, the character recognition unit 22 of the handwriting drawing analysis unit 20 is configured to always refer to the machine learning discriminator 26 for the handwriting trajectory input to the handwriting input reception unit 10 and perform character recognition. . Here, in the machine learning discriminator 26, the learned data of the locus in which the character “Light” meaning the table light 72 that is the operation target device is handwritten is registered in advance. In this case, the character recognition unit 22 Then, it is recognized that the character string “Light” is drawn on the paper 14.

続いて、ユーザは、図3(b)に示すように、デジタルペン12で“Light”を囲うように“四角形j“を描画する。一方、手書き描画解析部20の図形認識部24は、手書き入力受付部10に入力される手書きの軌跡について、常時、機械学習識別器26に照会して図形認識を実施するように構成されている。ここで、機械学習識別器26には、操作対象機器を定義するための第1の図形である”四角形”を手書きした軌跡の学習済みデータが事前に登録されており、この場合、図形認識部24は、紙14に“四角形”が描画されたことを認識する。   Subsequently, as shown in FIG. 3B, the user draws “rectangle j” so as to surround “Light” with the digital pen 12. On the other hand, the graphic recognition unit 24 of the handwritten drawing analysis unit 20 is configured to always refer to the machine learning discriminator 26 and perform graphic recognition on the handwritten trajectory input to the handwriting input reception unit 10. . Here, in the machine learning discriminator 26, the learned data of the locus in which the “rectangle” that is the first graphic for defining the operation target device is handwritten is registered in advance. In this case, the graphic recognition unit 24 recognizes that “square” is drawn on the paper 14.

一方、操作要求特定部30の操作対象機器特定部32は、文字認識部22が認識した文字の描画領域(座標情報)と図形認識部24が認識した第1の図形の描画領域(座標情報)を常時比較して、当該文字が当該第1の図形に囲まれているか否かを判定するように構成されており、当該文字が当該第1の図形に囲まれていると判定した場合、当該文字を操作対象機器の識別情報として第1の図形(具体的には、第1の図形が占める領域の座標情報)に紐付けて操作登録部38に登録するように構成されている。   On the other hand, the operation target device specifying unit 32 of the operation request specifying unit 30 includes a character drawing area (coordinate information) recognized by the character recognizing unit 22 and a first graphic drawing area (coordinate information) recognized by the graphic recognizing unit 24. Are always compared to determine whether the character is surrounded by the first graphic, and if it is determined that the character is surrounded by the first graphic, The character is associated with the first graphic (specifically, coordinate information of the area occupied by the first graphic) as identification information of the operation target device and registered in the operation registration unit 38.

図3(b)に示すケースでは、操作対象機器特定部32は、文字列“Light”が“四角形j”に囲まれていると判定し、文字列“Light”を操作対象機器の識別情報として“四角形j”(具体的には、“四角形j”が占める領域の座標情報)に紐付けて操作登録部38に登録する。   In the case shown in FIG. 3B, the operation target device specifying unit 32 determines that the character string “Light” is surrounded by “rectangle j”, and uses the character string “Light” as identification information of the operation target device. The information is registered in the operation registration unit 38 in association with “rectangle j” (specifically, coordinate information of an area occupied by “rectangle j”).

続いて、ユーザは、図3(c)に示すように、デジタルペン12で「on」と描画する。これを受けて、文字認識部22は、手書き入力受付部10に入力される手書きの軌跡について文字認識を実施する。ここで、機械学習識別器26には、操作命令「電源ON」を意味する文字“on”を手書きした軌跡の学習済みデータが事前に登録されており、この場合、文字認識部22は、紙14に文字列“on”が描画されたことを認識する。   Subsequently, the user draws “on” with the digital pen 12 as shown in FIG. In response to this, the character recognition unit 22 performs character recognition on the handwritten trajectory input to the handwriting input reception unit 10. Here, in the machine learning discriminator 26, the learned data of the locus in which the character “on” meaning the operation command “power ON” is handwritten is registered in advance. 14 recognizes that the character string “on” is drawn.

続いて、ユーザは、図4(d)に示すように、デジタルペン12で“on”を囲うように“円形k“を描画する。これを受けて、手書き描画解析部20の図形認識部24は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して図形認識を実施する。ここで、機械学習識別器26には、操作命令を定義するための第2の図形である”円形”を手書きした軌跡の学習済みデータが事前に登録されており、この場合、図形認識部24は、紙14に“円形”が描画されたことを認識する。   Subsequently, as shown in FIG. 4D, the user draws “circular k” so as to surround “on” with the digital pen 12. In response to this, the graphic recognition unit 24 of the handwritten drawing analysis unit 20 inquires of the machine learning discriminator 26 for the handwritten trajectory input to the handwriting input reception unit 10 and performs graphic recognition. Here, in the machine learning discriminator 26, the learned data of the locus in which the “circle” that is the second graphic for defining the operation command is handwritten is registered in advance. In this case, the graphic recognition unit 24 is registered. Recognizes that “circular” is drawn on the paper 14.

一方、操作要求特定部30の操作命令特定部34は、文字認識部22が認識した文字の描画領域(座標情報)と図形認識部24が認識した第2の図形の描画領域(座標情報)を常時比較して、当該文字が当該第2の図形に囲まれているか否かを判定するように構成されており、当該文字が当該第2の図形に囲まれていると判定した場合、当該文字を操作命令の識別情報として第2の図形(具体的には、第2の図形が占める領域の座標情報)に紐付けて操作登録部38に登録するように構成されている。   On the other hand, the operation command specifying unit 34 of the operation request specifying unit 30 displays the drawing region (coordinate information) of the character recognized by the character recognizing unit 22 and the drawing region (coordinate information) of the second graphic recognized by the graphic recognizing unit 24. It is configured to determine whether or not the character is surrounded by the second graphic, and when it is determined that the character is surrounded by the second graphic, Is associated with a second graphic (specifically, coordinate information of an area occupied by the second graphic) as identification information of the operation command and registered in the operation registration unit 38.

図4(d)に示すケースでは、操作命令特定部34は、文字列“on”が“円形k”に囲まれていると判定し、文字列“on”を操作命令の識別情報として“円形k”(具体的には、“円形k”が占める領域の座標情報)に紐付けて操作登録部38に登録する。   In the case shown in FIG. 4D, the operation command specifying unit 34 determines that the character string “on” is surrounded by “circle k”, and uses the character string “on” as the identification information of the operation command “circle”. k ”(specifically, coordinate information of an area occupied by“ circular k ”) is registered in the operation registration unit 38.

続いて、ユーザは、図4(e)に示すように、デジタルペン12で“円形k“と“四角形j”を結ぶように線lを描画する。ここで、操作要求特定部30の関連付け部36は、手書き入力受付部10に入力される手書きの軌跡について、常時、その始点の座標および終点の座標が図形認識部24が認識した第1の図形および第2の図形が占めるそれぞれの領域内にあるか否かを判定するように構成されており、手書きの軌跡の始点の座標および終点の座標が第1の図形および第2の図形が占めるそれぞれの領域内にあると判定した場合、操作登録部38に登録されている第1の図形に紐付いた操作対象機器の識別情報と第2の図形に紐付いた操作命令の識別情報を関連付けるように構成されている。   Subsequently, as shown in FIG. 4E, the user draws a line l with the digital pen 12 so as to connect “circle k” and “square j”. Here, the associating unit 36 of the operation request specifying unit 30 is the first graphic in which the graphic recognition unit 24 always recognizes the coordinates of the start point and the coordinates of the end point of the handwritten trajectory input to the handwriting input receiving unit 10. And the second figure occupies the first figure and the second figure in the coordinates of the start point and the end point of the handwritten trajectory. If it is determined that it is within the area, the identification information of the operation target device associated with the first graphic registered in the operation registration unit 38 is associated with the identification information of the operation command associated with the second graphic. Has been.

図4(e)に示すケースでは、関連付け部36は、線lの始点の座標が“円形k”が占める領域内にあり、終点の座標が“四角形j”が占める領域内にあることを判定し、操作登録部38に登録されている“四角形j”に紐付いた操作対象機器の識別情報“Light”と“円形k”に紐付いた操作命令の識別情報“on”を関連付ける。   In the case shown in FIG. 4E, the associating unit 36 determines that the coordinates of the start point of the line l are in the area occupied by “circular k” and the coordinates of the end point are in the area occupied by “rectangle j”. Then, the identification information “Light” of the operation target device associated with “rectangle j” registered in the operation registration unit 38 is associated with the identification information “on” of the operation command associated with “circular k”.

一方、操作コード生成部40のトリガー操作検知部42は、手書き入力受付部10に入力される手書きの軌跡に基づいて、ユーザによる所定のトリガー操作を検知するように構成されている。ここでいうトリガー操作とは、操作の開始要求を意味する任意の操作であり、事前に定義される。本ケースでは、トリガー操作として“タップ”が定義されているものとして説明を続ける。   On the other hand, the trigger operation detection unit 42 of the operation code generation unit 40 is configured to detect a predetermined trigger operation by the user based on a handwritten trajectory input to the handwriting input reception unit 10. The trigger operation here is an arbitrary operation meaning a start request for an operation, and is defined in advance. In this case, the description will be continued assuming that “tap” is defined as the trigger operation.

続いて、ユーザは、図4(f)に示すように、“on”を囲む“円形k“が占める領域をデジタルペン12でタップする。これを受けて、トリガー操作検知部42は、タップを検知する。なお、本実施形態においては、例えば、手書きの軌跡の始点と終点の距離が所定の閾値を下回り、且つ、その描画時間の所定の閾値を下回っていることをもってタップを検知することができる。   Subsequently, as shown in FIG. 4F, the user taps an area occupied by “circular k” surrounding “on” with the digital pen 12. In response to this, the trigger operation detection unit 42 detects a tap. In the present embodiment, for example, a tap can be detected when the distance between the start point and the end point of a handwritten locus is below a predetermined threshold value and below a predetermined threshold value of the drawing time.

この判定を受けて、操作コード生成部40は、タップされた位置(座標)をキーとして操作登録部38を検索し、当該タップされた位置(座標)を包含する第2の図形に紐付いた操作命令の識別情報と、当該識別情報に関連付けられた操作対象機器の識別情報を抽出する。図4(f)に示す例の場合、操作コード生成部40は、タップされた位置(座標)を包含する“円形k”に紐付いた操作命令の識別情報“on”と、これに関連付けられた操作対象機器の識別情報“Light”を操作登録部38から抽出する。   In response to this determination, the operation code generation unit 40 searches the operation registration unit 38 using the tapped position (coordinates) as a key, and performs an operation associated with the second graphic including the tapped position (coordinates). The identification information of the command and the identification information of the operation target device associated with the identification information are extracted. In the case of the example shown in FIG. 4 (f), the operation code generation unit 40 includes the identification information “on” associated with the “circular k” including the tapped position (coordinates) and the identification information “on” associated therewith. The identification information “Light” of the operation target device is extracted from the operation registration unit 38.

続いて、操作コード生成部40は、抽出した識別情報“Light”および“on”を操作コード変換部44に入力する。ここで、操作コード変換部44は、電子機器に係る識別情報および操作命令に係る識別情報を入力として受け付け、当該電子機器に対する当該操作命令を表す操作コードを出力する手段として参照されるものであり、例えば、識別情報と操作命令を対応付けたテーブルとして構成することができる。この場合、操作コード変換部44は、識別情報(Light,on)の入力に対して、卓上照明72の電源ONに係る操作コードを出力として返す。これを受けて、操作コード生成部40は、卓上照明72の電源ONに係る操作コードを操作信号出力装置60に出力する。   Subsequently, the operation code generation unit 40 inputs the extracted identification information “Light” and “on” to the operation code conversion unit 44. Here, the operation code conversion unit 44 receives the identification information related to the electronic device and the identification information related to the operation command as inputs, and is referred to as a means for outputting an operation code representing the operation command for the electronic device. For example, it can be configured as a table in which identification information and operation instructions are associated with each other. In this case, the operation code conversion unit 44 returns, as an output, an operation code related to power-on of the table lamp 72 in response to the input of the identification information (Light, on). In response to this, the operation code generation unit 40 outputs an operation code related to power-on of the table lamp 72 to the operation signal output device 60.

操作信号出力装置60は、操作コード生成部40から入力された卓上照明72の電源ONに係る操作コードに基づいて操作信号を生成し、当該操作信号を卓上照明72が対応する通信媒体に載せて出力する。   The operation signal output device 60 generates an operation signal based on an operation code related to power-on of the table lamp 72 input from the operation code generation unit 40, and places the operation signal on a communication medium corresponding to the table lamp 72. Output.

例えば、卓上照明72が赤外線リモコン対応機である場合、操作信号出力装置60は、搭載する赤外線発光機から赤外線に載せて操作信号を出力する。また、卓上照明72がBluetooth(登録商標)規格の無線リモコン対応機である場合、操作信号出力装置60は、搭載する電波発信機から電波に載せて操作信号を出力する。これを受けて、図2(b)に示すように、卓上照明72が点灯する。   For example, when the desk lamp 72 is an infrared remote controller compatible device, the operation signal output device 60 outputs an operation signal by placing it on infrared rays from an installed infrared light emitter. In addition, when the table lamp 72 is a Bluetooth (registered trademark) standard wireless remote control compatible device, the operation signal output device 60 outputs an operation signal by placing it on a radio wave from an installed radio wave transmitter. In response to this, the table lamp 72 is turned on as shown in FIG.

(操作2)
ユーザは、図5(a)に示すように、デジタルペン12で手書き文字「off」を描画した後、これを囲うように“円形m”を描画する。これを受けて、手書き描画解析部20の文字認識部22は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して文字認識を実施し、紙14に文字列“off”が描画されたことを認識する。また、手書き描画解析部20の図形認識部24は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して図形認識を実施し、紙14に“円形”が描画されたことを認識する。
(Operation 2)
As shown in FIG. 5A, the user draws the handwritten character “off” with the digital pen 12, and then draws “circular m” so as to surround it. In response to this, the character recognition unit 22 of the handwriting drawing analysis unit 20 inquires of the machine learning discriminator 26 for the handwritten trajectory input to the handwriting input reception unit 10 and performs character recognition, and the character string on the paper 14. Recognize that “off” is drawn. Further, the graphic recognition unit 24 of the handwritten drawing analysis unit 20 inquires the machine learning discriminator 26 for the handwritten trajectory input to the handwriting input reception unit 10 to perform graphic recognition, and “circle” is drawn on the paper 14. Recognize that

このとき、操作要求特定部30の操作命令特定部34は、文字列“off”が“円形m”に囲まれていると判定し、文字列“off”を操作命令の識別情報として“円形m”(具体的には、“円形m”が占める領域の座標情報)に紐付けて操作登録部38に登録する。   At this time, the operation command specifying unit 34 of the operation request specifying unit 30 determines that the character string “off” is surrounded by “circle m”, and uses the character string “off” as “circular m” as identification information of the operation command. "(Specifically, coordinate information of an area occupied by" circular m ") is registered in the operation registration unit 38.

続いて、ユーザは、図5(b)に示すように、デジタルペン12で“円形m“と“四角形j”を結ぶように線nを描画する。これを受けて、関連付け部36は、操作登録部38に登録されている“円形m”に紐付いた操作命令の識別情報“off”と“四角形j”に紐付いた操作対象機器の識別情報“Light”を関連付ける。   Subsequently, as shown in FIG. 5B, the user draws a line n with the digital pen 12 so as to connect “circle m” and “square j”. In response, the associating unit 36 identifies the operation command identification information “off” associated with “circle m” registered in the operation registration unit 38 and the operation target device identification information “Light” associated with “rectangle j”. ”

続いて、ユーザは、図5(c)に示すように、文字列“off”を囲む“円形m“が占める領域をデジタルペン12でタップする。トリガー操作検知部42が当該タップを検知したことを受けて、操作コード生成部40は、タップされた位置(座標)をキーとして操作登録部38を検索し、当該タップされた位置(座標)を包含する“円形m”に紐付いた操作命令の識別情報“off”と、これに関連付けられた操作対象機器の識別情報“Light”を抽出する。   Subsequently, as shown in FIG. 5C, the user taps the area occupied by the “circular m” surrounding the character string “off” with the digital pen 12. In response to the trigger operation detection unit 42 detecting the tap, the operation code generation unit 40 searches the operation registration unit 38 using the tapped position (coordinate) as a key, and finds the tapped position (coordinate). The operation command identification information “off” associated with the “circle m” to be included and the operation target device identification information “Light” associated therewith are extracted.

続いて、操作コード生成部40は、抽出した識別情報“Light”および“off”を操作コード変換部44に入力し、出力として卓上照明72の電源OFFに係る操作コードを受け取って、これを操作信号出力装置60に出力する。操作信号出力装置60は、操作コード生成部40から入力された当該操作コードに基づいて操作信号を生成し、出力する。これを受けて、図2(c)に示すように、卓上照明72が消灯する。   Subsequently, the operation code generation unit 40 inputs the extracted identification information “Light” and “off” to the operation code conversion unit 44, receives an operation code related to the power-off of the table lamp 72 as an output, and operates this The signal is output to the signal output device 60. The operation signal output device 60 generates and outputs an operation signal based on the operation code input from the operation code generation unit 40. In response to this, the table lamp 72 is turned off as shown in FIG.

(操作3)
ユーザは、図6(a)に示すように、デジタルペン12で「TV」と描画した後、これを囲うように“四角形p”を描画する。これを受けて、手書き描画解析部20の文字認識部22は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して文字認識を実施し、紙14に文字列“TV”が描画されたことを認識する。また、手書き描画解析部20の図形認識部24は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して図形認識を実施し、紙14に“四角形”が描画されたことを認識する。
(Operation 3)
As shown in FIG. 6A, the user draws “TV” with the digital pen 12, and then draws a “square p” so as to surround it. In response to this, the character recognition unit 22 of the handwriting drawing analysis unit 20 inquires of the machine learning discriminator 26 for the handwritten trajectory input to the handwriting input reception unit 10 and performs character recognition, and the character string on the paper 14. Recognize that “TV” is drawn. The graphic recognition unit 24 of the handwriting drawing analysis unit 20 inquires the machine learning discriminator 26 for the handwritten trajectory input to the handwriting input reception unit 10 to perform graphic recognition, and “rectangle” is drawn on the paper 14. Recognize that

このとき、操作要求特定部30の操作命令特定部34は、文字列“TV”が“四角形p”に囲まれていると判定し、文字列“TV”を操作対象機器の識別情報として“四角形p”(具体的には、“四角形p”が占める領域の座標情報)に紐付けて操作登録部38に登録する。   At this time, the operation command specifying unit 34 of the operation request specifying unit 30 determines that the character string “TV” is surrounded by “rectangle p”, and uses the character string “TV” as identification information of the operation target device as “rectangle”. p ”(specifically, coordinate information of an area occupied by“ square p ”) is registered in the operation registration unit 38.

続いて、ユーザは、図6(b)に示すように、デジタルペン12で“四角形p“と“円形k”を結ぶように線qを描画する。これを受けて、関連付け部36は、操作登録部38に登録されている“円形k”に紐付いた操作命令の識別情報“on”と“四角形p”に紐付いた操作対象機器の識別情報“TV”を関連付ける。   Subsequently, as shown in FIG. 6B, the user draws a line q so as to connect “rectangle p” and “circle k” with the digital pen 12. In response to this, the associating unit 36 identifies the operation instruction identification information “on” associated with “circular k” registered in the operation registration unit 38 and the identification information “TV” of the operation target device associated with “square p”. ”

続いて、ユーザは、図6(c)に示すように、文字列“on”を囲む“円形k“が占める領域をデジタルペン12でタップする。トリガー操作検知部42が当該タップを検知したことを受けて、操作コード生成部40は、タップされた位置(座標)をキーとして操作登録部38を検索し、当該タップされた位置(座標)を包含する“円形k”に紐付いた操作命令の識別情報“on”に関連付けられた2つの識別情報、すなわち、操作対象機器の識別情報“Light”と操作対象機器の識別情報“TV”を抽出する。   Subsequently, as shown in FIG. 6C, the user taps the area occupied by the “circle k” surrounding the character string “on” with the digital pen 12. In response to the trigger operation detection unit 42 detecting the tap, the operation code generation unit 40 searches the operation registration unit 38 using the tapped position (coordinate) as a key, and finds the tapped position (coordinate). Two pieces of identification information associated with the identification information “on” of the operation command associated with the “circle k” to be included, that is, identification information “Light” of the operation target device and identification information “TV” of the operation target device are extracted. .

続いて、操作コード生成部40は、識別情報“Light”、“TV”、“on”を操作コード変換部44に入力し、出力として卓上照明72の電源ONNに係る操作コードならびに液晶テレビ74の電源ONに係る操作コードを受け取って、これを操作信号出力装置60に出力する。操作信号出力装置60は、操作コード生成部40から入力された当該2つの操作コードに基づいて2つの操作信号を生成し、出力する。これを受けて、図2(d)に示すように、卓上照明72と液晶テレビ74が同時に点灯する。   Subsequently, the operation code generation unit 40 inputs the identification information “Light”, “TV”, “on” to the operation code conversion unit 44, and outputs the operation code related to the power ONN of the table lamp 72 and the liquid crystal television 74. The operation code related to the power ON is received and output to the operation signal output device 60. The operation signal output device 60 generates and outputs two operation signals based on the two operation codes input from the operation code generation unit 40. In response to this, as shown in FIG. 2 (d), the table lamp 72 and the liquid crystal television 74 are turned on simultaneously.

(操作4)
ユーザは、図6(c)に示すように、デジタルペン12で、“四角形p”の内部に、「6」と描画した後、これを囲うように“円形r”を描画する。これを受けて、手書き描画解析部20の文字認識部22は、手書き入力受付部10に入力される手書きの軌跡を機械学習識別器26に照会して文字認識を実施し、紙14に数字“6”が描画されたことを認識する。
(Operation 4)
As shown in FIG. 6C, the user draws “6” inside the “square p” with the digital pen 12, and then draws “circular r” so as to surround it. In response to this, the character recognition unit 22 of the handwritten drawing analysis unit 20 inquires of the machine learning discriminator 26 for the handwritten locus input to the handwriting input reception unit 10 and performs character recognition. Recognize that 6 ″ is drawn.

このとき、操作要求特定部30の操作命令特定部34は、数字“6”が“円形r”に囲まれていると判定し、数字“6”を操作命令の識別情報として“円形r”(具体的には、“円形r”が占める領域の座標情報)に紐付けて操作登録部38に登録する。   At this time, the operation command specifying unit 34 of the operation request specifying unit 30 determines that the number “6” is surrounded by “circular r”, and uses the number “6” as “circular r” ( Specifically, it is registered in the operation registration unit 38 in association with the coordinate information of the area occupied by “circular r”.

ここで、操作要求特定部30の関連付け部36は、常時、図形認識部24が認識した第2の図形が第1の図形に囲まれているか否かを判定するように構成されており、第2の図形が第1の図形に囲まれていると判定した場合、操作登録部38に登録されている第1の図形に紐付いた操作対象機器の識別情報と第2の図形に紐付いた操作命令の識別情報を関連付けるように構成されている。   Here, the association unit 36 of the operation request specifying unit 30 is configured to always determine whether or not the second graphic recognized by the graphic recognition unit 24 is surrounded by the first graphic. If it is determined that the second graphic is surrounded by the first graphic, the identification information of the operation target device associated with the first graphic registered in the operation registration unit 38 and the operation command associated with the second graphic Is configured to associate the identification information.

図6(c)に示すケースでは、関連付け部36は、“円形r”が“四角形p”に囲まれていること判定し、操作登録部38に登録されている“円形r”に紐付いた操作命令の識別情報“6”と“四角形p”に紐付いた操作対象機器の識別情報“TV”を関連付ける。   In the case illustrated in FIG. 6C, the associating unit 36 determines that “circular r” is surrounded by “quadrangle p”, and the operation associated with “circular r” registered in the operation registering unit 38. The identification information “6” of the command is associated with the identification information “TV” of the operation target device associated with “rectangle p”.

続いて、ユーザは、図7(d)に示すように、数字“6”を囲む“円形r“が占める領域をデジタルペン12でタップする。トリガー操作検知部42が当該タップを検知したことを受けて、操作コード生成部40は、タップされた位置(座標)をキーとして操作登録部38を検索し、当該タップされた位置(座標)を包含する“円形r”に紐付いた操作命令の識別情報“6”と、これに関連付けられた操作対象機器の識別情報“TV”を抽出する。   Subsequently, as shown in FIG. 7D, the user taps the area occupied by the “circular r” surrounding the number “6” with the digital pen 12. In response to the trigger operation detection unit 42 detecting the tap, the operation code generation unit 40 searches the operation registration unit 38 using the tapped position (coordinate) as a key, and finds the tapped position (coordinate). The operation command identification information “6” associated with the “circle r” to be included and the operation target device identification information “TV” associated therewith are extracted.

続いて、操作コード生成部40は、抽出した識別情報“TV”および“6”を操作コード変換部44に入力し、出力として液晶テレビ74の電源ONに係る操作コードを受け取って、これを操作信号出力装置60に出力する。操作信号出力装置60は、操作コード生成部40から入力された当該操作コードに基づいて操作信号を生成し、出力する。これを受けて、図2(e)に示すように、液晶テレビ74のチャンネルが当初の「4」から「6」に切り替わる。   Subsequently, the operation code generation unit 40 inputs the extracted identification information “TV” and “6” to the operation code conversion unit 44, receives as an output an operation code related to the power-on of the liquid crystal television 74, and operates it. The signal is output to the signal output device 60. The operation signal output device 60 generates and outputs an operation signal based on the operation code input from the operation code generation unit 40. In response to this, as shown in FIG. 2E, the channel of the liquid crystal television 74 is switched from the initial “4” to “6”.

(操作5)
ユーザは、図7(e)に示すように、デジタルペン12で“四角形p“と“円形m”を結ぶように線sを描画する。これを受けて、関連付け部36は、操作登録部38に登録されている“円形m”に紐付いた操作命令の識別情報“off”と“四角形p”に紐付いた操作対象機器の識別情報“TV”を関連付ける。
(Operation 5)
As shown in FIG. 7E, the user draws a line s so as to connect “rectangle p” and “circular m” with the digital pen 12. In response, the associating unit 36 identifies the operation instruction identification information “off” associated with “circular m” registered in the operation registration unit 38 and the identification information “TV” of the operation target device associated with “square p”. ”

続いて、ユーザは、図7(e)に示すように、“四角形j“と“円形m”を結ぶ線nの上に“×”を描画する。ここで“×”は、第1の図形と第2の図形を結ぶように描画された線を取り消すことを意味するものとして予め決められた記号である。なお、“×”はあくまで例示であって、当該線を取り消す記号として他の記号を採用してもよいことはいうまでもない。   Subsequently, as shown in FIG. 7E, the user draws “x” on a line n connecting “rectangle j” and “circle m”. Here, “x” is a symbol determined in advance to mean that a line drawn so as to connect the first graphic and the second graphic is cancelled. Note that “x” is merely an example, and it goes without saying that other symbols may be adopted as symbols for canceling the line.

ここで、操作要求特定部30の関連付け部36は、手書き入力受付部10に入力される手書きの軌跡について、常時、“×”が2つの図形を結ぶように描画された線の上に描画されたか否かを判定するように構成されており、“×”が当該線の上に描画されたと判定した場合、操作登録部38において、当該線に基づく識別情報の関連付けを解消するように構成されている。したがって、図7(e)に示すケースでは、関連付け部36は、操作登録部38に登録されている操作対象機器の識別情報“Light“と操作命令の識別情報“off”の関連付けを解消する。   Here, the associating unit 36 of the operation request specifying unit 30 always draws a handwritten trajectory input to the handwriting input receiving unit 10 on a line drawn so that “x” connects two figures. The operation registration unit 38 is configured to cancel the association of the identification information based on the line when it is determined that “x” is drawn on the line. ing. Accordingly, in the case illustrated in FIG. 7E, the associating unit 36 cancels the association between the identification information “Light” of the operation target device registered in the operation registration unit 38 and the identification information “off” of the operation command.

続いて、ユーザは、図7(f)に示すように、文字列“off”を囲む“円形m“が占める領域をデジタルペン12でタップする。トリガー操作検知部42が当該タップを検知したことを受けて、操作コード生成部40は、タップされた位置(座標)をキーとして操作登録部38を検索し、当該タップされた位置(座標)を包含する“円形m”に紐付いた操作命令の識別情報“off”と、これに関連付けられた操作対象機器の識別情報“TV”を抽出する。このとき、線nの取り消しにより識別情報“off”と識別情報“Light”の関連付けが解消されたことを受けて、識別情報“Light”が抽出されないことに留意されたい。   Subsequently, as shown in FIG. 7F, the user taps the area occupied by the “circular m” surrounding the character string “off” with the digital pen 12. In response to the trigger operation detection unit 42 detecting the tap, the operation code generation unit 40 searches the operation registration unit 38 using the tapped position (coordinate) as a key, and finds the tapped position (coordinate). The operation command identification information “off” associated with the “circle m” to be included and the operation target device identification information “TV” associated therewith are extracted. At this time, it should be noted that the identification information “Light” is not extracted in response to the cancellation of the association between the identification information “off” and the identification information “Light” due to the cancellation of the line n.

続いて、操作コード生成部40は、操作対象機器“TV”および操作命令“off”を操作コード変換部44に入力する。これを受けて、操作コード変換部44は、当該入力(TV,off)に対して、液晶テレビ74の電源をOFFにするための操作コードを出力として返す。これを受けて、操作信号出力装置60は、操作コード変換部44から操作コードをデコードした操作信号(例えば、赤外線信号)を対応する信号出力手段(例えば、赤外線LED)から出力する。   Subsequently, the operation code generation unit 40 inputs the operation target device “TV” and the operation command “off” to the operation code conversion unit 44. In response to this, the operation code conversion unit 44 returns an operation code for turning off the power of the liquid crystal television 74 as an output in response to the input (TV, off). In response to this, the operation signal output device 60 outputs an operation signal (for example, an infrared signal) obtained by decoding the operation code from the operation code conversion unit 44 from a corresponding signal output means (for example, an infrared LED).

続いて、操作コード生成部40は、抽出した識別情報“TV”および“off”を操作コード変換部44に入力し、出力として液晶テレビ74の電源OFFに係る操作コードを受け取って、これを操作信号出力装置60に出力する。操作信号出力装置60は、操作コード生成部40から入力された当該操作コードに基づいて操作信号を生成し、出力する。これを受けて、図2(f)に示すように、卓上照明72が点灯した状態で、液晶テレビ74だけが消灯する。   Subsequently, the operation code generation unit 40 inputs the extracted identification information “TV” and “off” to the operation code conversion unit 44, receives an operation code related to power-off of the liquid crystal television 74 as an output, and operates this The signal is output to the signal output device 60. The operation signal output device 60 generates and outputs an operation signal based on the operation code input from the operation code generation unit 40. In response to this, as shown in FIG. 2 (f), only the liquid crystal television 74 is turned off while the table lamp 72 is turned on.

以上、説明したように、本実施形態の電子機器遠隔操作システム100によれば、ユーザの筆記動作に基づいて電子機器を遠隔操作するナチュラルユーザインターフェース(NUI)が実現される。その結果、ユーザは、例えば、書き物をしながらノートの余白を利用してテレビを点けたり、クーラーを消したりするといったようなことが可能になる。   As described above, according to the electronic device remote operation system 100 of the present embodiment, a natural user interface (NUI) for remotely operating an electronic device based on a user's writing operation is realized. As a result, for example, the user can turn on the TV or turn off the cooler using the margin of the notebook while writing.

本実施形態の電子機器遠隔操作システム100は、ユーザが慣れ親しんだ筆記という動作を利用するものであるため、従来のジェスチャーや発話を利用するNUIに比較して、ユーザの抵抗感が少なく、また、ユーザの学習負担も少ない。さらに、線図(文字、図形等)の認識は、ジェスチャーや発話のそれに比較して格段に容易であるため、実時間で高精度にユーザの操作要求を特定することが可能になる。将来、ユーザの筆記動作を認識するユビキタスなプラットフォームが整備された暁には、いつでもどこでも、筆記動作だけでいろいろな電子機器を操作できるようになるだろう。   Since the electronic device remote control system 100 of the present embodiment uses the operation of writing familiar to the user, the user's resistance is less than that of a conventional NUI that uses gestures and utterances. There is little learning burden on the user. Furthermore, since recognition of line diagrams (characters, graphics, etc.) is much easier than that of gestures and utterances, it becomes possible to specify user operation requests with high accuracy in real time. In the future, once a ubiquitous platform for recognizing the user's writing action is in place, it will be possible to operate various electronic devices just by writing action anytime and anywhere.

加えて、本実施形態の電子機器遠隔操作システム100によれば、複雑な操作を容易に行うことが可能になる。例えば、洗濯機の予約では、開始時間、水量、洗濯モードなど複数の条件を指定しなければならないが、これをジェスチャーや発話で行うことは難しい。この点、筆記動作を利用する本システムによれば、これを容易に行うことができる。ここで、本システムが可能にする複雑な操作の一例を説明する。本例における操作対象機器は“電子楽器(シンセサイザー)”であり、この場合、ユーザは、デジタルペン12を使用して以下のような手順で手書きを行う。   In addition, according to the electronic device remote operation system 100 of the present embodiment, it is possible to easily perform complicated operations. For example, in order to reserve a washing machine, it is necessary to specify a plurality of conditions such as the start time, the amount of water, and the washing mode, but it is difficult to do this with gestures and utterances. In this respect, according to the present system using the writing operation, this can be easily performed. Here, an example of a complex operation that can be performed by the present system will be described. The operation target device in this example is an “electronic musical instrument (synthesizer)”. In this case, the user performs handwriting using the digital pen 12 in the following procedure.

具体的には、図8(a)に示すように、
(1)“Music”という文字を手書きする。
(2)手書き文字“Music”を四角で囲む。
(3)四角の中に五線譜を描画する。
Specifically, as shown in FIG.
(1) Handwriting the characters “Music”.
(2) Surround the handwritten character “Music” with a square.
(3) Draw a staff notation in the square.

上記(1)および(2)の手書き動作を受けて、手書き描画解析部20が文字列“Music”と“四角形”を認識し、操作命令特定部34が文字列“Music”が“四角形”に囲まれたこと判定して、文字列“Music”を操作対象機器の識別情報として当該“四角形”に紐付けて操作登録部38に登録する。   In response to the handwriting operations (1) and (2) above, the handwritten drawing analysis unit 20 recognizes the character string “Music” and “square”, and the operation command specifying unit 34 changes the character string “Music” to “square”. When it is determined that the character string is enclosed, the character string “Music” is registered in the operation registration unit 38 as the identification information of the operation target device in association with the “rectangle”.

この場合、手書き描画解析部20は、五線譜の記譜内容を解析する機能を備えており、上記(3)の手書き動作を受けて、四角の中に描画された五線譜の記譜内容を解析し、その解析結果(記譜内容)を操作登録部38に登録する。   In this case, the handwritten drawing analysis unit 20 has a function of analyzing the notation contents of the staff notation, and analyzes the notation contents of the staff notation drawn in the square in response to the handwriting operation of (3) above. Then, the analysis result (notation content) is registered in the operation registration unit 38.

続いて、ユーザは、デジタルペン12を使用して以下のような手順で手書きを行う。   Subsequently, the user performs handwriting using the digital pen 12 according to the following procedure.

具体的には、図8(b)に示すように、
(4)“Pf”および“VI”という文字を描画し、それぞれを“円形“で囲う。
(5)“Pf”および“VI”を囲ったそれぞれの“円形“と“五線譜”を結ぶように線を描画する。
(6)“play”および“stop”という文字を描画し、それぞれを“円形“で囲う。
(7)“play”および“stop”を囲ったそれぞれの“円形“と“五線譜”を結ぶように線を描画する。
Specifically, as shown in FIG.
(4) Draw the characters “Pf” and “VI” and enclose each in “circle”.
(5) A line is drawn so as to connect each “circular” and “stave” surrounding “Pf” and “VI”.
(6) Draw characters “play” and “stop”, and enclose each in “circle”.
(7) Draw a line so as to connect each of the “circular” and “stave” surrounding “play” and “stop”.

上記(4)の手書き動作を受けて、手書き描画解析部20が文字列“Pf”および文字列“VI”と“円形”を認識し、操作命令特定部34が文字列“Pf”および文字列“VI”が“円形”に囲まれたこと判定して、文字列“Pf”および文字列“VI”を操作命令の識別情報としてそれぞれの“円形”に紐付けて操作登録部38に登録する。そして、関連付け部36は、各“円形”が“四角形”に囲まれていること判定し、操作登録部38に登録されている当該“円形”に紐付いた操作命令の識別情報“Pf”および“VI”と当該“四角形”に紐付いた操作対象機器の識別情報“Music”を操作登録部38において関連付ける。   In response to the handwriting operation of (4) above, the handwritten drawing analysis unit 20 recognizes the character string “Pf” and the character string “VI” and “circular”, and the operation command specifying unit 34 determines the character string “Pf” and the character string. It is determined that “VI” is surrounded by “circular”, and the character string “Pf” and the character string “VI” are associated with the respective “circular” as operation command identification information and registered in the operation registration unit 38. . Then, the associating unit 36 determines that each “circular” is surrounded by “quadrangle”, and identification information “Pf” and “Pf” of the operation instruction associated with the “circular” registered in the operation registering unit 38. The operation registration unit 38 associates the identification information “Music” of the operation target device associated with “VI” with the “square”.

同様に、上記(6)の手書き動作を受けて、手書き描画解析部20が文字列“play”および文字列“stop”と“円形”を認識し、操作命令特定部34が文字列“play”および文字列“stop”が“円形”に囲まれたこと判定して、文字列“play”および文字列“stop”を操作命令の識別情報としてそれぞれの“円形”に紐付けて操作登録部38に登録する。そして、関連付け部36は、各“円形”が“四角形”に囲まれていること判定し、操作登録部38に登録されている当該“円形”に紐付いた操作命令の識別情報(“play”、“stop”)と当該“四角形”に紐付いた操作対象機器の識別情報“Music”を操作登録部38において関連付ける。   Similarly, in response to the handwriting operation of (6), the handwritten drawing analysis unit 20 recognizes the character string “play” and the character strings “stop” and “circular”, and the operation command specifying unit 34 recognizes the character string “play”. Then, it is determined that the character string “stop” is surrounded by “circular”, and the character register “play” and the character string “stop” are associated with each “circular” as identification information of the operation command, and the operation registration unit 38. Register with. Then, the associating unit 36 determines that each “circle” is surrounded by “rectangles”, and identifies the identification information (“play”, “play”, and operation command associated with the “circle” registered in the operation registration unit 38. The operation registration unit 38 associates “stop”) with the identification information “Music” of the operation target device associated with the “rectangle”.

一方、上記(5)の手書き動作を受けて、関連付け部36は、線の両端に位置する“円形”と“五線譜”の関連を判定し、操作登録部38に登録されている当該“五線譜”の記譜内容と当該“円形”に紐付いた操作命令の識別情報(“Pf”、“VI”)を操作登録部38において紐付ける。同様に、上記(7)の手書き動作を受けて、関連付け部36は、線の両端に位置する“円形”と“五線譜”の関連を判定し、操作登録部38に登録されている当該“五線譜”の記譜内容と当該“円形”に紐付いた操作命令の識別情報(“play”、“stop”)を操作登録部38において紐付ける。   On the other hand, in response to the handwriting operation of (5) above, the associating unit 36 determines the association between “circular” and “stave” located at both ends of the line, and the “stave” registered in the operation registration unit 38. The operation registration unit 38 associates the notation contents of the operation instruction and the identification information (“Pf”, “VI”) of the operation instruction associated with the “circular”. Similarly, in response to the handwriting operation of (7) above, the associating unit 36 determines the association between “circular” and “stave” located at both ends of the line, and the “stave score” registered in the operation registration unit 38. The operation registration unit 38 associates the notation content of “” and the identification information (“play”, “stop”) of the operation command associated with the “circular”.

その後、文字列(“play”、“stop”)を囲む“円形”がデジタルペン12によってタップされたことに応答して、操作コード生成部40は、タップされた”円形“に紐付いた識別情報(“play”、“stop”)と、当該識別情報(“play”、“stop”)に紐付いた五線譜の記譜内容と、当該“五線譜”に紐付いた識別情報(“Pf”、“VI”)と、当該識別情報(“play”、“stop”)に関連付けられた操作対象機器の識別情報“Music”を操作登録部38から抽出する。   Thereafter, in response to the “circle” surrounding the character string (“play”, “stop”) being tapped by the digital pen 12, the operation code generating unit 40 identifies the identification information associated with the tapped “circle”. ("Play", "stop"), the notation content of the staff notation associated with the identification information ("play", "stop"), and the identification information ("Pf", "VI") associated with the "stave" ) And identification information “Music” of the operation target device associated with the identification information (“play”, “stop”) are extracted from the operation registration unit 38.

続いて、操作コード生成部40は、操作登録部38から抽出した内容を操作コード変換部44に入力し、出力として“電子楽器”に係る操作コードを受け取って、これを操作信号出力装置60に出力する。   Subsequently, the operation code generation unit 40 inputs the content extracted from the operation registration unit 38 to the operation code conversion unit 44, receives an operation code related to “electronic musical instrument” as an output, and sends this to the operation signal output device 60. Output.

例えば、文字列“play”を囲む“円形”がデジタルペン12によってタップされた場合、操作コード生成部40は、当該”円形“に紐付いた識別情報“play”と、当該識別情報“play”に紐付いた“五線譜“の記譜内容と、当該“五線譜”に紐付いた識別情報(“Pf”、“VI”)と、当該識別情報“play”に関連付けられた識別情報“Music”の組み合わせを操作コード変換部44に入力する。これを受けて、操作コード変換部44は、入力された“五線譜”“の記譜内容を識別情報(“Pf”、“VI”)に対応する楽器(「ピアノ」、「バイオリン」)の音色で発音するための演奏データ(例えば、MIDIデータ)を操作コードとして操作信号出力装置60に出力する。   For example, when the “circle” surrounding the character string “play” is tapped by the digital pen 12, the operation code generation unit 40 adds the identification information “play” associated with the “circle” and the identification information “play”. Manipulates the combination of the notation contents of the "stave" associated with the associated information, the identification information ("Pf", "VI") associated with the "stave", and the identification information "Music" associated with the identification information "play" Input to the code conversion unit 44. In response to this, the operation code conversion unit 44 uses the notation content of the input “staff” “tones of musical instruments (“ piano ”,“ violin ”) corresponding to the identification information (“ Pf ”,“ VI ”). The performance data (eg, MIDI data) to be generated at the time is output to the operation signal output device 60 as an operation code.

操作信号出力装置60は、操作コード生成部40から入力された当該操作コードに基づいて操作信号(MIDI信号)を生成し、 “電子楽器”に出力する。これを受けて、“電子楽器”は、手書きの五線譜に表された旋律を指定された音色で奏でる。   The operation signal output device 60 generates an operation signal (MIDI signal) based on the operation code input from the operation code generation unit 40 and outputs it to the “electronic musical instrument”. In response to this, the “electronic musical instrument” plays the melody represented in the handwritten staff in the specified tone.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではないことはいうまでもない。例えば、上述した実施形態では、操作対象機器を定義する第1の図形として“四角形”を描画し、操作命令を定義する第2の図形として“円形”を描画する記法について説明したが、第1および第2の図形として他の図形を採用してもよいことはいうまでもない。また、上述した実施形態では、操作対象機器と操作命令を関連付けるために第1の図形と第2の図形を結ぶように線を描画する記法について説明したが、他の線図表現(例えば、第1の図形と第2の図形の間に矢線を描画するなど)によって操作対象機器と操作命令を関連付けるようにしてもよいことはいうまでもない。さらに、本発明が上述した記法とは異なる他の適切な記法を考案して採用することを排除するものでないことはいうまでもない。   As mentioned above, although this invention has been demonstrated with embodiment, it cannot be overemphasized that this invention is not limited to embodiment mentioned above. For example, in the above-described embodiment, the description has been given of the notation in which “rectangle” is drawn as the first graphic defining the operation target device and “circular” is drawn as the second graphic defining the operation command. It goes without saying that other figures may be adopted as the second figure. In the above-described embodiment, the notation for drawing a line so as to connect the first graphic and the second graphic in order to associate the operation target device with the operation command has been described. However, other diagram representations (for example, the first graphic representation) Needless to say, the operation target device may be associated with the operation command by drawing an arrow line between the first graphic and the second graphic). Further, it goes without saying that the present invention does not exclude other appropriate notations from being devised and adopted.

また、上述した実施形態では、デジタルペンを使用した紙に対する筆記動作を利用して電子機器を遠隔操作する態様について説明したが、本発明は、ペンタブレットを使用した筆記動作や、タッチパッドまたはタッチパネルを使用した指による描画動作を利用して電子機器を遠隔操作する態様も含むものである。さらに、本発明においては、図1に示した全ての機能手段を1つの筐体に収容して一体化してよいし、図1に示した各機能手段を適切な単位でネットワーク上に分散配置してもよい。その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Further, in the above-described embodiment, the aspect in which the electronic device is remotely operated using the writing operation on the paper using the digital pen has been described. However, the present invention is not limited to the writing operation using the pen tablet, the touch pad, or the touch panel. It also includes a mode in which an electronic device is remotely controlled using a drawing operation with a finger using the. Furthermore, in the present invention, all the functional means shown in FIG. 1 may be housed and integrated in one housing, or each functional means shown in FIG. 1 may be distributed and arranged on the network in appropriate units. May be. In addition, it is included in the scope of the present invention as long as the effects and effects of the present invention are exhibited within the scope of embodiments that can be considered by those skilled in the art.

なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。   Note that each function of the above-described embodiment can be realized by a device-executable program described in C, C ++, C #, Java (registered trademark), and the like. The program of this embodiment includes a hard disk device, a CD-ROM. , MO, DVD, flexible disk, EEPROM, EPROM and the like can be stored and distributed in a device-readable recording medium, and can be transmitted via a network in a format that other devices can.

10…手書き入力受付部
12…デジタルペン
14…紙
20…手書き描画解析部
22…文字認識部
24…図形認識部
26…機械学習識別器
30…操作要求特定部
32…操作対象機器特定部
34…操作命令特定部
36…関連付け部
38…操作登録部
40…操作コード生成部
42…トリガー操作検知部
44…操作コード変換部
50…情報処理装置
60…操作信号出力装置
72…卓上照明
74…液晶テレビ
100…電子機器遠隔操作システム
DESCRIPTION OF SYMBOLS 10 ... Handwritten input reception part 12 ... Digital pen 14 ... Paper 20 ... Handwritten drawing analysis part 22 ... Character recognition part 24 ... Graphic recognition part 26 ... Machine learning discriminator 30 ... Operation request specific | specification part 32 ... Operation object apparatus specific part 34 ... Operation command specifying unit 36 ... Association unit 38 ... Operation registration unit 40 ... Operation code generation unit 42 ... Trigger operation detection unit 44 ... Operation code conversion unit 50 ... Information processing device 60 ... Operation signal output device 72 ... Table lamp 74 ... Liquid crystal television 100: Electronic device remote control system

Claims (15)

手書きの軌跡を入力として受け付ける手書き入力受付手段と、
前記手書きの軌跡からユーザが描画した内容を解析する手書き描画解析手段と、
ユーザが描画した前記内容を所定の記法に照らして該ユーザが要求する電子機器の操作内容を特定する操作要求特定手段と、
特定された操作内容に対応する電子機器の操作コードを生成する操作コード生成手段と、
を含み、
前記手書き描画解析手段は、
操作対象機器および操作命令を意味する文字を認識するための文字認識手段と、
操作対象機器を定義する第1の図形および操作命令を定義する第2の図形を認識するための図形認識手段と、
を含み、
前記操作要求特定手段は、
前記第1の図形に囲まれている文字を操作対象機器の識別情報として該第1の図形に紐付ける操作対象機器特定手段と、
前記第2の図形に囲まれている文字を操作命令の識別情報として該第2の図形に紐付ける操作命令特定手段と、
前記操作対象機器の識別情報と前記操作命令の識別情報を関連付ける関連付け手段と、
を含み、
前記操作コード生成手段は、
操作の開始要求を意味するトリガー操作を検知するトリガー操作検知手段を含み、前記第2の図形に対する前記トリガー操作を検知したことに応答して、該第2の図形に紐付いた操作命令の識別情報に関連付けられた操作対象機器の識別情報に係る電子機器に対する該操作命令を表す操作コードを生成する、
電子機器遠隔操作システム。
A handwriting input receiving means for receiving a handwritten locus as an input;
Handwritten drawing analysis means for analyzing the content drawn by the user from the handwritten locus;
Operation request specifying means for specifying the operation content of the electronic device requested by the user in light of a predetermined notation of the content drawn by the user;
Operation code generation means for generating an operation code of the electronic device corresponding to the specified operation content;
Only including,
The handwritten drawing analysis means includes:
A character recognition means for recognizing a character meaning an operation target device and an operation command;
Graphic recognition means for recognizing a first graphic defining an operation target device and a second graphic defining an operation command;
Including
The operation request specifying means includes:
An operation target device specifying means for associating a character surrounded by the first graphic with the first graphic as identification information of the operation target device;
An operation command specifying means for associating a character surrounded by the second graphic with the second graphic as identification information of the operation command;
Association means for associating the identification information of the operation target device with the identification information of the operation command;
Including
The operation code generation means includes
Identification information of an operation command associated with the second graphic in response to detection of the trigger operation on the second graphic, including trigger operation detection means for detecting a trigger operation meaning an operation start request Generating an operation code representing the operation instruction for the electronic device related to the identification information of the operation target device associated with
Electronic equipment remote control system.
前記所定の記法は、操作対象機器および操作命令を、それ自体を意味する文字と図形の組み合わせで表現し、該操作対象機器と該操作命令の対応関係を線図で表現する記法である、請求項1に記載の電子機器遠隔操作システム。   The predetermined notation is a notation in which an operation target device and an operation command are expressed by a combination of characters and figures meaning itself, and a correspondence relationship between the operation target device and the operation command is expressed by a diagram. Item 2. The electronic device remote control system according to Item 1. 前記手書き入力受付手段は、デジタルペンによって取得された手書きの軌跡を入力として受け付ける、請求項1または2に記載の電子機器遠隔操作システム。   The electronic device remote operation system according to claim 1, wherein the handwriting input reception unit receives a handwritten locus acquired by a digital pen as an input. 前記関連付け手段は、
前記第1の図形と前記第2の図形を結ぶように線が描画されたことに応答して、該第1の図形に紐付いた前記操作対象機器の識別情報と該第2の図形に紐付いた前記操作命令の識別情報を関連付ける、請求項1〜3のいずれか一項に記載の電子機器遠隔操作システム。
The association means includes
In response to the drawing of a line connecting the first graphic and the second graphic, the identification information of the operation target device associated with the first graphic and the second graphic are associated with each other. The electronic device remote operation system according to claim 1, wherein the identification information of the operation command is associated.
前記関連付け手段は、
前記線を取り消すことを意味する所定の記号が描画されたことに応答して、該線に基づく関連付けを解消する、請求項に記載の電子機器遠隔操作システム。
The association means includes
The electronic device remote control system according to claim 4 , wherein, in response to the drawing of a predetermined symbol that means to cancel the line, the association based on the line is canceled.
前記関連付け手段は、
前記第1の図形に前記第2の図形が囲まれている場合に、該第1の図形に紐付いた前記操作対象機器の識別情報と該第2の図形に紐付いた前記操作命令の識別情報を関連付ける、請求項1〜5のいずれか一項に記載の電子機器遠隔操作システム。
The association means includes
When the second graphic is surrounded by the first graphic, the identification information of the operation target device linked to the first graphic and the identification information of the operation command linked to the second graphic are displayed. The electronic device remote control system according to claim 1 , wherein the electronic device remote control system is associated.
前記操作コード生成手段は、
操作対象機器に係る識別情報と操作命令に係る識別情報を入力とし該操作対象機器に対する該操作命令を表す操作コードを出力とする操作コード変換手段を備え、
前記第2の図形に対する前記トリガー操作を検知したことに応答して、該第2の図形に紐付いた操作命令に係る識別情報と該識別情報に関連付けられた操作対象機器に係る識別情報を前記操作コード変換手段に入力し、該操作対象機器に対する該操作命令を表す操作コードを出力として取得する、
請求項1〜6のいずれか一項に記載の電子機器遠隔操作システム。
The operation code generation means includes
Operation code conversion means for inputting identification information related to the operation target device and identification information related to the operation command and outputting an operation code representing the operation command for the operation target device is provided.
In response to detecting the trigger operation on the second graphic, the identification information related to the operation command associated with the second graphic and the identification information related to the operation target device associated with the identification information are Input to the code conversion means, and obtain an operation code representing the operation instruction for the operation target device as an output;
The electronic device remote control system according to any one of claims 1 to 6 .
さらに、前記操作コード生成手段が取得した前記操作コードに基づいて操作信号を生成し、当該操作信号を操作対象機器が対応する通信媒体に載せて出力する操作信号出力装置を含む、請求項1〜のいずれか一項に記載の電子機器遠隔操作システム。 The operation signal output device further includes an operation signal output device that generates an operation signal based on the operation code acquired by the operation code generation unit and outputs the operation signal on a communication medium corresponding to the operation target device. The electronic device remote control system according to any one of claims 7 to 9. 電子機器を遠隔操作するためのコンピュータを、
手書きの軌跡を入力として受け付ける手書き入力受付手段、
前記手書きの軌跡からユーザが描画した内容を解析する手書き描画解析手段、
ユーザが描画した前記内容を所定の記法に照らして該ユーザが要求する電子機器の操作内容を特定する操作要求特定手段、
特定された操作内容に対応する電子機器の操作コードを生成する操作コード生成手段、
として機能させるためのプログラムであって、
前記手書き描画解析手段は、
操作対象機器および操作命令を意味する文字を認識するための文字認識手段、
操作対象機器を定義する第1の図形および操作命令を定義する第2の図形を認識するための図形認識手段、
を含み、
前記操作要求特定手段は、
前記第1の図形に囲まれている文字を操作対象機器の識別情報として該第1の図形に紐付ける操作対象機器特定手段と、
前記第2の図形に囲まれている文字を操作命令の識別情報として該第2の図形に紐付ける操作命令特定手段と、
前記操作対象機器の識別情報と前記操作命令の識別情報を関連付ける関連付け手段と、
を含み、
前記操作コード生成手段は、
操作の開始要求を意味するトリガー操作を検知するトリガー操作検知手段を含み、前記第2の図形に対する前記トリガー操作を検知したことに応答して、該第2の図形に紐付いた操作命令の識別情報に関連付けられた操作対象機器の識別情報に係る操作対象機器に対する該操作命令を表す操作コードを生成する、
コンピュータ実行可能なプログラム。
A computer for remote control of electronic devices,
Handwriting input accepting means for accepting a handwritten locus as an input;
Handwritten drawing analysis means for analyzing the content drawn by the user from the handwritten locus;
An operation request specifying means for specifying the operation content of the electronic device requested by the user in light of a predetermined notation of the content drawn by the user;
Operation code generation means for generating an operation code of the electronic device corresponding to the specified operation content;
Is a program for functioning as
The handwritten drawing analysis means includes:
A character recognition means for recognizing a character meaning an operation target device and an operation command;
Graphic recognition means for recognizing a first graphic defining an operation target device and a second graphic defining an operation command;
Including
The operation request specifying means includes:
An operation target device specifying means for associating a character surrounded by the first graphic with the first graphic as identification information of the operation target device;
An operation command specifying means for associating a character surrounded by the second graphic with the second graphic as identification information of the operation command;
Association means for associating the identification information of the operation target device with the identification information of the operation command;
Including
The operation code generation means includes
Identification information of an operation command associated with the second graphic in response to detection of the trigger operation on the second graphic, including trigger operation detection means for detecting a trigger operation meaning an operation start request Generating an operation code representing the operation command for the operation target device related to the identification information of the operation target device associated with
A computer executable program.
前記所定の記法は、操作対象機器および操作命令を、それ自体を意味する文字と図形の組み合わせで表現し、該操作対象機器と該操作命令の対応関係を線図で表現する記法である、請求項に記載のプログラム。 The predetermined notation is a notation in which an operation target device and an operation command are expressed by a combination of characters and figures meaning itself, and a correspondence relationship between the operation target device and the operation command is expressed by a diagram. Item 10. The program according to Item 9 . 前記手書き入力受付手段は、デジタルペンによって取得された手書きの軌跡を入力として受け付ける、請求項または10に記載のプログラム。 The program according to claim 9 or 10 , wherein the handwriting input receiving unit receives a handwritten locus acquired by a digital pen as an input. 前記関連付け手段は、
前記第1の図形と前記第2の図形を結ぶように線が描画されたことに応答して、該第1の図形に紐付いた前記操作対象機器の識別情報と該第2の図形に紐付いた前記操作命令の識別情報を関連付ける、請求項9〜11のいずれか一項に記載のプログラム。
The association means includes
In response to the drawing of a line connecting the first graphic and the second graphic, the identification information of the operation target device associated with the first graphic and the second graphic are associated with each other. The program according to any one of claims 9 to 11, which associates identification information of the operation instruction.
前記関連付け手段は、
前記線を取り消すことを意味する所定の記号が描画されたことに応答して、該線に基づく関連付けを解消する、請求項12に記載のプログラム。
The association means includes
13. The program according to claim 12 , wherein in response to drawing of a predetermined symbol that means to cancel the line, the association based on the line is canceled.
前記関連付け手段は、
前記第1の図形に前記第2の図形が囲まれている場合に、該第1の図形に紐付いた前記操作対象機器の識別情報と該第2の図形に紐付いた前記操作命令の識別情報を関連付ける、請求項9〜13のいずれか一項に記載のプログラム。
The association means includes
When the second graphic is surrounded by the first graphic, the identification information of the operation target device linked to the first graphic and the identification information of the operation command linked to the second graphic are displayed. The program according to any one of claims 9 to 13 , which is associated.
前記操作コード生成手段は、
電子機器に係る識別情報と操作命令に係る識別情報を入力とし該電子機器に対する該操作命令を表す操作コードを出力とする操作コード変換手段を備え、
前記第2の図形に対する前記トリガー操作を検知したことに応答して、該第2の図形に紐付いた操作命令に係る識別情報と該識別情報に関連付けられた電子機器に係る識別情報を前記操作コード変換手段に入力し、該電子機器に対する該操作命令を表す操作コードを出力として取得する、
請求項9〜14のいずれか一項に記載のプログラム。
The operation code generation means includes
Comprising operation code conversion means for inputting identification information relating to an electronic device and identification information relating to an operation instruction, and outputting an operation code representing the operation instruction for the electronic device;
In response to detecting the trigger operation on the second graphic, identification information related to an operation command associated with the second graphic and identification information related to an electronic device associated with the identification information are stored in the operation code. Input to the conversion means, and obtain an operation code representing the operation instruction for the electronic device as an output;
The program as described in any one of Claims 9-14 .
JP2014146470A 2014-07-17 2014-07-17 Electronic device remote control system and program Expired - Fee Related JP6367031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014146470A JP6367031B2 (en) 2014-07-17 2014-07-17 Electronic device remote control system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146470A JP6367031B2 (en) 2014-07-17 2014-07-17 Electronic device remote control system and program

Publications (2)

Publication Number Publication Date
JP2016024519A JP2016024519A (en) 2016-02-08
JP6367031B2 true JP6367031B2 (en) 2018-08-01

Family

ID=55271254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146470A Expired - Fee Related JP6367031B2 (en) 2014-07-17 2014-07-17 Electronic device remote control system and program

Country Status (1)

Country Link
JP (1) JP6367031B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106254918A (en) * 2016-08-31 2016-12-21 苏州见真物联科技有限公司 There is the TV remote controller of hand-write input function
KR102655584B1 (en) 2017-01-02 2024-04-08 삼성전자주식회사 Display apparatus and controlling method thereof
CN107678606B (en) * 2017-11-17 2023-12-26 普天智能照明研究院有限公司 Control device and method for remote control of electrical equipment
JP7006198B2 (en) * 2017-12-01 2022-01-24 富士フイルムビジネスイノベーション株式会社 Information processing equipment, information processing systems and programs
WO2022009338A1 (en) * 2020-07-08 2022-01-13 マクセル株式会社 Information processing terminal, remote control method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3219527B2 (en) * 1993-03-25 2001-10-15 三洋電機株式会社 Information processing device
US5889506A (en) * 1996-10-25 1999-03-30 Matsushita Electric Industrial Co., Ltd. Video user's environment
JP4210846B2 (en) * 2003-07-18 2009-01-21 ソニー株式会社 Video display device
JP4784367B2 (en) * 2006-03-29 2011-10-05 カシオ計算機株式会社 Device control device and device control processing program
KR101509245B1 (en) * 2008-07-31 2015-04-08 삼성전자주식회사 User interface apparatus and method using pattern recognition in portable terminal
JP2011203829A (en) * 2010-03-24 2011-10-13 Seiko Epson Corp Command generating device, method of controlling the same, and projector including the same
JP2014102669A (en) * 2012-11-20 2014-06-05 Toshiba Corp Information processor, information processing method and program

Also Published As

Publication number Publication date
JP2016024519A (en) 2016-02-08

Similar Documents

Publication Publication Date Title
KR101554221B1 (en) Method and apparatus for playing musical instrument using portable terminal
JP6367031B2 (en) Electronic device remote control system and program
CN100391103C (en) Integrated keypad system
US7831933B2 (en) Method and system for implementing a user interface for a device employing written graphical elements
US9304602B2 (en) System for capturing event provided from edge of touch screen
JP6275839B2 (en) Remote control device, information processing method and system
JP2010205069A (en) Input device
US20030067450A1 (en) Interactive system and method of interaction
US20100171700A1 (en) Method and apparatus for text entry
JPWO2012011263A1 (en) Gesture input device and gesture input method
KR20110010906A (en) Method and device for controlling electronic devices using user interaction
CA2937958A1 (en) Input processing system for information processing device
US20170344113A1 (en) Hand-held controller for a computer, a control system for a computer and a computer system
US9117376B2 (en) System and methods for sensing finger position in digital musical instruments
US20220129126A9 (en) System for capturing event provided from edge of touch screen
KR20160143428A (en) Pen terminal and method for controlling the same
KR101053411B1 (en) Character input method and terminal
EP3338457B1 (en) Audio apparatus, driving method for audio apparatus, and computer readable recording medium
CN101398971A (en) Touch type remote control system and method
TWI901842B (en) Apparatus and method for entering logograms into an electronic device
KR20090111943A (en) Apparatus and method for simulating musical instrument performance using touch screen
US20140210732A1 (en) Control Method of Touch Control Device
KR20160087692A (en) Electronic device and operation method of the same
KR20030067729A (en) Stylus computer
KR101155349B1 (en) Writing Image Input Device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180704

R150 Certificate of patent or registration of utility model

Ref document number: 6367031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees