JP2018026117A - Image display device, image display system and program - Google Patents
Image display device, image display system and program Download PDFInfo
- Publication number
- JP2018026117A JP2018026117A JP2017137881A JP2017137881A JP2018026117A JP 2018026117 A JP2018026117 A JP 2018026117A JP 2017137881 A JP2017137881 A JP 2017137881A JP 2017137881 A JP2017137881 A JP 2017137881A JP 2018026117 A JP2018026117 A JP 2018026117A
- Authority
- JP
- Japan
- Prior art keywords
- graphic
- image display
- display device
- attribute
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】一又は複数の図形の中から、画像を選択し、選択された図形の属性が判定されることで、適切に図形を表示することができる画像表示装置等を提供する。【解決手段】文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能な画像表示装置であって、図形を入力する図形入力手段と、前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、前記表示された画像の一部の領域を特定する領域特定手段と、前記特定された領域に含まれている図形を取得する図形取得手段と、前記取得された図形と、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信手段と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide an image display device or the like capable of appropriately displaying a figure by selecting an image from one or a plurality of figures and determining the attribute of the selected figure. An image display device capable of displaying an image in which a figure including characters is arranged, which can communicate with another image display device, the figure input means for inputting the figure, and one or more of the input. An image display means for displaying an image in which a figure is arranged, an area specifying means for specifying a part of the displayed image, and a figure acquiring means for acquiring a figure included in the specified area. A graphic transmission means for transmitting the acquired graphic and the attribute of the graphic used when the other image display device displays the graphic on the other image display device. [Selection diagram] Fig. 1
Description
本発明は画像表示装置等に関する。 The present invention relates to an image display device and the like.
近年、大型のディスプレイを設けた画像表示装置が普及しつつあることから、当該画像表示装置を電子黒板のように利用して、会議や授業が行われる場面が増えつつある。一方で、個人が所持する中小型の携帯端末も普及が進んでいることから、これを会議室や教室に設置された共用の大型画像表示装置と連携させることで、利用者間での情報共有や意見交換を円滑にし、会議や授業の利便性を向上するための試みが行われている。 In recent years, an image display device provided with a large-sized display is becoming widespread. Therefore, there are increasing scenes where meetings and classes are performed using the image display device like an electronic blackboard. On the other hand, since small and medium-sized mobile terminals possessed by individuals are also spreading, information can be shared among users by linking this with a shared large image display device installed in a conference room or classroom Attempts are being made to facilitate the exchange of opinions and improve the convenience of meetings and classes.
このとき、各利用者は自分が利用しているタブレット状の端末装置から、上述した画像表示装置にメモを送信する発明が開示されている(例えば、特許文献1参照)。 At this time, an invention is disclosed in which each user transmits a memo from the tablet-shaped terminal device used by the user to the above-described image display device (see, for example, Patent Document 1).
近年利用者側の端末装置も大型化しており、複数のメモを記載し、必要に応じて画像表示装置に表示させたいという場合がある。しかし、従来は、送信するメモを記載するに過ぎず、端末装置で入力した複数の図形やメモの中から選択して送信するということはできなかった。 In recent years, terminal devices on the user side have also become larger, and there are cases where a plurality of memos are written and displayed on an image display device as necessary. However, conventionally, only a memo to be transmitted is described, and it has not been possible to select and transmit from a plurality of figures or memos input by the terminal device.
更に上記特許文献1では、貼り付けたメモの属性(例:色、大きさ、形状、重要度、所有者)を指定することはできず、このため、複数のメモが表示装置に貼り付けられた場合には、同様の形状のメモが複数表示されて見づらい・重要なメモとそうでないメモが混在して見づらい・誰が書いたメモか区別できない、という課題があり、円滑な意見交換や情報共有を進める上で障害があった。 Furthermore, in the above-mentioned patent document 1, it is not possible to specify the attributes (eg, color, size, shape, importance, owner) of the pasted memo, and for this reason, a plurality of memos are pasted on the display device. If there are multiple notes with the same shape, it is difficult to see. It is difficult to see important notes and notes that are not. It is difficult to distinguish who wrote notes. Smooth exchange of opinions and information sharing. There was an obstacle in advancing.
また、画像表示装置が大型化していることから、例えばテーブルとして画像表示装置が利用され、その場で入力するといった利用方法が提案されている。このような場合に、手書きされたメモに属性を付する場合、メニューやアイコンからその都度選択する必要があり、使い勝手が悪いといった問題が生じていた。 Moreover, since the image display apparatus is increasing in size, for example, an image display apparatus is used as a table, and a usage method is proposed in which input is performed on the spot. In such a case, when an attribute is attached to a handwritten memo, it is necessary to select it from a menu or an icon each time, and there is a problem that the usability is poor.
上述した課題を解決するために、本発明は、表示された一又は複数の図形の中から図形が選択され、当該選択された図形の属性が判定され、当該属性に基づいて適切に図形を表示させることができる画像表示装置等を提供することである。 In order to solve the above-described problem, the present invention selects a figure from one or more displayed figures, determines an attribute of the selected figure, and appropriately displays the figure based on the attribute. It is to provide an image display device or the like that can be used.
上述した課題を解決するために、本発明の画像表示装置は、
文字を含む図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定手段と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示手段と、
を備えることを特徴とする。
In order to solve the above-described problems, an image display device according to the present invention includes:
A figure input means for inputting a figure including characters;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determination means for determining an attribute of a graphic used when displaying the graphic with respect to the acquired graphic;
Graphic display means for displaying the acquired graphic based on the attribute of the determined graphic;
It is characterized by providing.
本発明の画像表示装置は、
文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能な画像表示装置であって、
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信手段と、
を備えることを特徴とする。
The image display device of the present invention is
An image display device capable of communicating with another image display device capable of displaying an image on which a graphic including characters is arranged,
A figure input means for inputting a figure;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determining means for determining the attribute of the graphic used when the other image display device displays the graphic for the acquired graphic;
A graphic transmission means for transmitting the acquired graphic and the attribute of the graphic for display on another image display device;
It is characterized by providing.
本発明のプログラムは、コンピュータに、
文字を含む図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定機能と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示機能と、
を実現させることを特徴とする。
The program of the present invention is stored in a computer.
Figure input function to input figures including characters,
An image display function for displaying an image in which the one or more input figures are arranged;
An area specifying function for specifying a partial area of the displayed image;
A figure acquisition function for acquiring a figure included in the specified area;
An attribute determination function for determining an attribute of a graphic used for displaying the graphic with respect to the acquired graphic;
A graphic display function for displaying the acquired graphic based on the attribute of the determined graphic;
It is characterized by realizing.
本発明のプログラムは、文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能なコンピュータに、
図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定機能と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信機能と、
を実現させることを特徴とする。
The program of the present invention is a computer capable of communicating with another image display device capable of displaying an image in which graphics including characters are arranged.
Figure input function to input figures,
An image display function for displaying an image in which the one or more input figures are arranged;
An area specifying function for specifying a partial area of the displayed image;
A figure acquisition function for acquiring a figure included in the specified area;
An attribute determination function for determining the attribute of the graphic used when the other image display device displays the graphic with respect to the acquired graphic;
A graphic transmission function for transmitting the acquired graphic and the attribute of the graphic to be displayed on another image display device;
It is characterized by realizing.
本発明の画像表示システムは、
文字を含む図形が配置された画像を表示可能な第1の画像表示装置及び第2の画像表示装置を含む画像表示システムであって、
前記第1の画像表示装置は、
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを第2の画像表示装置に送信する図形送信手段と、
を備え、
前記第2の画像表示装置は、前記第1の画像表示装置から受信された図形を表示することを特徴とする。
The image display system of the present invention includes:
An image display system including a first image display device and a second image display device capable of displaying an image in which a graphic including characters is arranged,
The first image display device includes:
A figure input means for inputting a figure;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determining means for determining the attribute of the graphic used when the other image display device displays the graphic for the acquired graphic;
Graphic transmission means for transmitting the acquired graphic and the attribute of the graphic to the second image display device;
With
The second image display device displays a graphic received from the first image display device.
本発明によれば、画像表示装置において、一又は複数の図形が配置された画像が表示されており、表示された画像から一部の領域が特定される。そして、特定された領域に含まれている図形について、当該図形を表示する場合に用いられる図形の属性を判定する。そして、当該取得された図形を、判定された図形の属性に基づいて表示することができるようになる。 According to the present invention, an image on which one or a plurality of figures are arranged is displayed on the image display device, and a partial region is specified from the displayed image. Then, for the graphic included in the specified area, the attribute of the graphic used when displaying the graphic is determined. Then, the acquired graphic can be displayed based on the determined attribute of the graphic.
以下、本発明の画像表示装置を用いた画像表示システム1について説明する。なお、各実施形態は本発明を説明する都合上記載したものであり、本発明の範囲が以下の実施形態に限定されるものではない。 Hereinafter, an image display system 1 using the image display device of the present invention will be described. Each embodiment is described for convenience of explaining the present invention, and the scope of the present invention is not limited to the following embodiment.
[1.第1実施形態]
[1.1 システム構成]
まず、第1実施形態について説明する。第1実施形態は、画像表示装置として、タブレット等の可搬型の表示装置である端末装置10と、大型のディスプレイ等の据え置き型の表示装置20とを含んで構成されている。
[1. First Embodiment]
[1.1 System configuration]
First, the first embodiment will be described. 1st Embodiment is comprised including the
端末装置10と、表示装置20とは、接続可能に構成されている。例えば、本実施形態では、LAN(無線LAN、有線LAN)を介して通信可能に接続されている。接続方法としては、他にもBluetooth(登録商標)や、ZigBee(登録商標)といった近距離無線通信等で接続されても良い。すなわち、端末装置10と、表示装置20とが通信可能な接続方式であれば方法を問わないこととする。
The
[1.2 機能構成]
続いて、機能構成について図に基づいて説明する。
[1.2 Functional configuration]
Subsequently, the functional configuration will be described with reference to the drawings.
[1.2.1 端末装置]
まず、端末装置10の機能構成について、図2に基づいて説明する。端末装置10は、制御部100と、表示部110と、タッチ検出部120と、画像処理部130と、通信部140と、記憶部150とを備えて構成される。
[1.2.1 Terminal device]
First, the functional configuration of the
制御部100は、端末装置10の全体を制御するための機能部である。制御部100は、記憶部150に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。
The
表示部110は、各種コンテンツ等を表示する機能部である。例えば、LCD(liquid crystal display:液晶ディスプレイ)や、有機ELディスプレイ等により構成されている。また、表示部110には、表示領域全体に全体画像が表示されており、当該全体画像に図形が表示されている。
The
タッチ検出部120は、利用者からのタッチ操作を検出することにより、操作入力を実現するための機能部である。例えば、表示部110と一体に構成されてタッチパネル等により実現される。タッチ操作を検出方法としては、静電容量方式、電磁誘導方式、赤外線方式といった何れかの方法を用いて検出できれば良い。また、検出箇所としても、1点であっても良いし、複数点検出可能であっても良い。
The
また、タッチ検出部120により、図形が入力されることとなる。例えば、利用者から入力されたタッチされた座標を検出し、検出された座標からストローク情報が記憶される。そして、ストローク情報に基づいて図形を認識して、図形データ152に記憶される。また、当該図形は、そのまま全体画像に表示されることとなる。
In addition, a graphic is input by the
画像処理部130は、画像処理を実現するための機能部である。画像処理部130としては、例えば、入力された図形(手書き文字)から文字認識を行ってテキスト文字を出力したり、表示されている全体画像の中から囲領域の画像を切り出したりといった、各種画像処理が実現される。また、ストローク情報から図形に変換したり、ベクトルデータをラスタデータに変換したりする処理を行う。
The
この画像処理部130は、必要に応じて処理毎にプログラムとして記憶部150に記憶され、必要に応じて読み出されて実行されることにより、実現されてもよい。
The
通信部140は、端末装置10が通信を行う為の機能部である。例えば、IEEE802.11a/b/g/nといった無線LANを利用したり、Bluetooth等の近距離無線通信を利用したりする。なお、LTE通信等により一般的な通信を行っても良い。
The
記憶部150は、端末装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部150は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。
The
また、記憶部150には、各種プログラムの他に、図形データ152と、付箋画像データ154とが記憶されている。
The
図形データ152は、手描き入力される(例えば、ストローク描画される)ことにより記憶されたストローク情報に基づく手書き文字、手書き図形や、他の入力装置(例えば、スキャナ等)から入力された画像、他の装置から受信されて記憶される画像が記憶されている。
The
例えば、利用者により手書き入力されたストローク情報が集まることにより、一つのグループ化された図形として記憶される。また、スキャナ、デジタルカメラや、画像ファイル等からJPEGデータや、BMPデータといった画像ファイルが記憶される。 For example, stroke information input by handwriting by the user is collected and stored as one grouped figure. Also, image files such as JPEG data and BMP data are stored from scanners, digital cameras, image files, and the like.
ここで、本明細書における図形とは、文字、記号を含む概念である。ここで文字(記号)は、利用者がタッチペンや手、マウス等で書いた文字である手書き文字と、ASCIIコードやJISコード、Unicode等で示されるテキスト文字とが含まれる。 Here, the figure in this specification is a concept including characters and symbols. Here, the characters (symbols) include handwritten characters that are characters written by the user with a touch pen, hand, mouse, etc., and text characters indicated by ASCII codes, JIS codes, Unicode, and the like.
したがって、図形データ152には、キーボード等の入力手段で入力されたテキスト文字(列)や、受信されたテキスト文字(列)等が記憶される。この場合、例えばテキスト文字(列)と、表示領域の位置する座標、テキスト領域としての座標も併せて記憶されても良い。
Accordingly, the
また、図形は、複数の文字である文字列からなる場合もある。すなわち、手書き入力された場合には、第1の時間間隔で入力されたストロークが一つの手書き文字として認識される。また、この手書き文字が連続して入力されることにより、手書き文字列として認識される。これらが、図形として図形データ152に記憶される。
In addition, the figure may be composed of a character string that is a plurality of characters. That is, when handwriting is input, the stroke input at the first time interval is recognized as one handwritten character. Moreover, when this handwritten character is continuously input, it is recognized as a handwritten character string. These are stored in the
また、各図形は、表示部110の表示領域における座標を記憶していてもよい。そして、各図形が座標にしたがって表示されることにより、全体画像として表示部110に表示されることとなる。
Each figure may store coordinates in the display area of the
付箋画像データ154は、利用者により図形から一部切り出して生成されるデータである。切り出された一又は複数の図形を付箋画像データと記憶されていても良いし、全体画像から切り抜いた画像を付箋画像データと記憶しても良い。また、切り出した図形がベクトルデータや、ストローク情報に基づく図形の場合には、一度ラスタデータに変換して切り抜いても良い。
The
[1.2.2 表示装置]
つづいて、表示装置20の機能構成について図3に基づいて説明する。図3に示すように、表示装置20は、制御部200と、表示部210と、操作入力部220と、通信部240と、記憶部250とを備えて構成されている。
[1.2.2 Display device]
Next, the functional configuration of the
制御部200は、表示装置20の全体を制御するための機能部である。制御部200は、記憶部250に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。
The
表示部210は、各種コンテンツ等を表示する機能部である。例えば、LCD(liquid crystal display:液晶ディスプレイ)や、有機ELディスプレイ等により構成されている。また表示部210には全体画像が表示されており、その中に図形が表示される。
The
操作入力部220は、利用者からの操作入力を実現するための機能部である。例えば、外付けのキーボードやマウス、表示部210と一体に構成されてタッチパネル等により実現される。タッチ操作を検出方法としては、静電容量方式、電磁誘導方式、赤外線方式といった何れかの方法を用いて検出できれば良い。また、検出箇所としても、1点であっても良いし、複数点検出可能であっても良い。
The
通信部240は、表示装置20が通信を行う為の機能部である。例えば、IEEE802.11a/b/g/nといった無線LANを利用したり、Bluetooth等の近距離無線通信を利用したりする。
The
記憶部250は、表示装置20の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部250は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。
The
また、記憶部250には、各種プログラムの他に、図形データ252と、付箋画像データ254と、付箋データ256とが記憶されている。
In addition to the various programs, the
図形データ252は、表示装置20において入力された図形と、端末装置10から受信された図形とが記憶される。記憶された図形データが、表示部210の表示領域に表示されることとなる。図形データ252は、図形データ152と同一の種類のデータで記憶されるため、詳細な説明は省略する。
The
また、端末装置10から受信されるのが付箋画像データ254である。付箋画像データ254に基づいて、付箋データ256が生成されて記憶される。
Also, the
ここで、本実施形態で説明する付箋データとは、図形を一つのまとまりとして管理可能にするデータである。付箋データは、単に表示させるだけでなく、色を変えたり、表示領域内において移動して表示させたりするといったことも可能である。 Here, the sticky note data described in the present embodiment is data that makes it possible to manage a figure as one unit. The tag data is not only displayed, but can be changed in color or moved and displayed in the display area.
付箋データとして含まれるものは、付箋画像データに含まれる図形であっても良いし、手書き文字から変換されたテキスト文字であっても良い。また、付箋データは、表示/非表示を切り替えられたり、貼り付け、削除といったことが自由に行えることとしてもよい。 What is included as the tag data may be a graphic included in the tag image data, or may be a text character converted from a handwritten character. In addition, the tag data may be displayed / hidden switched, pasted, or deleted freely.
また付箋データは、表示されている他のコンテンツ(例えば、図形や画像)に重畳的に表示されても良いし、単独で表示されても良い。 The sticky note data may be displayed superimposed on other displayed content (for example, a graphic or an image), or may be displayed alone.
[1.3 処理の流れ]
続いて本実施形態における処理の流れについて図に基づいて説明する。
[1.3 Process flow]
Next, the flow of processing in the present embodiment will be described with reference to the drawings.
[1.3.1 処理の概要]
まず、本実施形態における付箋データの生成について説明する。ここでは、端末装置10において実行される場合について説明するが、表示装置20において実行されてもよい。また、後述するように、処理によって端末装置10と、表示装置20とで切り分けて実行されても良い。
[1.3.1 Overview of processing]
First, generation of sticky note data in the present embodiment will be described. Here, although the case where it performs in the
まず、図4(a)は、図形として手書き文字列B10「締切り」が表示されている。手書き文字列B10は、表示部110の表示領域上に表示されている。
4A, the handwritten character string B10 “Deadline” is displayed as a graphic. The handwritten character string B <b> 10 is displayed on the display area of the
利用者により、この手書き文字列B10を囲むように選択(特定)される。このとき選択されることにより、特定された領域を囲領域R10とする。すなわち、このストロークは、手書き文字列B10を囲むように形成されているため、付箋選択入力であることが認識される。 The user selects (specifies) the handwritten character string B10 so as to surround it. The area specified by the selection at this time is defined as a surrounding area R10. That is, since this stroke is formed so as to surround the handwritten character string B10, it is recognized that it is a sticky note selection input.
付箋選択入力であることが認識されると、当該手書き文字列B10を含むように囲領域の座標が取得される。この囲領域の座標は、図4(b)の領域R12の座標である。この領域R12に含まれている手書き文字列B10が付箋画像データT10として認識される(図4(c))。 When it is recognized that the input is a tag selection input, the coordinates of the surrounding area are acquired so as to include the handwritten character string B10. The coordinates of the surrounding area are the coordinates of the area R12 in FIG. The handwritten character string B10 included in the region R12 is recognized as the tag image data T10 (FIG. 4C).
付箋画像データT10と認識されたデータは、他の装置に送信可能である。また、付箋画像データT10から、付箋データH10に変換されたのが図4(d)である。本図においては、付箋データH10と変換されたことにより、手書き文字列「締切り」は、テキスト文字列「締切り」に変換されている。テキスト文字列に変換されることにより、テキスト文字の追加、編集といったことが可能となる。また、付箋データには、色情報、形状、所用者、大きさといった付箋の属性(付箋に付随する情報)が記憶されている。 The data recognized as the tag image data T10 can be transmitted to another device. Also, FIG. 4D shows the conversion from the tag image data T10 to the tag data H10. In this figure, the handwritten character string “deadline” is converted into the text character string “deadline” by being converted to the tag data H10. By converting to a text character string, it becomes possible to add or edit text characters. The tag data stores tag attributes (information attached to the tag) such as color information, shape, user, and size.
また、囲領域で選択される図形は複数であっても良い。この場合、図形毎に付箋データを表示することとしても良いし、まとめて一つの付箋データとして表示することとしても良い。また、異なる種類の図形(例えば、文字と画像)が選択された場合は、図形毎に付箋データを表示したり、付箋選択入力をキャンセルしたりしても良い。 In addition, a plurality of figures may be selected in the surrounding area. In this case, it is good also as displaying sticky note data for every figure, and good also as displaying collectively as one sticky note data. When different types of figures (for example, characters and images) are selected, the sticky note data may be displayed for each figure or the sticky note selection input may be canceled.
[1.3.2 シーケンス図]
続いて第1実施形態について、図5に基づいて説明する。図5は、付箋データに基となる付箋画像データを送信する送信側の処理と、受信する受信側の処理を表したシーケンス図である。本実施形態では、送信側として端末装置10を、受信側として表示装置20を例に説明する。
[1.3.2 Sequence diagram]
Next, the first embodiment will be described with reference to FIG. FIG. 5 is a sequence diagram showing processing on the transmitting side for transmitting the tag image data based on the tag data and processing on the receiving side for reception. In the present embodiment, the
まず、端末装置10で手書き入力が検知された場合(ステップS102;Yes)、入力座標を取得する(ステップS104)。そして取得された座標をストローク情報として記憶する(ステップS106)。 First, when handwritten input is detected by the terminal device 10 (step S102; Yes), input coordinates are acquired (step S104). The acquired coordinates are stored as stroke information (step S106).
ここで、囲領域を形成していない場合は(ステップS108;No)、この記憶されたストローク情報は、図形として図形データ152に記憶される。このストローク情報から、例えば手書き文字(列)として記憶されたり、線分等として記憶されたりする方法については、何れかの従来技術を利用すれば良い。
If no surrounding area is formed (step S108; No), the stored stroke information is stored in the
ここで、ストロークが囲領域を形成している場合には(ステップS108;Yes)、付箋選択入力と判定し、囲領域の座標を取得する(ステップS110)。 If the stroke forms a surrounding area (step S108; Yes), it is determined that a sticky note is selected and the coordinates of the surrounding area are acquired (step S110).
ここで、囲領域の座標としては、例えば囲領域を含む座標を抽出すれば良い。また、ここで、囲領域の位置が所定の位置か否かを判定しても良い(ステップS112)。具体的には、例えば入力可能領域のうち、付箋選択入力として認識可能な位置を設定しておき、当該位置で囲領域が形成された場合には付箋選択入力として認識しても良い。 Here, as the coordinates of the surrounding area, for example, coordinates including the surrounding area may be extracted. Here, it may be determined whether or not the position of the surrounding area is a predetermined position (step S112). Specifically, for example, a position that can be recognized as a sticky note selection input in the input possible area may be set, and may be recognized as a sticky note selection input when a surrounding area is formed at the position.
また、表示領域全体において処理を実行する場合には、ステップS112の判定は行われなくても良い。すなわち、ステップS110の次にステップS114に処理を進めても良い。 Further, when the process is executed in the entire display area, the determination in step S112 may not be performed. That is, the process may proceed to step S114 after step S110.
続いて、囲領域に基づいて付箋画像データを取得する(ステップS112;Yes→ステップS114)。すなわち、囲領域に含まれる図形を取得し、付箋画像データとして取得する。そして、取得された付箋画像データを受信側である表示装置20に送信する(ステップS116)。
Subsequently, the sticky note image data is acquired based on the surrounding area (step S112; Yes → step S114). That is, a figure included in the surrounding area is acquired and acquired as sticky note image data. Then, the acquired tag image data is transmitted to the
受信側である表示装置20は、付箋画像データを受信すると(ステップS150)、付箋画像データに基づいて付箋データに変換する(ステップS152)。具体的には、付箋データに手書き文字(列)が含まれている場合には、テキスト文字(列)に変換する処理を行う。なお、そのまま手書き文字(列)として表示しても良い。
When receiving the tag image data (step S150), the
続いて、付箋データの表示位置を決定し(ステップS154)、付箋データを表示する(ステップS156)。 Subsequently, the display position of the tag data is determined (step S154), and the tag data is displayed (step S156).
付箋データの表示位置の決定の仕方としては複数の方法が考えられる。まず、初期設定として付箋データを表示する位置を決めておき、当該初期設定の位置に付箋データを表示する方法が考えられる。他にも、付箋画像データを送信した端末装置10によって、付箋データの表示位置を決めても良い。例えば、画面を4等分し、端末毎に表示するエリアを決めてもよい。
There are a plurality of methods for determining the display position of the tag data. First, a method of determining a position for displaying sticky note data as an initial setting and displaying the sticky note data at the initial setting position is conceivable. In addition, the display position of the tag data may be determined by the
[1.4 動作例]
続いて、本実施形態における動作例について図6を用いて説明する。図6(a)は、端末装置10の表示領域に、2つの図形が表示されている。手書き文字列B100「アイデア」と、手書き文字列B110「締切り」が表示されている。
[1.4 Operation example]
Next, an operation example in the present embodiment will be described with reference to FIG. In FIG. 6A, two graphics are displayed in the display area of the
このとき、利用者によって、矩形R100が入力される。この入力が囲領域であることから、付箋選択入力であると認識される。矩形R100に含まれている手書き文字列B100が、付箋画像データとして取得されることとなる。 At this time, the rectangle R100 is input by the user. Since this input is a surrounding area, it is recognized as a sticky note selection input. The handwritten character string B100 included in the rectangle R100 is acquired as sticky note image data.
この付箋画像データが、端末装置10から表示装置20に送信される。表示装置20は、付箋画像データに基づいて付箋データH100を表示する。付箋データH100においては、手書き文字列「アイデア」は、テキスト文字列「アイデア」に変換されて表示されている。
This sticky note image data is transmitted from the
この付箋データH100は、利用者により自由に移動することが可能であり、大きさを変えることも可能である。また、本実施形態のように、テキスト文字に変換されることで、文字(列)の編集を行うことも可能である。 The tag data H100 can be freely moved by the user, and the size can be changed. In addition, as in the present embodiment, it is possible to edit a character (string) by being converted into a text character.
このように、本実施形態によれば、利用者は必要な図形を囲む操作を行うことで、一の画像表示装置で入力された図形を、他の画像表示装置に付箋データとして送信し、表示することができる。 As described above, according to the present embodiment, the user performs an operation of enclosing a necessary graphic, thereby transmitting the graphic input by one image display device to another image display device as sticky note data and displaying it. can do.
これにより、例えば利用者が自分で使っている端末装置(例えば、タブレット等の画像表示装置)を利用して入力操作を行うことができる。また、複数の利用者がいた場合であっても、各端末装置から図形を入力し、送信することが可能となる。 Thereby, for example, an input operation can be performed using a terminal device (for example, an image display device such as a tablet) used by the user. Further, even when there are a plurality of users, it is possible to input a graphic from each terminal device and transmit it.
[2.第2実施形態]
第2実施形態について説明する。第2実施形態は、付箋選択入力において、選択入力の方法に基づいて付箋データの属性についても認識する処理である。すなわち、選択入力された領域(囲領域)の属性に応じて、付箋データの属性が認識される。
[2. Second Embodiment]
A second embodiment will be described. The second embodiment is processing for recognizing the attributes of tag data based on the selection input method in tag selection input. In other words, the attribute of the tag data is recognized in accordance with the attribute of the area (enclosed area) selected and input.
なお、本実施形態におけるシステムの構成は上述した第1実施形態と同じであり、その構成等の説明は省略する。本実施形態では、第1実施形態と異なる箇所を中心に説明する。 Note that the system configuration in the present embodiment is the same as that of the first embodiment described above, and a description of the configuration and the like is omitted. In the present embodiment, description will be made centering on points different from the first embodiment.
[2.1 データ構成]
図7は、第1実施形態における記憶部150を、記憶部150bに置き換えるものである。図7に示すように、記憶部150bには、図形データ152と、付箋画像データ154と、付箋データ属性判定テーブル156とが記憶されている。
[2.1 Data structure]
7 replaces the
付箋データ属性判定テーブル156は、付箋選択入力として入力される囲領域の属性、本実施形態では囲領域ストローク(形状)に応じて、付箋データの属性を記憶しているテーブルである。例えば、図8(a)に示すように、領域の属性であるストローク形状(例えば、「円形」)に対応づけて、付箋データの属性(例えば、色として「赤」)が記憶されている。 The tag data attribute determination table 156 is a table that stores the tag data attribute according to the attribute of the surrounding area input as a tag selection input, in this embodiment, the surrounding area stroke (shape). For example, as shown in FIG. 8A, the attribute (for example, “red” as the color) of the tag data is stored in association with the stroke shape (for example, “circular”) that is the attribute of the region.
なお、本実施形態では、付箋データの属性として色を例に説明するが、例えば大きさ(フォントサイズ)や、フォントの種類、付箋データの境界色といった他の表示パターンを記憶しても良い。 In this embodiment, color is used as an example of the attribute of the tag data, but other display patterns such as size (font size), font type, and border color of the tag data may be stored.
[2.2 処理の流れ]
本実施形態の処理の流れを図9のシーケンス図に基づいて説明する。なお、第1実施形態と同一の処理には、同一の符号を付してその説明を省略する。
[2.2 Process flow]
The processing flow of this embodiment will be described based on the sequence diagram of FIG. In addition, the same code | symbol is attached | subjected to the process same as 1st Embodiment, and the description is abbreviate | omitted.
検出されたストロークが囲領域であり、付箋選択入力と判定された場合には(ステップS102〜ステップS112;Yes)、囲ったストロークの形状を判定し(ステップS202)、当該判定されたストロークの形状に基づいて付箋データの属性(付箋データ属性)を判定する(ステップS204)。具体的には、付箋データ属性判定テーブル156に基づいて付箋データ属性を判定する。 If the detected stroke is a surrounding area and it is determined that a sticky note is selected (step S102 to step S112; Yes), the shape of the enclosed stroke is determined (step S202), and the determined stroke shape is determined. Based on the tag, the attribute of the tag data (tag data attribute) is determined (step S204). Specifically, the tag data attribute is determined based on the tag data attribute determination table 156.
続いて、囲領域に基づいて、付箋画像データを取得する(ステップS114)。その後、取得した付箋画像データと、付箋データ属性とを表示装置20に送信する(ステップS206)。なお、他の情報(例えば、付箋の大きさ等の種々の情報)と、付箋データ属性とを含めた付箋付加情報として送信しても良い。 Subsequently, sticky note image data is acquired based on the surrounding area (step S114). Thereafter, the acquired sticky note image data and sticky note data attributes are transmitted to the display device 20 (step S206). In addition, you may transmit as other information (for example, various information, such as a tag size), and tag additional information including a tag data attribute.
また、本実施形態における処理の流れは一例であり、データに矛盾が生じない範囲で前後しても良い。例えば、最初に囲領域に基づいて付箋画像データを取得した後に、付箋データ属性を判定しても良い(ステップS206→ステップS204)。 Further, the flow of processing in the present embodiment is an example, and may be changed within a range where no contradiction occurs in the data. For example, the tag data attribute may be determined after first acquiring the tag image data based on the surrounding area (step S206 → step S204).
表示装置20は、付箋画像データと付箋データ属性とを受信する(ステップS252)。この後、付箋データに変換し、付箋データ表示位置を決定する(ステップS152→S154)。
The
そして、受信された付箋データ属性に基づいて、付箋データの属性を決定する(ステップS254)。そして、決定された付箋データの属性に基づいて、付箋データを表示する(ステップS256)。 Then, the attribute of the tag data is determined based on the received tag data attribute (step S254). Then, the sticky note data is displayed based on the determined attribute of the sticky note data (step S256).
[2.3 動作例]
第2実施形態の動作例について、図10に基づいて説明する。図10(a)は、第1実施形態において、端末装置10から送信された付箋画像データに基づく付箋データH100が、表示装置20に表示されている図である。
[2.3 Example of operation]
The operation example of 2nd Embodiment is demonstrated based on FIG. FIG. 10A is a diagram in which sticky note data H100 based on the sticky note image data transmitted from the
この状態で、手書き文字列B110である「締切り」が、ストロークで示された囲領域R110で選択されている。この場合、手書き文字列B110を含む付箋画像データが取得され、表示装置20に送信される。また、このとき、併せて付箋データの属性が送信される。
In this state, the “deadline” that is the handwritten character string B110 is selected in the surrounding area R110 indicated by the stroke. In this case, tag image data including the handwritten character string B110 is acquired and transmitted to the
表示装置20は、受信された付箋画像データから変換された付箋データH110が表示されているのが図10(b)である。第1実施形態の付箋データH100のように、囲領域のストロークの形状が矩形である場合と、本実施形態の付箋データH110のように、囲領域のストロークの形状が円形である場合とで付箋データの属性が変化している。すなわち、付箋データH100と、付箋データH110とでは異なる色で表示されている。
In the
このように、本実施形態によれば、利用者が図形を選択するときに選択する形状を切り替えることで、付箋データの属性を容易に切り替えることが可能となる。 As described above, according to the present embodiment, the attribute of the tag data can be easily switched by switching the shape to be selected when the user selects the graphic.
また、付箋データの属性を決定する囲領域のストロークの形状と、付箋データの属性とは、利用者が任意に設定することとしても良い。これにより、好きな形状に、好きな属性(例えば、色)を割り当てることが可能となる。 Further, the shape of the stroke of the surrounding area for determining the attribute of the tag data and the attribute of the tag data may be arbitrarily set by the user. Thereby, a favorite attribute (for example, color) can be assigned to a favorite shape.
また、付箋データ属性判定テーブル156は、表示装置20に記憶し、付箋データの属性判定を表示装置20で行っても良い。すなわち、端末装置10から、付箋画像データと、囲領域のストローク情報が表示装置20に送信される。そして、表示装置20において、当該送信された情報から、付箋データの属性を判定することとしても良い。
Further, the tag data attribute determination table 156 may be stored in the
[3.第3実施形態]
第3実施形態について説明する。第3実施形態は、付箋データの属性として、色等の表示属性について設定したが、内容的な属性を設定しても良い。
[3. Third Embodiment]
A third embodiment will be described. In the third embodiment, the display attribute such as color is set as the attribute of the tag data, but a content attribute may be set.
第3実施形態は、第2実施形態において、図8(a)の付箋データ属性判定テーブル156を、図8(b)の付箋データ属性判定テーブルに置き換えたものである。 In the third embodiment, the tag data attribute determination table 156 in FIG. 8A is replaced with the tag data attribute determination table in FIG. 8B in the second embodiment.
すなわち、ストローク形状に対応づけて、属性(例えば、重要度として「高」)が記憶されることとする。すなわち、付箋データの属性として、重要度といった内容的な属性を付加することが可能である。これらの属性は、例えば「消去可能」「消去不可」といった属性や、所有者を示す属性(例えば、円形の場合はAさん、矩形の場合はBさん)といったものであってもよい。 That is, an attribute (for example, “high” as importance) is stored in association with the stroke shape. That is, it is possible to add a content attribute such as importance as an attribute of the tag data. These attributes may be attributes such as “erasable” and “non-erasable”, and attributes indicating the owner (for example, Mr. A for a circle and Mr. B for a rectangle).
当該決定された付箋データの属性に応じて、付箋データが表示される(図9のステップS254→S256)。これにより、付箋データは、付箋データ属性に応じた挙動を行うことになる。例えば、重要度が「高」の付箋データは「消去不可」と設定されている場合、当該付箋データについて利用者は消去することができないといったことになる。 The sticky note data is displayed according to the determined attribute of the sticky note data (steps S254 → S256 in FIG. 9). Thereby, the sticky note data behaves according to the sticky note data attribute. For example, if the tag data with the importance level “high” is set to “cannot be deleted”, the user cannot delete the tag data.
また、表示装置20は、これらの属性に応じて表示形式を変更しても良い。例えば、重要度が高いものは「赤」で表示したり、「大きく」表示したりしても良い。
The
このように、本実施形態によれば、単なる表示以外についても、描画パターンに基づいて、付箋データの属性を容易に付すことが可能となる。 As described above, according to the present embodiment, it is possible to easily attach the attribute of the tag data based on the drawing pattern other than simple display.
[4.第4実施形態]
第4実施形態について説明する。第4実施形態は付箋データに属性を付す場合に、ストロークの形状ではない、囲領域の属性に基づいて設定する。
[4. Fourth Embodiment]
A fourth embodiment will be described. In the fourth embodiment, when an attribute is attached to tag data, the attribute is set based on the attribute of the surrounding area, not the shape of the stroke.
第4実施形態は、第3実施形態において、図8(b)の付箋データ属性判定テーブル156を、図8(c)の付箋データ属性判定テーブルに置き換えたものである。すなわち、囲領域の属性として、例えば「右回り」「左回り」といった属性に応じて、付箋データの属性(本実施形態では所有者「A」)とが対応づけられている。 In the fourth embodiment, the tag data attribute determination table 156 in FIG. 8B is replaced with the tag data attribute determination table in FIG. 8C in the third embodiment. That is, as the attribute of the surrounding area, for example, the attribute of the tag data (the owner “A” in this embodiment) is associated with the attributes such as “clockwise” and “counterclockwise”.
例えば、囲領域の属性として、他にも例えば「2本指で囲領域のストロークが検出された」や、「他の操作と共に囲領域が入力された」といったことを設定することも可能である。 For example, as an attribute of the surrounding area, it is also possible to set, for example, “a stroke of the surrounding area is detected with two fingers” or “the surrounding area is input together with other operations”. .
また、付箋データの属性としては、上述したように、大きさや、色、重要度といった他の属性が設定されても良い。 Further, as described above, other attributes such as size, color, and importance may be set as the attribute of the tag data.
例えば、第4実施形態の動作例を図11に示す。端末装置10には、手書き文字列B200と、手書き文字列B210とが表示されている。そして、手書き文字列B200は、右回りに囲領域R200が選択され、手書き文字列B210は左回りに囲領域R210が選択されている。
For example, an operation example of the fourth embodiment is shown in FIG. On the
ここで、囲領域により選択され、変換された付箋データが表示装置20に表示されている。付箋データH200と、付箋データH210とは属性が異なっているため、表示も異なったものとなっている。
Here, the tag data selected and converted by the surrounding area is displayed on the
このように、本実施形態によれば、付箋選択入力が行われるときの、囲領域の選択の仕方に応じて、付箋データの属性を容易に変更することが可能となる。 As described above, according to the present embodiment, it is possible to easily change the attribute of the tag data according to the way of selecting the surrounding area when the tag selection input is performed.
[5.第5実施形態]
第5実施形態は、付箋データの認識を表示装置20側で行う場合の実施形態である。本実施形態については、第1実施形態の図5で示した処理フローを、図12で置き換えた実施形態である。図12に基づいて、本実施形態の処理の流れについて説明する。
[5. Fifth Embodiment]
The fifth embodiment is an embodiment in the case where recognition of tag data is performed on the
端末装置10において、図形を含む画像が表示されている。この中から、付箋データとした図形を、囲領域で選択して、表示装置20に画像データを送信する(ステップS302)。
In the
表示装置20は、画像データを受信すると(ステップS310)、受信された画像データから、図形認識処理を実行し(ステップS312)、画像から図形を取得する。
When receiving the image data (step S310), the
ここで、画像から図形を取得する方法としては種々の方法が考えられるが、画像データと共にストローク情報が送信されている場合にはストローク情報を参照して図形を認識する。また、画像がベクトルデータであった場合は、ベクトルデータを参照して図形を認識する。また、ラスタデータであった場合には、図形の形状から図形を認識する。 Here, various methods are conceivable as a method for acquiring a graphic from an image. When stroke information is transmitted together with image data, the graphic is recognized with reference to the stroke information. When the image is vector data, the figure is recognized with reference to the vector data. In the case of raster data, the figure is recognized from the figure shape.
ここで、認識された図形の中に所定の図形データが検出された場合、検出された図形の形状を判定する(ステップS314;Yes→ステップS316)。例えば、囲領域の形状を検出したり、囲領域の中に他の図形が含まれている場合の図形の形状を検出したりする。そして、検出された形状は、付箋選択入力であると判定し、検出された領域に含まれる図形を、付箋画像データとして取得する(ステップS318)。 Here, when predetermined graphic data is detected in the recognized graphic, the shape of the detected graphic is determined (step S314; Yes → step S316). For example, the shape of the surrounding area is detected, or the shape of a figure when another figure is included in the surrounding area is detected. Then, it is determined that the detected shape is a sticky note selection input, and a graphic included in the detected area is acquired as sticky note image data (step S318).
そして、付箋画像データから付箋データに変換し、付箋データの表示位置を決定し(ステップS320)、付箋データの属性を決定する(ステップS322)。そして、変換された付箋データ、付箋データの表示位置、属性に基づいて付箋データを表示する(ステップS324)。 Then, the tag image data is converted to the tag data, the display position of the tag data is determined (step S320), and the attribute of the tag data is determined (step S322). Then, the sticky note data is displayed based on the converted sticky note data, the display position and the attribute of the sticky note data (step S324).
そして、画像に含まれる付箋データを全て表示していない場合には処理を繰り返し実行し(ステップS326;No→ステップS316)、表示された場合には本処理を終了する(ステップS326;Yes)。 If not all the sticky note data included in the image is displayed, the process is repeatedly executed (step S326; No-> step S316). If displayed, the process is terminated (step S326; Yes).
このように本実施形態によれば、端末装置10から一括して画像を送信することにより、必要な付箋データを表示装置20で表示することができる。その都度付箋画像データを送信する必要が無くなり、端末装置10、表示装置20間の通信のトラフィックを減らすことが可能となる。また、端末装置10より表示装置20の方が処理能力が高い場合には、一括して処理できるという効果が期待できる。
As described above, according to the present embodiment, the necessary sticky note data can be displayed on the
[6.第6実施形態]
続いて、第6実施形態について説明する。第6実施形態は、付箋選択入力として選択される囲領域に基づいて付箋画像データを取得する場合、囲領域から外れていても、同じ図形グループの場合は、付箋画像データとして取得する場合の実施形態である。
[6. Sixth Embodiment]
Subsequently, a sixth embodiment will be described. In the sixth embodiment, when the sticky image data is acquired based on the surrounding area selected as the sticky note selection input, even if the sticky image data is out of the surrounding area but is in the same graphic group, the sticky image data is acquired. It is a form.
本実施形態では、第1実施形態の図5の処理フローのステップS114において、囲領域に基づいて付箋画像データを取得している。すなわち、第1実施形態は囲領域に含まれる図形を付箋画像データとして取得した。 In this embodiment, in step S114 of the processing flow of FIG. 5 of the first embodiment, the sticky note image data is acquired based on the surrounding area. That is, in the first embodiment, a graphic included in the surrounding area is acquired as sticky note image data.
本実施形態は、当該図形の一部が囲領域に含まれている場合は、当該図形を付箋画像データとして取得することとする。 In this embodiment, when a part of the figure is included in the surrounding area, the figure is acquired as sticky note image data.
図13を参照して説明する。図13の手書き文字列B400は、「アイデア」で一つの図形を構成している。すなわち、ストローク情報に基づいて、「ア」等の手書き文字が構成されている。そして、手書き文字「イ」「デ」「ア」が集まり、手書き文字列「アイデア」が構成されている。 This will be described with reference to FIG. The handwritten character string B400 in FIG. 13 constitutes one figure with “idea”. That is, handwritten characters such as “A” are configured based on the stroke information. The handwritten characters “I”, “De”, “A” gather, and the handwritten character string “Idea” is formed.
ここで、囲領域R400には、「アイデ」の部分が含まれている。しかし、「アイデ」が含まれる図形は手書き文字列B400「アイデア」である。したがって、この場合、「アイデア」の図形が囲領域に含まれる図形として取得される。 Here, the encircling region R400 includes an “ideal” portion. However, the graphic including “ide” is the handwritten character string B400 “idea”. Therefore, in this case, the “idea” graphic is acquired as a graphic included in the surrounding area.
そして、表示装置20の表示画面には、付箋データH400として「アイデア」が表示されることとなる。すなわち、手書き文字列「アイデア」から、テキスト文字列「アイデア」に変換され、付箋データとして表示されることになっている。
Then, “idea” is displayed as the tag data H400 on the display screen of the
このように、本実施形態によれば、利用者が手書き文字列を初めとする図形を選択する場合、当該図形が含まれる領域を選択すれば良い。 As described above, according to the present embodiment, when the user selects a graphic including a handwritten character string, the region including the graphic may be selected.
[7.第7実施形態]
第7実施形態について説明する。第7実施形態は、囲領域により選択された付箋画像データについて、送信前に選択動作を行う場合の実施形態である。
[7. Seventh Embodiment]
A seventh embodiment will be described. The seventh embodiment is an embodiment in the case where a selection operation is performed before transmission for tag image data selected by the surrounding area.
第7実施形態は、第1実施形態において図5で示した端末装置10の処理を、図14の処理フローに置き換えた実施形態である。なお、図5と同一の処理については、同一の符号を付してその説明を省略する。
The seventh embodiment is an embodiment in which the processing of the
囲領域に基づいて付箋画像データを取得した後(ステップS114)、囲領域に対するタッチ操作があったか否かを判定する(ステップS502)。ここで、タッチ操作があった場合は取得した付箋画像データを表示装置20に送信する(ステップS116)。 After acquiring the tag image data based on the surrounding area (step S114), it is determined whether or not there is a touch operation on the surrounding area (step S502). Here, if there is a touch operation, the acquired tag image data is transmitted to the display device 20 (step S116).
本実施形態における動作例を図15に示す。図15(a)は、囲領域R500により、手書き文字列B500が選択されている。この時点で、利用者が囲領域R500の中をタッチする(タップ操作する)と、付箋画像データが表示装置20に送信される。これにより、図15(b)に示すように付箋データH500が表示される。
An example of operation in the present embodiment is shown in FIG. In FIG. 15A, the handwritten character string B500 is selected by the surrounding area R500. At this time, when the user touches (performs a tap operation) in the surrounding area R500, the tag image data is transmitted to the
このように、本実施形態によれば、囲領域により付箋画像データが選択された後に利用者が任意のタイミングで付箋画像データを送信することができる。これにより、例えば、複数の付箋データを表示する場合に、利用者が好きな順序で表示させたりすることが可能となる。 As described above, according to the present embodiment, after the tag image data is selected by the surrounding area, the user can transmit the tag image data at an arbitrary timing. Thereby, for example, when a plurality of sticky note data is displayed, it is possible to display them in an order that the user likes.
なお、ステップS502の処理としては、ステップS114の後に実行しているのは一例であり、例えばステップS114の前に実行しても良い。すなわち、タッチ操作が検出された後に、付箋画像データが取得されることとしても良い。 In addition, as a process of step S502, what is performed after step S114 is an example, For example, you may perform before step S114. That is, the sticky note image data may be acquired after the touch operation is detected.
また、ステップS502が検出タイミングとしては所定の時間タイミングを判断しても良い。例えば、5秒以内にタッチ操作がなければ付箋画像データはキャンセル(選択されなかったことなる)としても良い。 Further, step S502 may determine a predetermined time timing as the detection timing. For example, if there is no touch operation within 5 seconds, the tag image data may be canceled (that is, not selected).
[8.第8実施形態]
第8実施形態について説明する。第8実施形態は、囲領域により選択された付箋画像データについて、送信前にキャンセル動作を行う場合の実施形態である。
[8. Eighth Embodiment]
An eighth embodiment will be described. The eighth embodiment is an embodiment in the case where a cancel operation is performed before transmission for the tag image data selected by the surrounding area.
第8実施形態は、第1実施形態において図5で示した端末装置10の処理フローを、図16の処理フローに置き換えた実施形態である。なお、図5と同一の処理については、同一の符号を付してその説明を省略する。
The eighth embodiment is an embodiment in which the processing flow of the
囲領域に基づいて付箋画像データを取得した後(ステップS114)、囲領域の領域外に対するタッチ操作があったか否かを判定する(ステップS522)。ここで、領域外のタッチ操作があった場合は取得した付箋画像データをキャンセルし、表示装置20に付箋画像データを送信しない(ステップS524)。 After the tag image data is acquired based on the surrounding area (step S114), it is determined whether or not a touch operation has been performed outside the surrounding area (step S522). Here, if there is a touch operation outside the area, the acquired tag image data is canceled and the tag image data is not transmitted to the display device 20 (step S524).
他方、領域外にタッチ操作が検出されなかった場合には、取得した付箋画像データを送信する(ステップS522;No→ステップS116)。なお、領域外に対するタッチ操作が有ったか否かの判定は、所定時間内にタッチされたか否かで判定する。例えば、3秒以内にタッチされなかった場合には、ステップS522はNoとして、取得した付箋画像データを表示装置20に送信する。
On the other hand, if no touch operation is detected outside the area, the acquired tag image data is transmitted (step S522; No → step S116). Note that whether or not there is a touch operation outside the area is determined based on whether or not the touch operation is performed within a predetermined time. For example, if the touch is not made within 3 seconds, the result of step S522 is No, and the acquired tag image data is transmitted to the
本実施形態における動作例を図17に示す。図17(a)は、囲領域R520により、手書き文字列B520が選択されている。この時点で、利用者が囲領域R520の領域外のP520をタッチする(タップ操作する)と、囲領域R520により選択された付箋画像データがキャンセルされる。 An operation example in this embodiment is shown in FIG. In FIG. 17A, the handwritten character string B520 is selected by the surrounding area R520. At this point, when the user touches (tap-operates) P520 outside the surrounding area R520, the tag image data selected by the surrounding area R520 is cancelled.
すなわち、図17(b)に示すように、表示装置20には付箋データがキャンセルされたことにより表示されていない。
That is, as shown in FIG. 17B, the sticky note data is not displayed on the
このように、本実施形態によれば、囲領域により付箋画像データが選択された後に利用者が付箋画像データをキャンセルすることができる。これにより、例えば、不要な図形を選択してしまった場合でも、キャンセルすることにより、表示装置に表示させないことが可能となる。 Thus, according to this embodiment, the user can cancel the tag image data after the tag image data is selected by the surrounding area. Thereby, for example, even when an unnecessary figure is selected, it is possible to prevent the display from being displayed on the display device by canceling.
[9.第9実施形態]
第9実施形態について説明する。第9実施形態は、ストローク情報から付箋選択入力ではなく、通常の図形入力に切り替える実施形態である。
[9. Ninth Embodiment]
A ninth embodiment will be described. The ninth embodiment is an embodiment that switches from stroke information to normal graphic input instead of sticky note selection input.
本実施形態は、上述した実施形態と組み合わせて説明することができるが、例えば、第8実施形態と組み合わせた場合について説明する。 Although this embodiment can be described in combination with the above-described embodiment, for example, a case where it is combined with the eighth embodiment will be described.
すなわち、第8実施形態、図16のステップS524において付箋画像データをキャンセルする処理を実行しているが、このとき、ストローク情報に基づいて端末装置10上で実際に線図を描画しても良い。
That is, in the eighth embodiment, the processing for canceling the sticky note image data is executed in step S524 of FIG. 16, but at this time, a diagram may be actually drawn on the
この場合の動作例を図18に示す。図18(a)は、第8実施形態の図17(a)と同様であり、手書き文字列B520の周りを囲領域R520で選択している。そして、囲領域R520の領域外のP520が利用者によりタッチされている。 An example of the operation in this case is shown in FIG. FIG. 18A is the same as FIG. 17A of the eighth embodiment, and the surrounding area R520 is selected around the handwritten character string B520. The user touches P520 outside the area of the surrounding area R520.
この場合、図18(b)に示すように、囲領域R520は、そのまま線図である図形B522として表示されている。すなわち、付箋選択入力のストローク情報が、そのまま図形描画のストローク情報として利用されることとなる。 In this case, as shown in FIG. 18B, the surrounding area R520 is displayed as a figure B522 which is a diagram as it is. That is, the stroke information of the sticky note selection input is used as it is as the stroke information for drawing the figure.
このように、本実施形態によれば、付箋選択入力と、図形の描画入力とを切り替えて利用者は入力することができる。この切替えは、他の実施形態と組み合わせても良い。例えば、囲領域の形状によって切り替えても良いし、囲領域の属性によって切り替えても良い。また、第7実施形態において、囲領域内がタッチされた場合が図形の描画入力(すなわち付箋画像データが送信されない)とし、何もされない場合に付箋画像データが送信されるという構成としても良い。 Thus, according to the present embodiment, the user can input by switching between the tag selection input and the graphic drawing input. This switching may be combined with other embodiments. For example, the switching may be performed according to the shape of the surrounding area, or may be switched depending on the attribute of the surrounding area. Further, in the seventh embodiment, it may be configured such that a figure drawing input (that is, no sticky note image data is not transmitted) is made when the inside of the surrounding area is touched, and sticky note image data is sent when nothing is done.
[10.第10実施形態]
第10実施形態について説明する。第10実施形態は、囲領域で図形を選択した後に、メニュー表示を行って動作を行う実施形態である。
[10. Tenth Embodiment]
A tenth embodiment will be described. The tenth embodiment is an embodiment in which an operation is performed by displaying a menu after selecting a figure in the surrounding area.
本実施形態の動作例について、図19を参照して説明する。図19(a)は、手書き文字列B600を、囲領域R600により選択した場合の図である。このとき、端末装置10の表示画面にはメニュー表示M600がされている。
An operation example of this embodiment will be described with reference to FIG. FIG. 19A is a diagram when the handwritten character string B600 is selected by the surrounding area R600. At this time, a menu display M600 is displayed on the display screen of the
ここで利用者により、メニュー表示M600に表示されているメニューからこの後の動作を選択することにより、付箋画像データに対する挙動が決定する。例えば、「付箋転送」を選択した場合には、図19(b)に示すように、付箋データH600が表示される。 Here, when the user selects a subsequent operation from the menu displayed on the menu display M600, the behavior with respect to the tag image data is determined. For example, when “transfer sticky note” is selected, sticky note data H600 is displayed as shown in FIG.
このときの付箋データの属性についてはメニューから選択して設定されることとしても良い。また描画処理や、画像転送といった種々の挙動が選択できることとしても良い。 At this time, the attribute of the tag data may be selected from a menu and set. Further, various behaviors such as drawing processing and image transfer may be selected.
このように、本実施形態によればメニュー表示を利用することにより、付箋画像データに対する挙動を利用者が複数選択するといったことが可能となる。 Thus, according to the present embodiment, by using the menu display, the user can select a plurality of behaviors for the tag image data.
[11.第11実施形態]
第11実施形態について説明する。第11実施形態は、囲領域の中に図形が含まれている場合に付箋画像データと認識する場合について説明する。
[11. Eleventh Embodiment]
An eleventh embodiment will be described. In the eleventh embodiment, a case will be described in which recognition is performed as tag image data when a figure is included in the surrounding area.
上述実施形態では、囲領域に含まれている図形を取得し、付箋画像データとしていた。例えば、第1実施形態における図5では、ステップS114において、囲領域に基づいて付箋画像データを取得していた。 In the embodiment described above, a graphic included in the surrounding area is acquired and used as sticky note image data. For example, in FIG. 5 in the first embodiment, the tag image data is acquired based on the surrounding area in step S114.
ここで、囲領域の中に図形データが含まれていない場合には、付箋画像データは取得されないこととしても良い。 Here, when graphic data is not included in the surrounding area, the tag image data may not be acquired.
すなわち、ステップS114において、囲領域に基づいて、囲領域に含まれる図形データを取得する。この場合、囲領域に図形データが含まれていない場合には、付箋選択入力がキャンセルされることにする。すなわち、この場合付箋画像データは取得されず、表示装置20にも送信されないこととなる。
That is, in step S114, graphic data included in the surrounding area is acquired based on the surrounding area. In this case, if graphic data is not included in the surrounding area, the tag selection input is canceled. That is, in this case, the tag image data is not acquired and is not transmitted to the
また、付箋画像データが取得されない場合、囲領域として入力されたストローク情報に基づいて線分を描画しても良い。 Further, when the tag image data is not acquired, a line segment may be drawn based on the stroke information input as the surrounding area.
このような構成とすることで、図形が含まれている箇所を囲むように選択することで、付箋データが表示装置で表示され、図形が含まれていない場合には線分が描画されることとなる。 By adopting such a configuration, the sticky note data is displayed on the display device by selecting so as to surround the portion including the graphic, and if the graphic is not included, the line segment is drawn It becomes.
[12.第12実施形態]
第12実施形態について説明する。第12実施形態は、端末装置10から付箋画像データを送信するときに、端末装置10が保有している情報が送信される実施形態である。
[12. 12th Embodiment]
A twelfth embodiment will be described. In the twelfth embodiment, when tag image data is transmitted from the
例えば、端末装置10には、種々の情報が記憶されている。例えば、端末装置10が保有する情報としては、IPアドレスや、端末装置固有の識別情報といった設定情報や、ログイン名(ユーザ名)や、手書き入力したユーザ名等の利用者情報といった種々の情報が記憶されている。なお、設定情報及び利用者情報を併せて端末装置10の環境情報として以下説明する。
For example, various information is stored in the
これらの、端末装置10に記憶されている環境情報を、第1実施形態のステップS116で表示装置20に送信する。
The environmental information stored in the
ここで、環境情報は、予め記憶されている情報であっても良いし、利用者が設定・記憶する情報であっても良い。また、端末固有情報(端末の製造識別情報、MACアドレス等)のように、工場出荷時に設定されている情報であってもよい。 Here, the environment information may be information stored in advance, or may be information set and stored by the user. Further, it may be information set at the time of factory shipment, such as terminal-specific information (terminal manufacturing identification information, MAC address, etc.).
また、ログイン情報の他にも、手書き入力図形に紐付けられた利用者情報(ユーザ名)であっても良い。この利用者情報は、端末のログイン情報であったり、入力装置(例えばタッチペン等)に紐付けられている情報であっても良い。 In addition to login information, user information (user name) associated with a handwritten input figure may be used. This user information may be terminal login information or information linked to an input device (for example, a touch pen).
これらの環境情報が表示装置20に送信されることにより、ステップS152において、環境情報といった端末装置10が保有している情報に基づいて、付箋の色を変えたり、付箋の大きさ、透過率を変えるといった属性を変えることが可能となる。
By transmitting these environmental information to the
[13.第13実施形態]
第13実施形態について、説明する。第13実施形態は、第12実施形態において、付箋画像データとともに送信された属性情報や、環境情報に基づいて、表示装置20で表示形態を変更する実施形態である。
[13. 13th Embodiment]
A thirteenth embodiment will be described. The thirteenth embodiment is an embodiment in which the display form is changed on the
具体的には、表示装置20は、属性に基づいて表示したりすることを選択できたり、環境情報を表示する(例えば、利用者名を付箋データと併せて表示したりする)ことを行う。例えば、付箋データと併せてユーザ名を表示したり、送信された端末のIPアドレスや、マシン名等を表示したりする。
Specifically, the
これらの、属性の有効/無効の切替えや、環境情報の表示/非表示の切り替えは、表示装置20で行うことが可能である。
The
本実施形態における動作例を、図20に示す。図20(a)は、環境情報を「ON」としている場合の表示装置20を示す図である。例えば、領域R700により、利用者表示が「ON」に設定されている。
An operation example in the present embodiment is shown in FIG. FIG. 20A is a diagram showing the
この場合、付箋データH700の近傍に利用者名「A」が表示されている。また、付箋データ710の近傍には利用者名「B」が表示されている。 In this case, the user name “A” is displayed in the vicinity of the tag data H700. A user name “B” is displayed near the tag data 710.
このとき、領域R700の選択を操作することにより、利用者表示を「OFF」にした場合が図20(b)である。図20(b)では、付箋データH700、付箋データH710の近傍に利用者名は表示されていない。 At this time, FIG. 20B shows a case where the user display is turned “OFF” by operating the selection of the region R700. In FIG. 20B, the user name is not displayed in the vicinity of the tag data H700 and the tag data H710.
このように、本実施形態によれば、環境情報の表示/非表示を、表示装置20において行うことが可能となる。なお、環境情報の表示/非表示の切替えは、端末装置10が行ってもよい。また、例えば、全体の設定としての表示/非表示を切り替えても良いし、付箋データ毎に切り替えても良い。また、囲領域の形によって、表示/非表示を切り替えても良い。
Thus, according to the present embodiment, it is possible to display / hide environmental information on the
[14.第14実施形態]
第14実施形態について説明する。第14実施形態では、環境情報や属性を利用して、付箋データの表示/非表示を切り替える実施形態である。
[14. 14th Embodiment]
A fourteenth embodiment will be described. In the fourteenth embodiment, display / non-display of sticky note data is switched using environmental information and attributes.
例えば、付箋データ毎に属性や、環境情報がそれぞれ記憶されている。そこで、利用者により、表示したい付箋データを一括で選択して表示したり、非表示とするといったことが可能である。 For example, attributes and environment information are stored for each piece of tag data. Therefore, the user can select and display the tag data to be displayed in a batch or hide the data.
本実施形態における動作例を図21に示す。図21では、囲領域R800において、表示される付箋データが選択されている。具体的には、利用者Aの付箋データを表示し、利用者Bの付箋データを非表示と選択されている。 An example of the operation in this embodiment is shown in FIG. In FIG. 21, the tag data to be displayed is selected in the surrounding area R800. Specifically, the user A's tag data is displayed and the user B's tag data is selected to be hidden.
この場合、例えば、図20(a)と比較すると、利用者Aが環境情報として記憶されている付箋データH800は表示されているが、利用者Bが環境情報として記憶されている付箋データは表示されていない。 In this case, for example, as compared with FIG. 20A, the sticky note data H800 in which the user A is stored as the environmental information is displayed, but the sticky note data in which the user B is stored as the environmental information is displayed. It has not been.
なお、上述した実施形態では、環境情報を例に説明したが、例えば、色や形といった付箋データの属性を指定して表示/非表示を切り替えても良い。また、表示/非表示の切替えは、端末装置10から切り替えることとしても良い。
In the above-described embodiment, environment information has been described as an example. However, for example, display / non-display may be switched by designating attributes of sticky note data such as color and shape. The display / non-display switching may be switched from the
更に、環境情報や属性のうち、複数を組み合わせても良い。例えば、Aさんの重要度が高い付箋データや、Bさんの赤の付箋データといった組み合わせで表示/非表示を切り替えても良い。 Further, a plurality of environmental information and attributes may be combined. For example, display / non-display may be switched by a combination of sticky data with a high importance of Mr. A and red sticky data of Mr. B.
[15.第15実施形態]
第15実施形態について説明する。上述した実施形態の説明では、端末装置10と、表示装置20とが通信を行う場合について説明したが、端末装置10又は表示装置20単体で処理を実行する場合についての実施形態について説明する。
[15. Fifteenth embodiment]
A fifteenth embodiment is described. In the description of the above-described embodiment, the case where the
図22は、端末装置10又は表示装置20で実行される処理を説明するための処理フローである。第2実施形態の動作を、各装置だけで実現するための処理である。なお、図22の処理を実行する装置において、図7で示した記憶部のデータを記憶しているものとする。
FIG. 22 is a processing flow for explaining processing executed by the
また、図9に示した処理フローと同一の処理については同一の符号を付して、その説明を省略する。図9では、付箋データ(付箋画像データ、付箋データ属性)を取得(認識)するのが端末装置10であって、付箋データを表示するのが表示装置20であったが、図22の処理は同一の装置で実現される。
The same processes as those in the process flow shown in FIG. 9 are denoted by the same reference numerals, and the description thereof is omitted. In FIG. 9, the
すなわち、表示されている図形の中から、手書き入力により、囲ったストロークの形状から、付箋データの属性を判定する(ステップS102;Yes→S104→S106→S108;Yes→S110→S112;Yes→S202→S204)。そして、囲領域に基づいて付箋画像データが取得される(ステップS114)。 That is, the attribute of the tag data is determined from the shape of the enclosed stroke by handwriting input from the displayed graphic (step S102; Yes → S104 → S106 → S108; Yes → S110 → S112; Yes → S202). → S204). Then, sticky note image data is acquired based on the surrounding area (step S114).
取得された付箋画像データを、付箋データに変換し(ステップS152)、付箋データの表示位置を決定する(ステップS154)。また、付箋データ属性を決定すると(ステップS254)、付箋データを表示する(ステップS256)。 The acquired tag image data is converted into tag data (step S152), and the display position of the tag data is determined (step S154). When the tag data attribute is determined (step S254), the tag data is displayed (step S256).
ここで、付箋データとして表示されるのは、もとの選択された図形を置き換えて表示しても良いし、更に表示(例えば、別領域)に表示しても良い。例えば、図23は、端末装置10で実現した場合の画面例の一例である。
Here, what is displayed as the tag data may be displayed by replacing the original selected figure, or may be displayed on a display (for example, another area). For example, FIG. 23 is an example of a screen example when realized by the
図23(a)で示したように、手書き文字列B800を、囲領域R800で選択した場合の図である。このとき、図23(b)のように、手書き文字列B800が、付箋データH800として置き換わって表示されている。 As shown in FIG. 23A, the handwritten character string B800 is selected in the surrounding area R800. At this time, as shown in FIG. 23B, the handwritten character string B800 is replaced and displayed as the tag data H800.
図24(a)では、手書き文字入力エリアと、図形表示エリア(付箋データ表示エリア)とが分かれている状態の図である。例えば、手書き文字列B850が、表示画面下部の手書き文字入力エリアに入力・表示されている。 FIG. 24A shows a state where a handwritten character input area and a graphic display area (sticky note data display area) are separated. For example, the handwritten character string B850 is input and displayed in the handwritten character input area at the bottom of the display screen.
ここで、手書き文字列B850が閉領域R850により選択されることで、付箋データH850が表示される。このとき、手書き文字列B850とは別に付箋データH850が表示されることとなる。なお、上述した実施形態で説明したように、例えば図24(b)の付箋データH850には、入力者(所有者)の名称として、例えば「Aさん」と表示させることも可能である。 Here, the handwritten character string B850 is selected by the closed region R850, whereby the tag data H850 is displayed. At this time, the tag data H850 is displayed separately from the handwritten character string B850. Note that, as described in the above-described embodiment, for example, “Mr. A” can be displayed as the name of the input person (owner) in the tag data H850 in FIG.
このように、本実施形態によれば、同一の装置であっても、同様の処理を実行することが可能となる。なお、本実施形態では第2実施形態のフローを置き換えて説明したが、他の実施形態においても、付箋画像データ及び付箋データ属性を判定し、付箋画像データ及び付箋データ属性に基づいて表示することが可能なことは勿論である。 Thus, according to the present embodiment, it is possible to execute the same processing even in the same apparatus. In this embodiment, the flow of the second embodiment has been replaced. However, in other embodiments, the tag image data and the tag data attribute are determined and displayed based on the tag image data and the tag data attribute. Of course, it is possible.
また、説明の都合上、付箋データに変換することとして説明しているが、例えば、付箋画像データと、付箋データの属性とに基づいて直接表示しても良いことは勿論である。 For convenience of explanation, it is described as being converted to sticky note data, but it is of course possible to display directly based on, for example, sticky note image data and attributes of the sticky note data.
[16.第16実施形態]
第16実施形態について説明する。第15実施形態に加えて、一度付箋データとして記憶する実施形態について説明する。
[16. Sixteenth Embodiment]
A sixteenth embodiment will be described. In addition to the fifteenth embodiment, an embodiment in which the data is once stored as sticky note data will be described.
図25及び図26は、端末装置10又は表示装置20で実行される処理を説明するための処理フローである。第2実施形態の動作を、各装置だけで実現するための処理である。なお、図25及び図26の処理を実行する装置において、図7で示した記憶部のデータを記憶しているものとする。
25 and 26 are process flows for explaining the process executed by the
また、図9に示した処理フローと同一の処理については同一の符号を付して、その説明を省略する。図9では、付箋データ(付箋画像データ、付箋データ属性)を取得(認識)するのが端末装置10であって、付箋データを表示するのが表示装置20であったが、図25と、図26の処理は同一の装置で実現される。
The same processes as those in the process flow shown in FIG. 9 are denoted by the same reference numerals, and the description thereof is omitted. In FIG. 9, the
すなわち、図25の処理が実行されると、利用者の操作により、付箋画像データと、付箋データ属性とが取得され(ステップS102〜S114)、付箋画像データ及び付箋データ属性とが記憶される(ステップS602)。 That is, when the process of FIG. 25 is executed, the user's operation acquires the tag image data and the tag data attribute (steps S102 to S114), and stores the tag image data and the tag data attribute ( Step S602).
また、図26の処理が実行されると、ステップS602により記憶されている付箋画像データ及び付箋データ属性とを読み出して(ステップS652)、付箋データに変換されて表示される(ステップS152〜ステップS256)。 When the process of FIG. 26 is executed, the sticky note image data and sticky note data attributes stored in step S602 are read (step S652), converted into sticky note data, and displayed (steps S152 to S256). ).
このように、本実施形態によれば、同一の装置であっても、同様の処理を実行することが可能となる。なお、本実施形態では第2実施形態のフローを置き換えて説明したが、他の実施形態においても、付箋画像データ及び付箋データ属性を端末装置に記憶し、当該記憶された付箋画像データ及び付箋データ属性に基づいて表示することが可能なことは勿論である。 Thus, according to the present embodiment, it is possible to execute the same processing even in the same apparatus. In the present embodiment, the flow of the second embodiment has been described. However, in other embodiments, the tag image data and the tag data attribute are stored in the terminal device, and the stored tag image data and tag data are stored. Of course, it is possible to display based on the attribute.
また、一度付箋データを記憶させることで、異なるプログラム、プロセス上で付箋データのやり取りをするといったことが可能となる。また、付箋データの記憶先として、外部記憶装置(例えば、USBメモリ等)を指定することで、直接接続されていない他の装置で表示させることが可能となる。 Also, once sticky note data is stored, it becomes possible to exchange sticky note data in different programs and processes. In addition, by specifying an external storage device (for example, a USB memory) as the storage location of the sticky note data, it can be displayed on another device that is not directly connected.
[17.第17実施形態]
第17実施形態について説明する。第17実施形態は、上述した実施形態に加えて、付箋データの送信するタイミングについて異なる場合について説明するものである。
[17. Seventeenth Embodiment]
A seventeenth embodiment will be described. In the seventeenth embodiment, in addition to the above-described embodiments, a case where the timing of sending sticky note data is different will be described.
すなわち、上述した実施形態(例えば、第1実施形態)では、図形を囲む操作をトリガーとして付箋データを送信することとしたが、記入後一定時間無操作状態が継続したことをもって図形が特定され、特定された図形が付箋データとして送信される。 That is, in the above-described embodiment (for example, the first embodiment), the sticky note data is transmitted with the operation surrounding the figure as a trigger, but the figure is specified when the no-operation state continues for a certain time after the entry, The identified figure is transmitted as sticky note data.
この場合、前回に一定時間無操作状態が継続したタイミングからのデータが収まる領域を矩形領域として切り出し、付箋データとして送信する。本実施形態の処理について、図27を用いて説明する。なお、図27は、図5の処理フローを置き換えたものであり、同一の処理には同一の符号を付し、説明を省略する。 In this case, an area where data from the timing when the no-operation state has continued for a certain time last time is cut out as a rectangular area and transmitted as tag data. The processing of this embodiment will be described with reference to FIG. Note that FIG. 27 replaces the processing flow of FIG. 5, and the same processes are denoted by the same reference numerals and description thereof is omitted.
ストローク情報が記憶されたあと、一定時間が経過したか否かを判定する(ステップS702)。ここで、一定時間が経過した場合には、付箋画像データとなる矩形領域の座標を取得する(ステップS704)。そして、矩形領域の位置が所定の領域内である場合には(ステップS706;Yes)、矩形領域に基づいて付箋画像データを取得する(ステップS708)。 After the stroke information is stored, it is determined whether or not a certain time has passed (step S702). Here, when a predetermined time has elapsed, the coordinates of the rectangular area that becomes the tag image data are acquired (step S704). If the position of the rectangular area is within the predetermined area (step S706; Yes), the tag image data is acquired based on the rectangular area (step S708).
例えば、図6の例によれば「アイデア」と手書きを行った後に一定時間無操作状態を継続させることによって、「アイデア」と記載された部分が収まる形に矩形領域を切り出す。この矩形領域の切り出しにおいては、当該手書きが収まる矩形領域で切り出してもよいし、手書き文字の傾きを考慮して、切り出す矩形領域の角度を調整するなどしても構わない。矩形領域の調整を行うことで矩形R100と同等のデータが生成されることになる。 For example, according to the example of FIG. 6, by handwriting “idea” and continuing the non-operation state for a certain period of time, the rectangular region is cut out so that the portion described as “idea” fits. In the cutting out of the rectangular area, it may be cut out in a rectangular area in which the handwritten text fits, or the angle of the rectangular area to be cut out may be adjusted in consideration of the inclination of the handwritten character. By adjusting the rectangular area, data equivalent to the rectangle R100 is generated.
また、ステップS702において付箋判定ONとは、通常の手書き入力と付箋データの入力の区別が必要となるため、通常の手書き入力と、付箋データの入力で、入力モードを変えるなどの操作を行ってもよい。付箋データの入力モードが「ON」になっていたり、付箋データ入力用のペンモードが選択された後に手書き入力されたりした場合に、付箋判定がONとなる。そして、付箋判定がONの場合には、付箋画像データが取得される。 In step S702, the tag determination ON means that it is necessary to distinguish between normal handwriting input and tag data input. Therefore, an operation such as changing the input mode between normal handwriting input and tag data input is performed. Also good. When the sticky note data input mode is “ON” or when handwritten input is performed after the pen mode for sticky note data input is selected, the sticky note determination is turned on. If the sticky note determination is ON, sticky note image data is acquired.
具体的には、通常の手書き入力を行うモード(手書き入力モード)と、付箋データに変換可能な手書き入力を行うモード(付箋データ入力モード)とが選択可能である。ここで、付箋データ入力モードが選択され、手書き入力が行われると、本実施形態の処理が実行される。すなわち、手書き入力後、所定時間が経過後に付箋データ(付箋画像データ)に変換される。ここで、通常の入力モードである手書き入力モードで入力された手書き入力は、所定時間が経過しても付箋データ(付箋画像データ)に変換されない。このように、特定の入力モードとして、例えば付箋データ入力モードが選択された場合には、付箋データに変換される。 Specifically, a mode for performing normal handwriting input (handwriting input mode) and a mode for performing handwriting input that can be converted into tag data (tag data input mode) can be selected. Here, when the tag data input mode is selected and handwriting input is performed, the processing of the present embodiment is executed. That is, after handwriting input, it is converted into sticky note data (sticky note image data) after a predetermined time has elapsed. Here, the handwritten input input in the handwriting input mode, which is the normal input mode, is not converted into sticky note data (sticky note image data) even after a predetermined time has elapsed. As described above, for example, when the tag data input mode is selected as the specific input mode, the data is converted into tag data.
そして、例えば第1実施形態で説明した様に、入力された図形を囲む(ストロークにより囲領域が形成される)と、付箋データ(付箋画像データ)に変換される。なお、本実施形態においても、入力された図形を囲む動作により、所定時間経過前に付箋データに変換するという動作としてもよい。 For example, as described in the first embodiment, when an input figure is enclosed (an enclosed area is formed by a stroke), it is converted into sticky note data (sticky note image data). In the present embodiment as well, an operation of surrounding the inputted figure may be an operation of converting to sticky note data before a predetermined time elapses.
なお、付箋判定ONは、付箋データの入力用モードの切り替えであっても良いし、モードONスイッチ等であってもよい。また、所定の操作(例えば、ペンのボタンを押しながら操作する、片手でタッチしつつ手書き入力を行う、2本指で操作する)の場合には、付箋判定がONと判定されてもよい。 Note that the tag determination ON may be switching of a tag data input mode, a mode ON switch, or the like. In addition, in the case of a predetermined operation (for example, an operation is performed while pressing a button of a pen, a hand-written input is performed while touching with one hand), sticky note determination may be determined to be ON.
また、システムによっては、所定領域に入力された場合は全て付箋画像データと判定しても良いし、手書き入力されたものは全て付箋画像データに変換しても良い。 In addition, depending on the system, when input to a predetermined area, all may be determined as sticky image data, or all handwritten input may be converted into sticky image data.
また、上述した実施形態では「矩形領域」として説明しているが、囲領域(閉じられた領域)であれば良く、円形、楕円形、三角形、台形といった種々の形でもよい。また、利用者が領域の形を設定してもよい。 Further, in the above-described embodiment, the “rectangular region” is described. However, it may be a surrounding region (closed region), and may be various shapes such as a circle, an ellipse, a triangle, and a trapezoid. The user may set the shape of the area.
[18.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
[18. Modified example]
The present invention is not limited to the above-described embodiments, and various modifications can be made. That is, embodiments obtained by combining technical means appropriately changed within the scope not departing from the gist of the present invention are also included in the technical scope of the present invention.
また、上述した実施形態では、端末装置10から付箋画像データを表示装置20に送信することとして説明したが、送信先の端末は表示装置でなくても良い。例えば、画像形成装置に送信することにより、印刷したり、PDFとして保存したりすることとしても良い。
In the above-described embodiment, the tag image data is transmitted from the
また、当該付箋画像データを、メールで送信することとしてもよいし、SNSに送信する(アップロードする)こととしても良いし、クラウドに保存することとしても良い。また、選択された付箋データを、記録媒体に保存することとしても良い。 Further, the tag image data may be transmitted by e-mail, may be transmitted (uploaded) to the SNS, or may be stored in the cloud. Further, the selected sticky note data may be stored in a recording medium.
また、実施形態でも説明したが、画像表示装置として端末装置、表示装置として説明したが、同一の装置で構成することも可能である。また、端末装置と、表示装置とをクラウドを介して接続しても良いことは勿論である。 Further, as described in the embodiment, the image display device has been described as the terminal device and the display device, but may be configured by the same device. Of course, the terminal device and the display device may be connected via the cloud.
クラウドを利用する場合は、端末装置から付箋画像データをクラウドサーバを介して表示装置に送信することとしても良い。また、端末装置、表示装置の一部の処理をクラウドサーバで処理を実行することとしても良い。 When using the cloud, the tag image data may be transmitted from the terminal device to the display device via the cloud server. Moreover, it is good also as performing a part process of a terminal device and a display apparatus with a cloud server.
また、各機能はプログラムで構成されていても良いし、ハードウェアで構成されても良い。そして、プログラムで実現されている場合は、記録媒体に記録されており、当該記録媒体からプログラムを読み出して実行しても良いし、ネットワークに保存され、ダウンロードして実行しても良い。 Each function may be configured by a program or hardware. When implemented by a program, the program is recorded on a recording medium, and the program may be read from the recording medium and executed, or stored in a network and downloaded and executed.
また、上述した実施形態では、タッチ検出部として操作をタッチパネルとし、タッチ操作(タップ操作)を例に説明したが、例えばマウス等の外部入力装置で、クリック操作等により操作が行われてもよい。 In the above-described embodiment, the touch detection unit is a touch panel and the touch operation (tap operation) is described as an example. However, the operation may be performed by a click operation or the like with an external input device such as a mouse. .
また、上述した実施形態では、表示装置は、表示部と、操作入力部とを備えている例を説明したが、本実施形態に開示した発明を実施するためには、他の方式であってもよい事は勿論である。例えば、表示部210としてプロジェクタを利用し、操作入力部220として人感センサを利用してもよい。そして、操作入力部220、表示部210に制御用のコンピュータを接続することにより、表示システムとして実現されてもよい。
In the above-described embodiment, the example in which the display device includes the display unit and the operation input unit has been described. However, in order to implement the invention disclosed in the present embodiment, another method is used. Of course it is also good. For example, a projector may be used as the
また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行してもよいことは勿論である。例えば、第17実施形態の操作を、他の実施形態と組み合わせて実行してもよい。 Further, although the above-described embodiments have portions described separately for convenience of description, it is needless to say that the embodiments may be combined and executed within a technically possible range. For example, the operation of the seventeenth embodiment may be executed in combination with other embodiments.
このように、本明細書に記載した各実施形態は、矛盾の無い範囲で組み合わせて実行することができる。 As described above, the embodiments described in the present specification can be executed in combination within a consistent range.
また、上述した実施形態において、領域を選択することで領域を特定することとして説明している。ここで、領域を特定する方法としては、選択以外にも入力や、判定といった種々の方法が含まれるものとする。 Moreover, in embodiment mentioned above, it demonstrates as specifying an area | region by selecting an area | region. Here, the method for specifying the region includes various methods such as input and determination in addition to selection.
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 In addition, the program that operates in each device in the embodiment is a program (a program that causes a computer to function) that controls the CPU and the like so as to realize the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in various ROM, HDD, and SSD storage devices, and read by the CPU as necessary. Correction and writing are performed.
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 In addition, when distributing to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server computer is also included in the present invention.
1 画像表示システム
10 端末装置
100 制御部
110 表示部
120 タッチ検出部
130 画像処理部
140 通信部
150 記憶部
152 図形データ
154 付箋画像データ
20 表示装置
200 制御部
210 表示部
220 操作入力部
240 通信部
250 記憶部
252 図形データ
254 付箋画像データ
256 付箋データ
DESCRIPTION OF SYMBOLS 1
Claims (14)
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定手段と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示手段と、
を備えることを特徴とする画像表示装置。 A figure input means for inputting a figure including characters;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determination means for determining an attribute of a graphic used when displaying the graphic with respect to the acquired graphic;
Graphic display means for displaying the acquired graphic based on the attribute of the determined graphic;
An image display device comprising:
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信手段と、
を備えることを特徴とする画像表示装置。 An image display device capable of communicating with another image display device capable of displaying an image on which a graphic including characters is arranged,
A figure input means for inputting a figure;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determining means for determining the attribute of the graphic used when the other image display device displays the graphic for the acquired graphic;
A graphic transmission means for transmitting the acquired graphic and the attribute of the graphic for display on another image display device;
An image display device comprising:
前記属性判定手段は、前記領域の属性に基づいて、前記図形の属性を判定することを特徴とする請求項1又は2に記載の画像表示装置。 It further comprises area recognition means for recognizing the attribute of the area,
The image display device according to claim 1, wherein the attribute determination unit determines an attribute of the graphic based on an attribute of the region.
前記領域特定手段は、前記特定の入力モードで入力された図形が含まれるように、領域を特定することを特徴とする請求項1又は2に記載の画像表示装置。 The graphic input means can input by switching between a normal input mode and a specific input mode,
The image display device according to claim 1, wherein the region specifying unit specifies a region so that a graphic input in the specific input mode is included.
文字を含む図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定機能と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示機能と、
を実現させるためのプログラム。 On the computer,
Figure input function to input figures including characters,
An image display function for displaying an image in which the one or more input figures are arranged;
An area specifying function for specifying a partial area of the displayed image;
A figure acquisition function for acquiring a figure included in the specified area;
An attribute determination function for determining an attribute of a graphic used for displaying the graphic with respect to the acquired graphic;
A graphic display function for displaying the acquired graphic based on the attribute of the determined graphic;
A program to realize
図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定機能と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信機能と、
を実現させるためのプログラム。 To a computer that can communicate with other image display devices capable of displaying images in which graphics including characters are arranged,
Figure input function to input figures,
An image display function for displaying an image in which the one or more input figures are arranged;
An area specifying function for specifying a partial area of the displayed image;
A figure acquisition function for acquiring a figure included in the specified area;
An attribute determination function for determining the attribute of the graphic used when the other image display device displays the graphic with respect to the acquired graphic;
A graphic transmission function for transmitting the acquired graphic and the attribute of the graphic to be displayed on another image display device;
A program to realize
前記第1の画像表示装置は、
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを第2の画像表示装置に送信する図形送信手段と、
を備え、
前記第2の画像表示装置は、前記第1の画像表示装置から受信された図形を表示することを特徴とする画像表示システム。 An image display system including a first image display device and a second image display device capable of displaying an image in which a graphic including characters is arranged,
The first image display device includes:
A figure input means for inputting a figure;
Image display means for displaying an image in which the one or more input figures are arranged;
Area specifying means for specifying a partial area of the displayed image;
Graphic acquisition means for acquiring a graphic included in the specified area;
Attribute determining means for determining the attribute of the graphic used when the other image display device displays the graphic for the acquired graphic;
Graphic transmission means for transmitting the acquired graphic and the attribute of the graphic to the second image display device;
With
The image display system, wherein the second image display device displays a graphic received from the first image display device.
前記第2の画像表示装置は、
前記第1の画像表示装置から受信された図形を表示するときに、併せて環境情報を表示することを特徴とする請求項12に記載の画像表示システム。 The graphic transmission means also transmits environmental information,
The second image display device includes:
The image display system according to claim 12, wherein when displaying a graphic received from the first image display device, environmental information is also displayed.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/661,159 US20180033175A1 (en) | 2016-07-28 | 2017-07-27 | Image display device and image display system |
| CN201710624499.7A CN107665087B (en) | 2016-07-28 | 2017-07-27 | Image display device, image display method, and image display system |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016148786 | 2016-07-28 | ||
| JP2016148786 | 2016-07-28 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018026117A true JP2018026117A (en) | 2018-02-15 |
| JP6971671B2 JP6971671B2 (en) | 2021-11-24 |
Family
ID=61193965
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017137881A Active JP6971671B2 (en) | 2016-07-28 | 2017-07-14 | Image display device, image display system and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6971671B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021056814A (en) * | 2019-09-30 | 2021-04-08 | シャープ株式会社 | Display device |
| US11726654B2 (en) | 2021-03-18 | 2023-08-15 | Ricoh Company, Ltd. | Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003323587A (en) * | 2002-05-02 | 2003-11-14 | Pfu Ltd | Document creation method and apparatus for visually impaired person and program |
| JP2006018374A (en) * | 2004-06-30 | 2006-01-19 | Casio Comput Co Ltd | Image processing apparatus with projector function and program |
| US20070115264A1 (en) * | 2005-11-21 | 2007-05-24 | Kun Yu | Gesture based document editor |
| JP2014052744A (en) * | 2012-09-05 | 2014-03-20 | Konica Minolta Inc | Document display device, document display terminal and document display program |
| WO2014147722A1 (en) * | 2013-03-18 | 2014-09-25 | 株式会社 東芝 | Electronic apparatus, method, and program |
| CN104391641A (en) * | 2014-09-22 | 2015-03-04 | 贵阳朗玛信息技术股份有限公司 | Information processing method and device |
| US20150339051A1 (en) * | 2014-05-23 | 2015-11-26 | Samsung Electronics Co., Ltd. | Method and device for reproducing content |
| JP2016122460A (en) * | 2016-02-12 | 2016-07-07 | 株式会社スクウェア・エニックス | Communication program, communication terminal, and communication method |
-
2017
- 2017-07-14 JP JP2017137881A patent/JP6971671B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003323587A (en) * | 2002-05-02 | 2003-11-14 | Pfu Ltd | Document creation method and apparatus for visually impaired person and program |
| JP2006018374A (en) * | 2004-06-30 | 2006-01-19 | Casio Comput Co Ltd | Image processing apparatus with projector function and program |
| US20070115264A1 (en) * | 2005-11-21 | 2007-05-24 | Kun Yu | Gesture based document editor |
| JP2014052744A (en) * | 2012-09-05 | 2014-03-20 | Konica Minolta Inc | Document display device, document display terminal and document display program |
| WO2014147722A1 (en) * | 2013-03-18 | 2014-09-25 | 株式会社 東芝 | Electronic apparatus, method, and program |
| US20150339051A1 (en) * | 2014-05-23 | 2015-11-26 | Samsung Electronics Co., Ltd. | Method and device for reproducing content |
| CN104391641A (en) * | 2014-09-22 | 2015-03-04 | 贵阳朗玛信息技术股份有限公司 | Information processing method and device |
| JP2016122460A (en) * | 2016-02-12 | 2016-07-07 | 株式会社スクウェア・エニックス | Communication program, communication terminal, and communication method |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021056814A (en) * | 2019-09-30 | 2021-04-08 | シャープ株式会社 | Display device |
| US11726654B2 (en) | 2021-03-18 | 2023-08-15 | Ricoh Company, Ltd. | Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6971671B2 (en) | 2021-11-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9535595B2 (en) | Accessed location of user interface | |
| CN109032485A (en) | Display method and device, electronic equipment, intelligent panel and storage medium | |
| WO2013021878A1 (en) | Information processing device, operating screen display method, control program and recording medium | |
| JP2015007949A (en) | Display device, display controlling method, and computer program | |
| US20120306749A1 (en) | Transparent user interface layer | |
| CN109670507B (en) | Image processing method, device and mobile terminal | |
| JP2015158900A (en) | Information processing device, information processing method and information processing program | |
| US20160266734A1 (en) | Conference support apparatus, conference support system, and computer-readable recording medium storing conference support program | |
| JP2016053764A (en) | Information processing apparatus, information processing method, and program | |
| US20190102081A1 (en) | Display control device and recording medium | |
| US20150062038A1 (en) | Electronic device, control method, and computer program product | |
| CN107665087B (en) | Image display device, image display method, and image display system | |
| CN112269523B (en) | Object editing processing method and device and electronic equipment | |
| JP6971671B2 (en) | Image display device, image display system and program | |
| JP3169604U (en) | Terminal device and electronic pen system | |
| US10755461B2 (en) | Display device, display method, and recording medium | |
| CN109710201B (en) | Display system, display device, terminal device, and recording medium | |
| CN112416199B (en) | Control method and device and electronic equipment | |
| JP2021135911A (en) | Display device | |
| CN113362410B (en) | Drawing method, device, electronic device and medium | |
| JP2023184557A (en) | Display device, display method, program | |
| JP2014011589A (en) | Display control device, display control method, display control system, display control program and recording medium | |
| JP7543788B2 (en) | Display device, input method, and program | |
| CN108885527B (en) | Method and apparatus for manipulating multiple objects on a pressure touch screen | |
| JP2017215748A (en) | Information processing apparatus and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201225 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210310 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211001 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6971671 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |