JP2018097280A - Display unit, display method, and program - Google Patents
Display unit, display method, and program Download PDFInfo
- Publication number
- JP2018097280A JP2018097280A JP2016243868A JP2016243868A JP2018097280A JP 2018097280 A JP2018097280 A JP 2018097280A JP 2016243868 A JP2016243868 A JP 2016243868A JP 2016243868 A JP2016243868 A JP 2016243868A JP 2018097280 A JP2018097280 A JP 2018097280A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- display image
- trajectory
- display
- pointer position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】表示画像の中から強調する対象を容易に抽出できるようにする。【解決手段】プロジェクタ1によれば、CPU11は、投影部13により投影した表示画像上を指すレーザーポインタ3のポインタ位置の軌跡形状を取得し、取得した軌跡形状に基づいて、表示画像内における対象を抽出する。【選択図】図3PROBLEM TO BE SOLVED: To easily extract an object to be emphasized from a displayed image. According to a projector 1, a CPU 11 acquires a locus shape of a pointer position of a laser pointer 3 pointing on a display image projected by a projection unit 13, and an object in a display image based on the acquired locus shape. To extract. [Selection diagram] Fig. 3
Description
本発明は、表示装置、表示方法及びプログラムに関する。 The present invention relates to a display device, a display method, and a program.
従来、スクリーンに投影された画像上をレーザーポインタで指示すると、指示位置に応じた画像を投影するプロジェクタシステムが知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a projector system that projects an image corresponding to an indicated position when an image projected on a screen is pointed with a laser pointer is known (see, for example, Patent Document 1).
ところで、例えば、特許文献1に記載のようなプロジェクタシステムにおいて、表示画像上のポインタで指示された箇所を強調する場合、例えば、指示された箇所に文字列や図形が混在している場合は、強調する対象の抽出が困難であった。
By the way, for example, in a projector system as described in
本発明の課題は、表示画像の中から強調する対象を容易に抽出できるようにすることである。 An object of the present invention is to enable easy extraction of an object to be emphasized from a display image.
上記課題を解決するため、請求項1に記載の発明の表示装置は、
表示画像を表示する表示手段と、
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える。
In order to solve the above-described problem, a display device according to
Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Is provided.
本発明によれば、表示画像の中から強調する対象を容易に抽出することが可能となる。 According to the present invention, it is possible to easily extract an object to be emphasized from a display image.
以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。本発明は、図示例に限定されるものではない。 Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.
[プロジェクタ1の構成]
図1は、本発明の実施形態におけるプロジェクタ1の主制御構成を示すブロック図である。図1に示すように、プロジェクタ1は、CPU11、RAM12、投影部13、記憶
部14、操作部15、撮影部16、通信部17等を備えて構成され、各部はバス18を介して接続されている。
[Configuration of Projector 1]
FIG. 1 is a block diagram showing a main control configuration of a
CPU(Central Processing Unit)11は、記憶部14のプログラム記憶部141に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行う。例えば、CPU11は、投影用データ記憶部142に記憶されている投影用データを所定の形式の画像データに変換して投影部13に送信し、投影部13によりスクリーン2(図4参照)に表示画像を表示(投影)させる。また、CPU11は、後述する強調処理を実行し、抽出手段、強調手段として機能するとともに、撮影部16との協働により、軌跡形状取得手段、座標取得手段として機能する。
A CPU (Central Processing Unit) 11 executes various programs stored in the
RAM(Random Access Memory)12は、揮発性の半導体メモリであり、CPU11により実行される各種プログラムやこれら各種プログラムに係るデータ等を格納するワークエリアを有する。
A RAM (Random Access Memory) 12 is a volatile semiconductor memory, and has a work area for storing various programs executed by the
投影部13は、CPU11から出力された入力された画像データを映像光に変換してスクリーン2に向けて照射することにより、スクリーン2に表示画像を表示する。投影部13は、表示手段として機能する。
The
記憶部14は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部14には、図1に示すように、プログラム記憶部141が設けられている。プログラム記憶部141には、CPU11で実行されるシステムプログラムや、各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
The
また、記憶部14には、投影用データ記憶部142が設けられている。投影用データ記憶部142には、投影部13によりスクリーン2に映像を投影するための投影用データが記憶される。投影用データは、静止画像であってもよいし、動画像であってもよい。また、プレゼンテーションソフトにより作成されたスライドであってもよい。本実施形態においては、投影用データがスライドであることとして説明する。
The
また、記憶部14には、強調用テーブル記憶部143が設けられている。強調用テーブル記憶部143には、強調用テーブルT1が記憶されている。強調用テーブルT1は、図2に示すように、レーザーポインタ3(図4参照)の軌跡形状と、その軌跡形状が検出されたときに強調する対象の種類及び強調態様とが対応付けて記憶されている。
The
操作部15は、複数の操作ボタン等から構成され、ユーザの操作信号をCPU11に出力する。
The
撮影部16は、スクリーン2に表示された表示画像を撮影して撮影画像を生成する。撮影部16は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮影制御部とを備えている。カメラの光学系は、撮影部16が投影するスクリーン2を正面から撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
The
通信部17は、PC(Personal Computer)等の外部装置と通信を行うためのインターフェースを有する。
The
[プロジェクタ1の動作]
次に、本実施形態におけるプロジェクタ1の動作について説明する。
図3は、投影部13により投影が開始された際に、CPU11により実行される強調処理を示すフローチャートである。強調処理は、制御部とプログラム記憶部141に記憶されているプログラムとの協働により実行される。
[Operation of Projector 1]
Next, the operation of the
FIG. 3 is a flowchart showing the enhancement processing executed by the
まず、CPU11は、スクリーン2の表示画像上を指すポインタ位置の軌跡形状を取得する(ステップS1)。
First, the
ステップS1において、CPU11は、例えば、所定時間間隔で撮影部16に撮影を行わせ、撮影部16により取得された各撮影画像から表示画像上のポインタ位置の検出を行って、ポインタ位置が移動を開始してから移動を停止するまでの軌跡の形状及び座標の情報を取得する。
ここで、ポインタ位置が移動を開始したと判断するタイミングは、例えば、レーザーポインタ3により表示画像上にスポットが照射されたタイミングでもよい。また、レーザーポインタ3が、撮影部16に対して撮影を開始する旨を指示する指示部を備え、該指示を通信部17が受信したタイミングであってもよい。
また、ここで、ポインタ位置が移動を停止したと判断するタイミングは、例えば、レーザーポインタ3による表示画像上のスポットが消えたタイミングでもよい。また、レーザーポインタ3が、撮影部16に対して撮影を停止する旨を指示する指示部を備え、該指示を通信部17が受信したタイミングであってもよい。
ポインタ位置の検出は、例えば、撮影部16により取得された各撮影画像において、画像内の各画素の画素値を取得し、レーザーポインタ3により照射されたスポットの色に合致する画素値の位置を各撮影画像のポインタ位置として検出することができる。或いは、撮影画像をグレースケールに変換し、画素値が最も高い位置をポインタ位置として検出することとしてもよい。
In step S1, for example, the
Here, the timing at which it is determined that the pointer position has started to move may be, for example, the timing at which a spot is irradiated on the display image by the
Here, the timing at which it is determined that the pointer position has stopped moving may be the timing at which the spot on the display image by the
For example, in the detection of the pointer position, the pixel value of each pixel in the image is acquired in each captured image acquired by the
次いで、CPU11は、ポインタ位置の軌跡形状が閉じた形状か又は水平方向の線形状であるか否か判断する(ステップS2)。
ポインタ位置の軌跡形状が閉じた形状でも水平方向の線形状でもないと判断した場合(ステップS2;NO)、CPU11は、ステップS1に戻る。
Next, the
When it is determined that the locus shape of the pointer position is neither a closed shape nor a horizontal line shape (step S2; NO), the
ここで、CPU11は、ポインタ位置の軌跡形状が閉じた形状である場合に、表示画像中における軌跡の上端と下端との間の距離を取得し、該距離が所定の閾値以下である場合は、取得された軌跡形状を線形状として判断してもよい。このようにすることで、ユーザがポインタ位置を水平方向に往復して動かすことで正確に線形状の軌跡を描けない場合であっても、その軌跡の上下方向における上端と下端とのズレ幅が所定の数値以下であれば、線形状であると判断することができ、利便性が向上する。
Here, when the trajectory shape of the pointer position is a closed shape, the
ポインタ位置の軌跡形状が閉じた形状か又は水平方向の線形状であると判断した場合(ステップS2;YES)、CPU11は、強調用テーブルT1を参照し、ポインタ位置の軌跡形状に基づいて強調する対象の種類を決定する(ステップS3)。
When determining that the locus shape of the pointer position is a closed shape or a horizontal line shape (step S2; YES), the
次いで、CPU11は、強調する対象の抽出処理を行う(ステップS4)。
例えば、ポインタ位置の軌跡が閉じている場合、CPU11は、ステップS1で取得された撮影画像における軌跡が閉じた範囲近傍に、ステップS3で決定された種類の対象物が存在しているか否かを判断する。
例えば、CPU11は、ステップS1で取得された軌跡の座標に基づいて、投影対象の投影用データ上における、ポインタ位置の軌跡に対応する位置の座標を特定する。ポインタ位置の軌跡が閉じた形状である場合、CPU11は、投影用データにおいて、軌跡に対
応する位置の座標(例えば閉じた形状の中心点)の位置にあり、かつポインタ位置の軌跡に対応する閉じた範囲近傍に、ステップS3で決定された種類の対象物が存在するか否かを判断する。ステップS3で決定された種類の対象物が存在する場合、CPU11は、その対象物を強調する対象として抽出する。また、ポインタ位置の軌跡が水平方向の線形状である場合、CPU11は、投影用データにおいて、軌跡に対応する位置の座標(例えば線形状の中心点)の位置にあり、かつポインタ位置の軌跡に対応する水平方向の線の上部又はその線に重なる範囲近傍に、ステップS13で決定された種類の対象物が存在するか否かを判断する。対象物が存在する場合、CPU11は、その対象物を強調する対象として抽出する。
Next, the
For example, when the locus of the pointer position is closed, the
For example, the
次いで、CPU11は、強調する対象が存在したか否かを判断する(ステップS5)。強調する対象が存在しなかった場合(ステップS5;NO)、CPU11は、ステップS1に戻る。
強調する対象が存在した場合(ステップS5;YES)、CPU11は、強調用テーブルT1を参照し、ステップS1で取得したポインタ位置の軌跡形状に対応する強調態様を特定し、投影用データにおける強調する対象を特定された強調態様で強調させてその画像を投影部13に投影させることにより、スクリーン2の表示画像上の強調する対象を強調させる(ステップS6)。
Next, the
When there is an object to be emphasized (step S5; YES), the
例えば、強調用テーブルT1において、軌跡形状が閉じた円である場合の強調する対象の種類として図形が設定され、強調態様として塗りつぶしが設定されている場合、図4に示すように、レーザーポインタ3によりスクリーン2に投影されている図形及び文字列を円で囲む操作を行うと、強調する対象として設定されている図形のみが塗りつぶしで強調表示される。
For example, in the emphasis table T1, when the figure is set as the type of the object to be emphasized when the locus shape is a closed circle and the fill is set as the emphasis mode, as shown in FIG. When the operation of enclosing the figure and the character string projected on the
また、例えば、強調用テーブルT1において、軌跡形状が線形である場合の強調する対象の種類として文字列が設定され、強調態様として赤色表示が設定されている場合、図5に示すように、レーザーポインタ3によりスクリーン2に投影されている文字列に下線を引く操作を行うと、文字列が赤色で強調表示される。
Further, for example, in the emphasis table T1, when the character string is set as the type of the target to be emphasized when the locus shape is linear and the red display is set as the emphasis mode, as shown in FIG. When an operation of underlining the character string projected on the
また、例えば、強調用テーブルT1において、軌跡形状が閉じた矩形である場合の強調する対象の種類として画像が設定され、強調態様として矩形が設定されている場合、図6に示すように、レーザーポインタ3によりスクリーン2に投影されている画像及び文字列を矩形で囲む操作を行うと、強調する対象として設定されている画像のみが矩形で囲んで強調表示される。
Further, for example, in the emphasis table T1, when an image is set as the type of object to be emphasized when the locus shape is a closed rectangle, and a rectangle is set as the emphasis mode, as shown in FIG. When an operation of enclosing an image and a character string projected on the
このように、強調処理では、レーザーポインタ3のポインタ位置の軌跡形状に応じた種類の対象物(例えば、文字、図形、画像、数式等)を強調する対象として抽出するので、レーザーポインタ3で指定した位置に文字や図形等が混在していても、レーザーポインタ3のポインタ位置の軌跡が強調させたい対象物の種類に応じた形状となるようにユーザがレーザーポインタ3を動かすだけで、ユーザが意図した対象物を簡単に強調する対象として抽出して強調させることが可能となる。また、ポインタ位置の軌跡形状に応じて、強調態様を変更することが可能となる。
As described above, in the enhancement process, since the type of object (for example, a character, a figure, an image, a mathematical expression, etc.) corresponding to the locus shape of the pointer position of the
次いで、CPU11は、一連の投影の終了が指示されたか否かを判断する(ステップS7)。一連の投影の終了が指示されてしていないと判断した場合(ステップS7;NO)、CPU11は、ステップS1に戻る。
一連の投影の終了が指示されたと判断した場合(ステップS7;YES)、CPU11は、強調処理を終了する。
Next, the
When determining that the end of a series of projections has been instructed (step S7; YES), the
以上説明したように、プロジェクタ1によれば、CPU11は、投影部13により投影した表示画像上を指すポインタ位置の軌跡形状を取得し、取得した軌跡形状に基づいて、表示画像内における強調する対象を抽出する。
従って、表示画像におけるレーザーポインタ3で指示された箇所に文字列や図形が混在している場合であっても、表示画像の中から強調する対象を容易に抽出することが可能となる。
As described above, according to the
Therefore, even when a character string or a figure is mixed at a location indicated by the
例えば、CPU11は、取得した軌跡形状に基づいて強調する対象の種類を決定し、決定した種類に基づいて強調する対象を抽出する。従って、表示画像上を指すポインタ位置の軌跡形状に応じた種類(文字列、図形、画像、数式等)の対象物を強調する対象として容易に抽出することが可能となる。
For example, the
また、CPU11は、表示画像上を指すポインタ位置の軌跡形状に基づいて、対象を強調する態様を変化させる。従って、ユーザがレーザーポインタ3で指示するポインタ位置の軌跡形状を変えることで、対象を強調する態様を変化させることが可能となる。
Moreover, CPU11 changes the aspect which emphasizes object based on the locus | trajectory shape of the pointer position which points out on a display image. Therefore, by changing the trajectory shape of the pointer position designated by the user with the
なお、上記実施形態における記述内容は、本発明に係るプロジェクタの好適な一例であり、これに限定されるものではない。 Note that the description in the above embodiment is a preferred example of the projector according to the present invention, and the present invention is not limited to this.
例えば、上記実施形態においては、本発明をプロジェクタからスクリーンに画像を投影することで画像の表示を行うプロジェクタに適用した場合を例にとり説明したが、例えば、液晶ディスプレイ、プラズマディスプレイ等を備える表示装置に適用しても同様の効果を奏することができ、この例に限定されない。 For example, in the above embodiment, the case where the present invention is applied to a projector that displays an image by projecting an image from a projector onto a screen has been described as an example. However, for example, a display device including a liquid crystal display, a plasma display, or the like Even if applied to the above, the same effect can be obtained, and the present invention is not limited to this example.
また、上記実施形態においては、表示画像におけるポインタ位置の軌跡形状に基づいて強調する対象の種類を決定する場合の例として、スクリーン2に投影したスライド上におけるレーザーポインタ3のポインタ位置の軌跡形状に基づいて強調する対象の種類(文字列、画像、図形、グラフ、数式、動画等)を決定することとして説明したが、例えば、PC等のディスプレイ上におけるマウスカーソルの軌跡形状に基づいて、強調するウィンドウの種類等を決定することとしてもよい。例えば、ブラウザ、フォルダ、メールソフト、ワープロソフト等の各ウィンドウのそれぞれに対応する軌跡の形状を記憶しておき、ディスプレイ上でのマウスカーソルの軌跡形状に応じて、対応する種類のウィンドウをディスプレイの前面に表示させて(或いは、アクティブにして)強調することとしてもよい。
In the above embodiment, as an example of determining the type of object to be emphasized based on the trajectory shape of the pointer position in the display image, the trajectory shape of the pointer position of the
また、上記実施形態で示したポインタ位置の軌跡形状、強調する対象の種類、強調の態様は一例であり、実施形態で示したものに限定されない。 Moreover, the locus | trajectory shape of the pointer position shown in the said embodiment, the kind of object to emphasize, and the aspect of emphasis are examples, and are not limited to what was shown in embodiment.
また、上記実施形態においては、プロジェクタ1が単体で動作する例を示したが、これに限られない。プロジェクタ1がPC等の外部機器と接続されており、外部機器が上記実施形態における記憶部14の機能を持っていてもよい。つまり、軌跡形状を撮影部16が取得し、該軌跡形状を外部機器に送信することで、外部機器が図3に示すステップS2からステップS6までの処理を行うことで、プロジェクタ1に対象を強調させてもよい。その他、上記実施形態における各機能及び動作は、各装置に適宜割り当ててもよい。
Moreover, in the said embodiment, although the example which the
その他、プロジェクタを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the projector can be changed as appropriate without departing from the spirit of the invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。
付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
表示画像を表示する表示手段と、
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える表示装置。
<請求項2>
前記軌跡形状と前記対象の種類とを対応付けて記憶している記憶手段をさらに備えることを特徴とする請求項1に記載の表示装置。
<請求項3>
前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状か、線形状であるかを判断することを特徴とする請求項1又は2に記載の表示装置。
<請求項4>
前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状である場合に、前記表示画像中における前記軌跡の上端と下端との間の距離を取得し、前記距離が所定の閾値以下である場合に前記軌跡形状を線形状として判断することを特徴とする請求項3に記載の表示装置。
<請求項5>
前記軌跡形状は、前記ポインタ位置が移動を開始してから停止するまでの前記ポインタ位置の軌跡の形状である請求項1〜4の何れか一項に記載の表示装置。
<請求項6>
前記表示画像における前記対象を強調する態様に変更する強調手段を備える請求項1〜5の何れか一項に記載の表示装置。
<請求項7>
前記強調手段は、前記軌跡形状に基づいて、前記対象を強調する態様を変化させる請求項6に記載の表示装置。
<請求項8>
前記ポインタ位置の軌跡に基づいて所定の座標を取得する座標取得手段をさらに備え、
前記抽出手段は、前記軌跡形状と前記座標とに基づいて前記表示画像内における対象を抽出することを特徴とする請求項1〜7の何れか一項に記載の表示装置。
<請求項9>
前記表示画像はスライドであり、
前記抽出手段は、前記軌跡形状取得手段により取得されたポインタ位置の軌跡形状に基づいて前記スライド内の対象の種類を決定し、決定した種類に基づいて前記スライドに含まれる対象を抽出する請求項1〜8の何れか一項に記載の表示装置。
<請求項10>
表示画像を表示する工程と、
前記表示画像上を指すポインタ位置の軌跡形状を取得する工程と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する工程と、
を含む表示方法。
<請求項11>
表示画像を表示する表示手段を備える表示装置に用いられるコンピュータを、
前記表示画像上を指すポインタ位置の軌跡形状を取得する軌跡形状取得手段、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below.
The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
A display device comprising:
<Claim 2>
The display device according to
<Claim 3>
The display device according to
<Claim 4>
The trajectory shape acquisition unit acquires a distance between an upper end and a lower end of the trajectory in the display image when the trajectory shape at the pointer position is a closed shape, and the distance is equal to or less than a predetermined threshold value. The display device according to
<Claim 5>
The display device according to
<Claim 6>
The display device according to
<Claim 7>
The display device according to claim 6, wherein the highlighting unit changes a mode of highlighting the target based on the trajectory shape.
<Claim 8>
Further comprising coordinate acquisition means for acquiring predetermined coordinates based on the locus of the pointer position;
The display device according to
<Claim 9>
The display image is a slide,
The extraction unit determines a type of a target in the slide based on a trajectory shape of the pointer position acquired by the trajectory shape acquisition unit, and extracts a target included in the slide based on the determined type. The display device according to any one of 1 to 8.
<Claim 10>
Displaying a display image;
Obtaining a trajectory shape of a pointer position pointing on the display image;
Determining the type of object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Display method including.
<Claim 11>
A computer used in a display device including display means for displaying a display image,
Trajectory shape acquisition means for acquiring a trajectory shape of a pointer position pointing on the display image;
Extracting means for determining a type of an object in the display image based on the locus shape, and extracting an object in the display image based on the determined type;
Program to function as.
1 プロジェクタ
11 CPU
12 RAM
13 投影部
14 記憶部
141 プログラム記憶部
142 投影用データ記憶部
143 強調用テーブル記憶部
15 操作部
16 撮影部
17 通信部
18 バス
1
12 RAM
13
Claims (11)
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える表示装置。 Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
A display device comprising:
前記抽出手段は、前記軌跡形状と前記座標とに基づいて前記表示画像内における対象を抽出することを特徴とする請求項1〜7の何れか一項に記載の表示装置。 Further comprising coordinate acquisition means for acquiring predetermined coordinates based on the locus of the pointer position;
The display device according to claim 1, wherein the extraction unit extracts a target in the display image based on the locus shape and the coordinates.
前記抽出手段は、前記軌跡形状取得手段により取得されたポインタ位置の軌跡形状に基づいて前記スライド内の対象の種類を決定し、決定した種類に基づいて前記スライドに含まれる対象を抽出する請求項1〜8の何れか一項に記載の表示装置。 The display image is a slide,
The extraction unit determines a type of a target in the slide based on a trajectory shape of the pointer position acquired by the trajectory shape acquisition unit, and extracts a target included in the slide based on the determined type. The display device according to any one of 1 to 8.
前記表示画像上を指すポインタ位置の軌跡形状を取得する工程と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する工程と、
を含む表示方法。 Displaying a display image;
Obtaining a trajectory shape of a pointer position pointing on the display image;
Determining the type of object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Display method including.
前記表示画像上を指すポインタ位置の軌跡形状を取得する軌跡形状取得手段、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段、
として機能させるためのプログラム。 A computer used in a display device including display means for displaying a display image,
Trajectory shape acquisition means for acquiring a trajectory shape of a pointer position pointing on the display image;
Extracting means for determining a type of an object in the display image based on the locus shape, and extracting an object in the display image based on the determined type;
Program to function as.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016243868A JP6880697B2 (en) | 2016-12-16 | 2016-12-16 | Display device, display method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016243868A JP6880697B2 (en) | 2016-12-16 | 2016-12-16 | Display device, display method and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018097280A true JP2018097280A (en) | 2018-06-21 |
| JP6880697B2 JP6880697B2 (en) | 2021-06-02 |
Family
ID=62632946
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016243868A Active JP6880697B2 (en) | 2016-12-16 | 2016-12-16 | Display device, display method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6880697B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023522654A (en) * | 2020-05-11 | 2023-05-31 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions to generate video using synthetic input from multiple cameras |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1049700A (en) * | 1996-08-02 | 1998-02-20 | Canon Inc | Pen input device, pen input method, input device, and input method |
| JP2004213521A (en) * | 2003-01-08 | 2004-07-29 | Canon Inc | Pen input information processing method |
| JP2014119295A (en) * | 2012-12-14 | 2014-06-30 | Clarion Co Ltd | Control device and portable terminal |
| JP2016126548A (en) * | 2015-01-05 | 2016-07-11 | セイコーエプソン株式会社 | Display and display control program |
-
2016
- 2016-12-16 JP JP2016243868A patent/JP6880697B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1049700A (en) * | 1996-08-02 | 1998-02-20 | Canon Inc | Pen input device, pen input method, input device, and input method |
| JP2004213521A (en) * | 2003-01-08 | 2004-07-29 | Canon Inc | Pen input information processing method |
| JP2014119295A (en) * | 2012-12-14 | 2014-06-30 | Clarion Co Ltd | Control device and portable terminal |
| JP2016126548A (en) * | 2015-01-05 | 2016-07-11 | セイコーエプソン株式会社 | Display and display control program |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023522654A (en) * | 2020-05-11 | 2023-05-31 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions to generate video using synthetic input from multiple cameras |
| JP7462069B2 (en) | 2020-05-11 | 2024-04-04 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions for generating video using composite input from multiple cameras |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6880697B2 (en) | 2021-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10649546B2 (en) | Method and apparatus for presenting panoramic photo in mobile terminal, and mobile terminal | |
| EP2956843B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
| US9507437B2 (en) | Algorithms, software and an interaction system that support the operation of an on the fly mouse | |
| US9706108B2 (en) | Information processing apparatus and associated methodology for determining imaging modes | |
| US10291843B2 (en) | Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium | |
| US20140015778A1 (en) | Tablet device, and operation receiving method | |
| JP5769277B2 (en) | Input device, input method, and program | |
| WO2014176912A1 (en) | Two dimensional-code scanning method and device | |
| US9880721B2 (en) | Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method | |
| JP6229554B2 (en) | Detection apparatus and detection method | |
| JP2014029656A (en) | Image processor and image processing method | |
| TWI502988B (en) | Electronic devices and methods for enhancing image resolution and computer-readable mediums thereof | |
| US10057315B2 (en) | Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image | |
| JP6880697B2 (en) | Display device, display method and program | |
| US10185407B2 (en) | Display control apparatus, display control method and recording medium | |
| US10983608B2 (en) | System and method of annotation of a shared display using a mobile device | |
| JP6679430B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
| KR101911676B1 (en) | Apparatus and Method for Presentation Image Processing considering Motion of Indicator | |
| US20180239486A1 (en) | Control method, electronic blackboard system, display device, and program | |
| US11528423B2 (en) | Apparatus, method, and storage medium | |
| JP2018156416A (en) | Information processing apparatus, information processing method, and program | |
| JP2016194835A (en) | Information extraction method, information extraction program and information extraction apparatus | |
| CN105847668A (en) | A gesture recognition driving method for selfie camera devices | |
| JP2014178790A (en) | Projection system, projection device, projection program, and projection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191016 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200917 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210310 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210419 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6880697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |