[go: up one dir, main page]

JP2018097280A - Display unit, display method, and program - Google Patents

Display unit, display method, and program Download PDF

Info

Publication number
JP2018097280A
JP2018097280A JP2016243868A JP2016243868A JP2018097280A JP 2018097280 A JP2018097280 A JP 2018097280A JP 2016243868 A JP2016243868 A JP 2016243868A JP 2016243868 A JP2016243868 A JP 2016243868A JP 2018097280 A JP2018097280 A JP 2018097280A
Authority
JP
Japan
Prior art keywords
shape
display image
trajectory
display
pointer position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016243868A
Other languages
Japanese (ja)
Other versions
JP6880697B2 (en
Inventor
弘明 根岸
Hiroaki Negishi
弘明 根岸
勇二 阿部
Yuji Abe
勇二 阿部
善成 宮崎
Yoshinari Miyazaki
善成 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016243868A priority Critical patent/JP6880697B2/en
Publication of JP2018097280A publication Critical patent/JP2018097280A/en
Application granted granted Critical
Publication of JP6880697B2 publication Critical patent/JP6880697B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示画像の中から強調する対象を容易に抽出できるようにする。【解決手段】プロジェクタ1によれば、CPU11は、投影部13により投影した表示画像上を指すレーザーポインタ3のポインタ位置の軌跡形状を取得し、取得した軌跡形状に基づいて、表示画像内における対象を抽出する。【選択図】図3PROBLEM TO BE SOLVED: To easily extract an object to be emphasized from a displayed image. According to a projector 1, a CPU 11 acquires a locus shape of a pointer position of a laser pointer 3 pointing on a display image projected by a projection unit 13, and an object in a display image based on the acquired locus shape. To extract. [Selection diagram] Fig. 3

Description

本発明は、表示装置、表示方法及びプログラムに関する。   The present invention relates to a display device, a display method, and a program.

従来、スクリーンに投影された画像上をレーザーポインタで指示すると、指示位置に応じた画像を投影するプロジェクタシステムが知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a projector system that projects an image corresponding to an indicated position when an image projected on a screen is pointed with a laser pointer is known (see, for example, Patent Document 1).

特開2004−265235号公報JP 2004-265235 A

ところで、例えば、特許文献1に記載のようなプロジェクタシステムにおいて、表示画像上のポインタで指示された箇所を強調する場合、例えば、指示された箇所に文字列や図形が混在している場合は、強調する対象の抽出が困難であった。   By the way, for example, in a projector system as described in Patent Document 1, when highlighting a location indicated by a pointer on a display image, for example, when a character string or a figure is mixed in the indicated location, It was difficult to extract objects to be emphasized.

本発明の課題は、表示画像の中から強調する対象を容易に抽出できるようにすることである。   An object of the present invention is to enable easy extraction of an object to be emphasized from a display image.

上記課題を解決するため、請求項1に記載の発明の表示装置は、
表示画像を表示する表示手段と、
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える。
In order to solve the above-described problem, a display device according to claim 1 is provided.
Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Is provided.

本発明によれば、表示画像の中から強調する対象を容易に抽出することが可能となる。   According to the present invention, it is possible to easily extract an object to be emphasized from a display image.

本実施形態におけるプロジェクタの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the projector in this embodiment. 強調用テーブルのデータ格納例を示す図である。It is a figure which shows the example of data storage of the table for emphasis. 図1のCPUにより実行される強調処理を示すフローチャートである。It is a flowchart which shows the emphasis process performed by CPU of FIG. ポインタの軌跡形状に基づく強調表示の一例を示す図である。It is a figure which shows an example of the highlight based on the locus | trajectory shape of a pointer. ポインタの軌跡形状に基づく強調表示の一例を示す図である。It is a figure which shows an example of the highlight based on the locus | trajectory shape of a pointer. ポインタの軌跡形状に基づく強調表示の一例を示す図である。It is a figure which shows an example of the highlight based on the locus | trajectory shape of a pointer.

以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。本発明は、図示例に限定されるものではない。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

[プロジェクタ1の構成]
図1は、本発明の実施形態におけるプロジェクタ1の主制御構成を示すブロック図である。図1に示すように、プロジェクタ1は、CPU11、RAM12、投影部13、記憶
部14、操作部15、撮影部16、通信部17等を備えて構成され、各部はバス18を介して接続されている。
[Configuration of Projector 1]
FIG. 1 is a block diagram showing a main control configuration of a projector 1 according to an embodiment of the present invention. As shown in FIG. 1, the projector 1 includes a CPU 11, a RAM 12, a projection unit 13, a storage unit 14, an operation unit 15, a photographing unit 16, a communication unit 17, and the like, and each unit is connected via a bus 18. ing.

CPU(Central Processing Unit)11は、記憶部14のプログラム記憶部141に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行う。例えば、CPU11は、投影用データ記憶部142に記憶されている投影用データを所定の形式の画像データに変換して投影部13に送信し、投影部13によりスクリーン2(図4参照)に表示画像を表示(投影)させる。また、CPU11は、後述する強調処理を実行し、抽出手段、強調手段として機能するとともに、撮影部16との協働により、軌跡形状取得手段、座標取得手段として機能する。   A CPU (Central Processing Unit) 11 executes various programs stored in the program storage unit 141 of the storage unit 14 to perform predetermined calculations and control of each unit. For example, the CPU 11 converts the projection data stored in the projection data storage unit 142 into image data of a predetermined format and transmits the image data to the projection unit 13, which is displayed on the screen 2 (see FIG. 4) by the projection unit 13. Display (project) the image. Further, the CPU 11 executes an emphasis process described later, functions as an extraction unit and an emphasis unit, and functions as a trajectory shape acquisition unit and a coordinate acquisition unit in cooperation with the photographing unit 16.

RAM(Random Access Memory)12は、揮発性の半導体メモリであり、CPU11により実行される各種プログラムやこれら各種プログラムに係るデータ等を格納するワークエリアを有する。   A RAM (Random Access Memory) 12 is a volatile semiconductor memory, and has a work area for storing various programs executed by the CPU 11, data related to these various programs, and the like.

投影部13は、CPU11から出力された入力された画像データを映像光に変換してスクリーン2に向けて照射することにより、スクリーン2に表示画像を表示する。投影部13は、表示手段として機能する。   The projection unit 13 displays the display image on the screen 2 by converting the input image data output from the CPU 11 into video light and irradiating the image data toward the screen 2. The projection unit 13 functions as a display unit.

記憶部14は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部14には、図1に示すように、プログラム記憶部141が設けられている。プログラム記憶部141には、CPU11で実行されるシステムプログラムや、各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 14 is configured by an HDD (Hard Disk Drive), a nonvolatile semiconductor memory, or the like. As shown in FIG. 1, the storage unit 14 is provided with a program storage unit 141. The program storage unit 141 stores a system program executed by the CPU 11, a processing program for executing various processes, data necessary for executing these programs, and the like.

また、記憶部14には、投影用データ記憶部142が設けられている。投影用データ記憶部142には、投影部13によりスクリーン2に映像を投影するための投影用データが記憶される。投影用データは、静止画像であってもよいし、動画像であってもよい。また、プレゼンテーションソフトにより作成されたスライドであってもよい。本実施形態においては、投影用データがスライドであることとして説明する。   The storage unit 14 is provided with a projection data storage unit 142. In the projection data storage unit 142, projection data for projecting an image on the screen 2 by the projection unit 13 is stored. The projection data may be a still image or a moving image. Further, it may be a slide created by presentation software. In the present embodiment, description will be made assuming that the projection data is a slide.

また、記憶部14には、強調用テーブル記憶部143が設けられている。強調用テーブル記憶部143には、強調用テーブルT1が記憶されている。強調用テーブルT1は、図2に示すように、レーザーポインタ3(図4参照)の軌跡形状と、その軌跡形状が検出されたときに強調する対象の種類及び強調態様とが対応付けて記憶されている。   The storage unit 14 is provided with an emphasis table storage unit 143. The enhancement table storage unit 143 stores an enhancement table T1. As shown in FIG. 2, the highlighting table T1 stores the locus shape of the laser pointer 3 (see FIG. 4) and the type and enhancement mode of the object to be emphasized when the locus shape is detected. ing.

操作部15は、複数の操作ボタン等から構成され、ユーザの操作信号をCPU11に出力する。   The operation unit 15 includes a plurality of operation buttons and outputs a user operation signal to the CPU 11.

撮影部16は、スクリーン2に表示された表示画像を撮影して撮影画像を生成する。撮影部16は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮影制御部とを備えている。カメラの光学系は、撮影部16が投影するスクリーン2を正面から撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。   The imaging unit 16 captures the display image displayed on the screen 2 and generates a captured image. Although not shown, the photographing unit 16 includes a camera including an optical system and an image sensor, and a photographing control unit that controls the camera. The optical system of the camera is directed in a direction in which the screen 2 projected by the photographing unit 16 can be photographed from the front. The imaging element is, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The imaging element converts the optical image that has passed through the optical system into a two-dimensional image signal.

通信部17は、PC(Personal Computer)等の外部装置と通信を行うためのインターフェースを有する。   The communication unit 17 has an interface for communicating with an external device such as a PC (Personal Computer).

[プロジェクタ1の動作]
次に、本実施形態におけるプロジェクタ1の動作について説明する。
図3は、投影部13により投影が開始された際に、CPU11により実行される強調処理を示すフローチャートである。強調処理は、制御部とプログラム記憶部141に記憶されているプログラムとの協働により実行される。
[Operation of Projector 1]
Next, the operation of the projector 1 in this embodiment will be described.
FIG. 3 is a flowchart showing the enhancement processing executed by the CPU 11 when projection is started by the projection unit 13. The enhancement process is executed in cooperation with the control unit and the program stored in the program storage unit 141.

まず、CPU11は、スクリーン2の表示画像上を指すポインタ位置の軌跡形状を取得する(ステップS1)。   First, the CPU 11 obtains the locus shape of the pointer position pointing on the display image on the screen 2 (step S1).

ステップS1において、CPU11は、例えば、所定時間間隔で撮影部16に撮影を行わせ、撮影部16により取得された各撮影画像から表示画像上のポインタ位置の検出を行って、ポインタ位置が移動を開始してから移動を停止するまでの軌跡の形状及び座標の情報を取得する。
ここで、ポインタ位置が移動を開始したと判断するタイミングは、例えば、レーザーポインタ3により表示画像上にスポットが照射されたタイミングでもよい。また、レーザーポインタ3が、撮影部16に対して撮影を開始する旨を指示する指示部を備え、該指示を通信部17が受信したタイミングであってもよい。
また、ここで、ポインタ位置が移動を停止したと判断するタイミングは、例えば、レーザーポインタ3による表示画像上のスポットが消えたタイミングでもよい。また、レーザーポインタ3が、撮影部16に対して撮影を停止する旨を指示する指示部を備え、該指示を通信部17が受信したタイミングであってもよい。
ポインタ位置の検出は、例えば、撮影部16により取得された各撮影画像において、画像内の各画素の画素値を取得し、レーザーポインタ3により照射されたスポットの色に合致する画素値の位置を各撮影画像のポインタ位置として検出することができる。或いは、撮影画像をグレースケールに変換し、画素値が最も高い位置をポインタ位置として検出することとしてもよい。
In step S1, for example, the CPU 11 causes the photographing unit 16 to photograph at predetermined time intervals, detects the pointer position on the display image from each photographed image acquired by the photographing unit 16, and moves the pointer position. Information on the shape and coordinates of the trajectory from the start to the stop of movement is acquired.
Here, the timing at which it is determined that the pointer position has started to move may be, for example, the timing at which a spot is irradiated on the display image by the laser pointer 3. Alternatively, the laser pointer 3 may include an instruction unit that instructs the photographing unit 16 to start photographing, and the communication unit 17 may receive the instruction.
Here, the timing at which it is determined that the pointer position has stopped moving may be the timing at which the spot on the display image by the laser pointer 3 disappears, for example. Alternatively, the laser pointer 3 may include an instruction unit that instructs the photographing unit 16 to stop photographing, and the timing at which the communication unit 17 receives the instruction may be used.
For example, in the detection of the pointer position, the pixel value of each pixel in the image is acquired in each captured image acquired by the imaging unit 16, and the position of the pixel value that matches the color of the spot irradiated by the laser pointer 3 is determined. It can be detected as the pointer position of each captured image. Alternatively, the captured image may be converted to gray scale, and the position with the highest pixel value may be detected as the pointer position.

次いで、CPU11は、ポインタ位置の軌跡形状が閉じた形状か又は水平方向の線形状であるか否か判断する(ステップS2)。
ポインタ位置の軌跡形状が閉じた形状でも水平方向の線形状でもないと判断した場合(ステップS2;NO)、CPU11は、ステップS1に戻る。
Next, the CPU 11 determines whether the trajectory shape at the pointer position is a closed shape or a horizontal line shape (step S2).
When it is determined that the locus shape of the pointer position is neither a closed shape nor a horizontal line shape (step S2; NO), the CPU 11 returns to step S1.

ここで、CPU11は、ポインタ位置の軌跡形状が閉じた形状である場合に、表示画像中における軌跡の上端と下端との間の距離を取得し、該距離が所定の閾値以下である場合は、取得された軌跡形状を線形状として判断してもよい。このようにすることで、ユーザがポインタ位置を水平方向に往復して動かすことで正確に線形状の軌跡を描けない場合であっても、その軌跡の上下方向における上端と下端とのズレ幅が所定の数値以下であれば、線形状であると判断することができ、利便性が向上する。   Here, when the trajectory shape of the pointer position is a closed shape, the CPU 11 acquires the distance between the upper end and the lower end of the trajectory in the display image, and when the distance is equal to or less than a predetermined threshold value, The acquired trajectory shape may be determined as a line shape. In this way, even if the user cannot accurately draw a linear trajectory by moving the pointer position back and forth in the horizontal direction, the deviation width between the upper end and the lower end in the vertical direction of the trajectory is If it is below a predetermined numerical value, it can be judged that it is a line shape, and the convenience improves.

ポインタ位置の軌跡形状が閉じた形状か又は水平方向の線形状であると判断した場合(ステップS2;YES)、CPU11は、強調用テーブルT1を参照し、ポインタ位置の軌跡形状に基づいて強調する対象の種類を決定する(ステップS3)。   When determining that the locus shape of the pointer position is a closed shape or a horizontal line shape (step S2; YES), the CPU 11 refers to the emphasis table T1 and emphasizes based on the locus shape of the pointer position. The type of object is determined (step S3).

次いで、CPU11は、強調する対象の抽出処理を行う(ステップS4)。
例えば、ポインタ位置の軌跡が閉じている場合、CPU11は、ステップS1で取得された撮影画像における軌跡が閉じた範囲近傍に、ステップS3で決定された種類の対象物が存在しているか否かを判断する。
例えば、CPU11は、ステップS1で取得された軌跡の座標に基づいて、投影対象の投影用データ上における、ポインタ位置の軌跡に対応する位置の座標を特定する。ポインタ位置の軌跡が閉じた形状である場合、CPU11は、投影用データにおいて、軌跡に対
応する位置の座標(例えば閉じた形状の中心点)の位置にあり、かつポインタ位置の軌跡に対応する閉じた範囲近傍に、ステップS3で決定された種類の対象物が存在するか否かを判断する。ステップS3で決定された種類の対象物が存在する場合、CPU11は、その対象物を強調する対象として抽出する。また、ポインタ位置の軌跡が水平方向の線形状である場合、CPU11は、投影用データにおいて、軌跡に対応する位置の座標(例えば線形状の中心点)の位置にあり、かつポインタ位置の軌跡に対応する水平方向の線の上部又はその線に重なる範囲近傍に、ステップS13で決定された種類の対象物が存在するか否かを判断する。対象物が存在する場合、CPU11は、その対象物を強調する対象として抽出する。
Next, the CPU 11 performs a process for extracting an object to be emphasized (step S4).
For example, when the locus of the pointer position is closed, the CPU 11 determines whether or not the type of object determined in step S3 exists in the vicinity of the range where the locus in the captured image acquired in step S1 is closed. to decide.
For example, the CPU 11 specifies the coordinates of the position corresponding to the locus of the pointer position on the projection data to be projected, based on the coordinates of the locus acquired in step S1. When the locus of the pointer position is a closed shape, the CPU 11 is located at the position of the coordinates of the position corresponding to the locus (for example, the center point of the closed shape) in the projection data and closes corresponding to the locus of the pointer position. It is determined whether or not the type of object determined in step S3 exists in the vicinity of the range. If there is an object of the type determined in step S3, the CPU 11 extracts the object as an object to be emphasized. When the pointer position locus is a horizontal line shape, the CPU 11 is in the position of the position coordinates corresponding to the locus (for example, the center point of the line shape) in the projection data, and the pointer position locus It is determined whether or not the type of object determined in step S13 exists above the corresponding horizontal line or in the vicinity of the range overlapping the line. When there is an object, the CPU 11 extracts the object as an object to be emphasized.

次いで、CPU11は、強調する対象が存在したか否かを判断する(ステップS5)。強調する対象が存在しなかった場合(ステップS5;NO)、CPU11は、ステップS1に戻る。
強調する対象が存在した場合(ステップS5;YES)、CPU11は、強調用テーブルT1を参照し、ステップS1で取得したポインタ位置の軌跡形状に対応する強調態様を特定し、投影用データにおける強調する対象を特定された強調態様で強調させてその画像を投影部13に投影させることにより、スクリーン2の表示画像上の強調する対象を強調させる(ステップS6)。
Next, the CPU 11 determines whether there is an object to be emphasized (step S5). If there is no target to be emphasized (step S5; NO), the CPU 11 returns to step S1.
When there is an object to be emphasized (step S5; YES), the CPU 11 refers to the emphasis table T1, identifies an emphasis mode corresponding to the locus shape of the pointer position acquired in step S1, and emphasizes the projection data. The target to be emphasized on the display image on the screen 2 is emphasized by emphasizing the target in the specified emphasis mode and projecting the image on the projection unit 13 (step S6).

例えば、強調用テーブルT1において、軌跡形状が閉じた円である場合の強調する対象の種類として図形が設定され、強調態様として塗りつぶしが設定されている場合、図4に示すように、レーザーポインタ3によりスクリーン2に投影されている図形及び文字列を円で囲む操作を行うと、強調する対象として設定されている図形のみが塗りつぶしで強調表示される。   For example, in the emphasis table T1, when the figure is set as the type of the object to be emphasized when the locus shape is a closed circle and the fill is set as the emphasis mode, as shown in FIG. When the operation of enclosing the figure and the character string projected on the screen 2 with a circle is performed, only the figure set as an object to be emphasized is highlighted and displayed.

また、例えば、強調用テーブルT1において、軌跡形状が線形である場合の強調する対象の種類として文字列が設定され、強調態様として赤色表示が設定されている場合、図5に示すように、レーザーポインタ3によりスクリーン2に投影されている文字列に下線を引く操作を行うと、文字列が赤色で強調表示される。   Further, for example, in the emphasis table T1, when the character string is set as the type of the target to be emphasized when the locus shape is linear and the red display is set as the emphasis mode, as shown in FIG. When an operation of underlining the character string projected on the screen 2 by the pointer 3 is performed, the character string is highlighted in red.

また、例えば、強調用テーブルT1において、軌跡形状が閉じた矩形である場合の強調する対象の種類として画像が設定され、強調態様として矩形が設定されている場合、図6に示すように、レーザーポインタ3によりスクリーン2に投影されている画像及び文字列を矩形で囲む操作を行うと、強調する対象として設定されている画像のみが矩形で囲んで強調表示される。   Further, for example, in the emphasis table T1, when an image is set as the type of object to be emphasized when the locus shape is a closed rectangle, and a rectangle is set as the emphasis mode, as shown in FIG. When an operation of enclosing an image and a character string projected on the screen 2 with a rectangle by the pointer 3 is performed, only an image set as an object to be emphasized is highlighted with a rectangle.

このように、強調処理では、レーザーポインタ3のポインタ位置の軌跡形状に応じた種類の対象物(例えば、文字、図形、画像、数式等)を強調する対象として抽出するので、レーザーポインタ3で指定した位置に文字や図形等が混在していても、レーザーポインタ3のポインタ位置の軌跡が強調させたい対象物の種類に応じた形状となるようにユーザがレーザーポインタ3を動かすだけで、ユーザが意図した対象物を簡単に強調する対象として抽出して強調させることが可能となる。また、ポインタ位置の軌跡形状に応じて、強調態様を変更することが可能となる。   As described above, in the enhancement process, since the type of object (for example, a character, a figure, an image, a mathematical expression, etc.) corresponding to the locus shape of the pointer position of the laser pointer 3 is extracted as an object to be emphasized, the laser pointer 3 is designated. Even if characters, graphics, and the like are mixed at the position, the user simply moves the laser pointer 3 so that the locus of the pointer position of the laser pointer 3 has a shape corresponding to the type of object to be emphasized. The intended object can be extracted and emphasized as an object to be easily emphasized. Further, the emphasis mode can be changed according to the locus shape of the pointer position.

次いで、CPU11は、一連の投影の終了が指示されたか否かを判断する(ステップS7)。一連の投影の終了が指示されてしていないと判断した場合(ステップS7;NO)、CPU11は、ステップS1に戻る。
一連の投影の終了が指示されたと判断した場合(ステップS7;YES)、CPU11は、強調処理を終了する。
Next, the CPU 11 determines whether or not the end of a series of projections has been instructed (step S7). When determining that the end of a series of projections has not been instructed (step S7; NO), the CPU 11 returns to step S1.
When determining that the end of a series of projections has been instructed (step S7; YES), the CPU 11 ends the enhancement processing.

以上説明したように、プロジェクタ1によれば、CPU11は、投影部13により投影した表示画像上を指すポインタ位置の軌跡形状を取得し、取得した軌跡形状に基づいて、表示画像内における強調する対象を抽出する。
従って、表示画像におけるレーザーポインタ3で指示された箇所に文字列や図形が混在している場合であっても、表示画像の中から強調する対象を容易に抽出することが可能となる。
As described above, according to the projector 1, the CPU 11 acquires the locus shape of the pointer position pointing on the display image projected by the projection unit 13, and the object to be emphasized in the display image based on the obtained locus shape. To extract.
Therefore, even when a character string or a figure is mixed at a location indicated by the laser pointer 3 in the display image, it is possible to easily extract an object to be emphasized from the display image.

例えば、CPU11は、取得した軌跡形状に基づいて強調する対象の種類を決定し、決定した種類に基づいて強調する対象を抽出する。従って、表示画像上を指すポインタ位置の軌跡形状に応じた種類(文字列、図形、画像、数式等)の対象物を強調する対象として容易に抽出することが可能となる。   For example, the CPU 11 determines the type of the object to be emphasized based on the acquired trajectory shape, and extracts the object to be emphasized based on the determined type. Therefore, it is possible to easily extract an object of a type (character string, figure, image, mathematical expression, etc.) corresponding to the locus shape of the pointer position pointing on the display image as an object to be emphasized.

また、CPU11は、表示画像上を指すポインタ位置の軌跡形状に基づいて、対象を強調する態様を変化させる。従って、ユーザがレーザーポインタ3で指示するポインタ位置の軌跡形状を変えることで、対象を強調する態様を変化させることが可能となる。   Moreover, CPU11 changes the aspect which emphasizes object based on the locus | trajectory shape of the pointer position which points out on a display image. Therefore, by changing the trajectory shape of the pointer position designated by the user with the laser pointer 3, it is possible to change the aspect of emphasizing the target.

なお、上記実施形態における記述内容は、本発明に係るプロジェクタの好適な一例であり、これに限定されるものではない。   Note that the description in the above embodiment is a preferred example of the projector according to the present invention, and the present invention is not limited to this.

例えば、上記実施形態においては、本発明をプロジェクタからスクリーンに画像を投影することで画像の表示を行うプロジェクタに適用した場合を例にとり説明したが、例えば、液晶ディスプレイ、プラズマディスプレイ等を備える表示装置に適用しても同様の効果を奏することができ、この例に限定されない。   For example, in the above embodiment, the case where the present invention is applied to a projector that displays an image by projecting an image from a projector onto a screen has been described as an example. However, for example, a display device including a liquid crystal display, a plasma display, or the like Even if applied to the above, the same effect can be obtained, and the present invention is not limited to this example.

また、上記実施形態においては、表示画像におけるポインタ位置の軌跡形状に基づいて強調する対象の種類を決定する場合の例として、スクリーン2に投影したスライド上におけるレーザーポインタ3のポインタ位置の軌跡形状に基づいて強調する対象の種類(文字列、画像、図形、グラフ、数式、動画等)を決定することとして説明したが、例えば、PC等のディスプレイ上におけるマウスカーソルの軌跡形状に基づいて、強調するウィンドウの種類等を決定することとしてもよい。例えば、ブラウザ、フォルダ、メールソフト、ワープロソフト等の各ウィンドウのそれぞれに対応する軌跡の形状を記憶しておき、ディスプレイ上でのマウスカーソルの軌跡形状に応じて、対応する種類のウィンドウをディスプレイの前面に表示させて(或いは、アクティブにして)強調することとしてもよい。   In the above embodiment, as an example of determining the type of object to be emphasized based on the trajectory shape of the pointer position in the display image, the trajectory shape of the pointer position of the laser pointer 3 on the slide projected on the screen 2 is used. Although it has been described that the type of object to be emphasized (character string, image, graphic, graph, mathematical expression, video, etc.) is determined based on, for example, emphasis is performed based on the locus shape of a mouse cursor on a display such as a PC The type of window may be determined. For example, the shape of the trajectory corresponding to each window of the browser, folder, mail software, word processor software, etc. is stored, and the corresponding type of window is displayed on the display according to the trajectory shape of the mouse cursor on the display. It may be displayed on the front (or activated) and emphasized.

また、上記実施形態で示したポインタ位置の軌跡形状、強調する対象の種類、強調の態様は一例であり、実施形態で示したものに限定されない。   Moreover, the locus | trajectory shape of the pointer position shown in the said embodiment, the kind of object to emphasize, and the aspect of emphasis are examples, and are not limited to what was shown in embodiment.

また、上記実施形態においては、プロジェクタ1が単体で動作する例を示したが、これに限られない。プロジェクタ1がPC等の外部機器と接続されており、外部機器が上記実施形態における記憶部14の機能を持っていてもよい。つまり、軌跡形状を撮影部16が取得し、該軌跡形状を外部機器に送信することで、外部機器が図3に示すステップS2からステップS6までの処理を行うことで、プロジェクタ1に対象を強調させてもよい。その他、上記実施形態における各機能及び動作は、各装置に適宜割り当ててもよい。   Moreover, in the said embodiment, although the example which the projector 1 operate | moves independently was shown, it is not restricted to this. The projector 1 may be connected to an external device such as a PC, and the external device may have the function of the storage unit 14 in the above embodiment. That is, the imaging unit 16 acquires the trajectory shape and transmits the trajectory shape to the external device, so that the external device performs the processing from step S2 to step S6 illustrated in FIG. You may let them. In addition, each function and operation in the above embodiment may be appropriately assigned to each device.

その他、プロジェクタを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the projector can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。
付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
表示画像を表示する表示手段と、
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える表示装置。
<請求項2>
前記軌跡形状と前記対象の種類とを対応付けて記憶している記憶手段をさらに備えることを特徴とする請求項1に記載の表示装置。
<請求項3>
前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状か、線形状であるかを判断することを特徴とする請求項1又は2に記載の表示装置。
<請求項4>
前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状である場合に、前記表示画像中における前記軌跡の上端と下端との間の距離を取得し、前記距離が所定の閾値以下である場合に前記軌跡形状を線形状として判断することを特徴とする請求項3に記載の表示装置。
<請求項5>
前記軌跡形状は、前記ポインタ位置が移動を開始してから停止するまでの前記ポインタ位置の軌跡の形状である請求項1〜4の何れか一項に記載の表示装置。
<請求項6>
前記表示画像における前記対象を強調する態様に変更する強調手段を備える請求項1〜5の何れか一項に記載の表示装置。
<請求項7>
前記強調手段は、前記軌跡形状に基づいて、前記対象を強調する態様を変化させる請求項6に記載の表示装置。
<請求項8>
前記ポインタ位置の軌跡に基づいて所定の座標を取得する座標取得手段をさらに備え、
前記抽出手段は、前記軌跡形状と前記座標とに基づいて前記表示画像内における対象を抽出することを特徴とする請求項1〜7の何れか一項に記載の表示装置。
<請求項9>
前記表示画像はスライドであり、
前記抽出手段は、前記軌跡形状取得手段により取得されたポインタ位置の軌跡形状に基づいて前記スライド内の対象の種類を決定し、決定した種類に基づいて前記スライドに含まれる対象を抽出する請求項1〜8の何れか一項に記載の表示装置。
<請求項10>
表示画像を表示する工程と、
前記表示画像上を指すポインタ位置の軌跡形状を取得する工程と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する工程と、
を含む表示方法。
<請求項11>
表示画像を表示する表示手段を備える表示装置に用いられるコンピュータを、
前記表示画像上を指すポインタ位置の軌跡形状を取得する軌跡形状取得手段、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below.
The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
A display device comprising:
<Claim 2>
The display device according to claim 1, further comprising a storage unit that stores the locus shape and the target type in association with each other.
<Claim 3>
The display device according to claim 1, wherein the trajectory shape acquisition unit determines whether the trajectory shape at the pointer position is a closed shape or a linear shape.
<Claim 4>
The trajectory shape acquisition unit acquires a distance between an upper end and a lower end of the trajectory in the display image when the trajectory shape at the pointer position is a closed shape, and the distance is equal to or less than a predetermined threshold value. The display device according to claim 3, wherein the trajectory shape is determined as a line shape in some cases.
<Claim 5>
The display device according to claim 1, wherein the trajectory shape is a trajectory shape of the pointer position from when the pointer position starts moving to when it stops.
<Claim 6>
The display device according to claim 1, further comprising an emphasis unit that changes the aspect of the display image to emphasize the target.
<Claim 7>
The display device according to claim 6, wherein the highlighting unit changes a mode of highlighting the target based on the trajectory shape.
<Claim 8>
Further comprising coordinate acquisition means for acquiring predetermined coordinates based on the locus of the pointer position;
The display device according to claim 1, wherein the extraction unit extracts a target in the display image based on the locus shape and the coordinates.
<Claim 9>
The display image is a slide,
The extraction unit determines a type of a target in the slide based on a trajectory shape of the pointer position acquired by the trajectory shape acquisition unit, and extracts a target included in the slide based on the determined type. The display device according to any one of 1 to 8.
<Claim 10>
Displaying a display image;
Obtaining a trajectory shape of a pointer position pointing on the display image;
Determining the type of object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Display method including.
<Claim 11>
A computer used in a display device including display means for displaying a display image,
Trajectory shape acquisition means for acquiring a trajectory shape of a pointer position pointing on the display image;
Extracting means for determining a type of an object in the display image based on the locus shape, and extracting an object in the display image based on the determined type;
Program to function as.

1 プロジェクタ
11 CPU
12 RAM
13 投影部
14 記憶部
141 プログラム記憶部
142 投影用データ記憶部
143 強調用テーブル記憶部
15 操作部
16 撮影部
17 通信部
18 バス
1 Projector 11 CPU
12 RAM
13 Projection Unit 14 Storage Unit 141 Program Storage Unit 142 Projection Data Storage Unit 143 Enhancement Table Storage Unit 15 Operation Unit 16 Imaging Unit 17 Communication Unit 18 Bus

Claims (11)

表示画像を表示する表示手段と、
前記表示画像上を指すポインタ位置の軌跡を取得し、その軌跡形状を取得する軌跡形状取得手段と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段と、
を備える表示装置。
Display means for displaying a display image;
Trajectory shape acquisition means for acquiring a trajectory of the pointer position pointing on the display image and acquiring the trajectory shape;
Extracting means for determining the type of the object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
A display device comprising:
前記軌跡形状と前記対象の種類とを対応付けて記憶している記憶手段をさらに備えることを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, further comprising a storage unit that stores the locus shape and the target type in association with each other. 前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状か、線形状であるかを判断することを特徴とする請求項1又は2に記載の表示装置。   The display device according to claim 1, wherein the trajectory shape acquisition unit determines whether the trajectory shape at the pointer position is a closed shape or a linear shape. 前記軌跡形状取得手段は、前記ポインタ位置の軌跡形状が閉じた形状である場合に、前記表示画像中における前記軌跡の上端と下端との間の距離を取得し、前記距離が所定の閾値以下である場合に前記軌跡形状を線形状として判断することを特徴とする請求項3に記載の表示装置。   The trajectory shape acquisition unit acquires a distance between an upper end and a lower end of the trajectory in the display image when the trajectory shape at the pointer position is a closed shape, and the distance is equal to or less than a predetermined threshold value. The display device according to claim 3, wherein the trajectory shape is determined as a line shape in some cases. 前記軌跡形状は、前記ポインタ位置が移動を開始してから停止するまでの前記ポインタ位置の軌跡の形状である請求項1〜4の何れか一項に記載の表示装置。   The display device according to claim 1, wherein the trajectory shape is a trajectory shape of the pointer position from when the pointer position starts moving to when it stops. 前記表示画像における前記対象を強調する態様に変更する強調手段を備える請求項1〜5の何れか一項に記載の表示装置。   The display device according to claim 1, further comprising an emphasis unit that changes the aspect of the display image to emphasize the target. 前記強調手段は、前記軌跡形状に基づいて、前記対象を強調する態様を変化させる請求項6に記載の表示装置。   The display device according to claim 6, wherein the highlighting unit changes a mode of highlighting the target based on the trajectory shape. 前記ポインタ位置の軌跡に基づいて所定の座標を取得する座標取得手段をさらに備え、
前記抽出手段は、前記軌跡形状と前記座標とに基づいて前記表示画像内における対象を抽出することを特徴とする請求項1〜7の何れか一項に記載の表示装置。
Further comprising coordinate acquisition means for acquiring predetermined coordinates based on the locus of the pointer position;
The display device according to claim 1, wherein the extraction unit extracts a target in the display image based on the locus shape and the coordinates.
前記表示画像はスライドであり、
前記抽出手段は、前記軌跡形状取得手段により取得されたポインタ位置の軌跡形状に基づいて前記スライド内の対象の種類を決定し、決定した種類に基づいて前記スライドに含まれる対象を抽出する請求項1〜8の何れか一項に記載の表示装置。
The display image is a slide,
The extraction unit determines a type of a target in the slide based on a trajectory shape of the pointer position acquired by the trajectory shape acquisition unit, and extracts a target included in the slide based on the determined type. The display device according to any one of 1 to 8.
表示画像を表示する工程と、
前記表示画像上を指すポインタ位置の軌跡形状を取得する工程と、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する工程と、
を含む表示方法。
Displaying a display image;
Obtaining a trajectory shape of a pointer position pointing on the display image;
Determining the type of object in the display image based on the trajectory shape, and extracting the object in the display image based on the determined type;
Display method including.
表示画像を表示する表示手段を備える表示装置に用いられるコンピュータを、
前記表示画像上を指すポインタ位置の軌跡形状を取得する軌跡形状取得手段、
前記軌跡形状に基づいて前記表示画像内の対象の種類を決定し、決定した種類に基づいて前記表示画像内における対象を抽出する抽出手段、
として機能させるためのプログラム。
A computer used in a display device including display means for displaying a display image,
Trajectory shape acquisition means for acquiring a trajectory shape of a pointer position pointing on the display image;
Extracting means for determining a type of an object in the display image based on the locus shape, and extracting an object in the display image based on the determined type;
Program to function as.
JP2016243868A 2016-12-16 2016-12-16 Display device, display method and program Active JP6880697B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243868A JP6880697B2 (en) 2016-12-16 2016-12-16 Display device, display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243868A JP6880697B2 (en) 2016-12-16 2016-12-16 Display device, display method and program

Publications (2)

Publication Number Publication Date
JP2018097280A true JP2018097280A (en) 2018-06-21
JP6880697B2 JP6880697B2 (en) 2021-06-02

Family

ID=62632946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243868A Active JP6880697B2 (en) 2016-12-16 2016-12-16 Display device, display method and program

Country Status (1)

Country Link
JP (1) JP6880697B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023522654A (en) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions to generate video using synthetic input from multiple cameras

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049700A (en) * 1996-08-02 1998-02-20 Canon Inc Pen input device, pen input method, input device, and input method
JP2004213521A (en) * 2003-01-08 2004-07-29 Canon Inc Pen input information processing method
JP2014119295A (en) * 2012-12-14 2014-06-30 Clarion Co Ltd Control device and portable terminal
JP2016126548A (en) * 2015-01-05 2016-07-11 セイコーエプソン株式会社 Display and display control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049700A (en) * 1996-08-02 1998-02-20 Canon Inc Pen input device, pen input method, input device, and input method
JP2004213521A (en) * 2003-01-08 2004-07-29 Canon Inc Pen input information processing method
JP2014119295A (en) * 2012-12-14 2014-06-30 Clarion Co Ltd Control device and portable terminal
JP2016126548A (en) * 2015-01-05 2016-07-11 セイコーエプソン株式会社 Display and display control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023522654A (en) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions to generate video using synthetic input from multiple cameras
JP7462069B2 (en) 2020-05-11 2024-04-04 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions for generating video using composite input from multiple cameras

Also Published As

Publication number Publication date
JP6880697B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
US10649546B2 (en) Method and apparatus for presenting panoramic photo in mobile terminal, and mobile terminal
EP2956843B1 (en) Human-body-gesture-based region and volume selection for hmd
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US9706108B2 (en) Information processing apparatus and associated methodology for determining imaging modes
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US20140015778A1 (en) Tablet device, and operation receiving method
JP5769277B2 (en) Input device, input method, and program
WO2014176912A1 (en) Two dimensional-code scanning method and device
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
JP6229554B2 (en) Detection apparatus and detection method
JP2014029656A (en) Image processor and image processing method
TWI502988B (en) Electronic devices and methods for enhancing image resolution and computer-readable mediums thereof
US10057315B2 (en) Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image
JP6880697B2 (en) Display device, display method and program
US10185407B2 (en) Display control apparatus, display control method and recording medium
US10983608B2 (en) System and method of annotation of a shared display using a mobile device
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR101911676B1 (en) Apparatus and Method for Presentation Image Processing considering Motion of Indicator
US20180239486A1 (en) Control method, electronic blackboard system, display device, and program
US11528423B2 (en) Apparatus, method, and storage medium
JP2018156416A (en) Information processing apparatus, information processing method, and program
JP2016194835A (en) Information extraction method, information extraction program and information extraction apparatus
CN105847668A (en) A gesture recognition driving method for selfie camera devices
JP2014178790A (en) Projection system, projection device, projection program, and projection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6880697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150