[go: up one dir, main page]

JP2013114467A - Display system, display method and program - Google Patents

Display system, display method and program Download PDF

Info

Publication number
JP2013114467A
JP2013114467A JP2011260236A JP2011260236A JP2013114467A JP 2013114467 A JP2013114467 A JP 2013114467A JP 2011260236 A JP2011260236 A JP 2011260236A JP 2011260236 A JP2011260236 A JP 2011260236A JP 2013114467 A JP2013114467 A JP 2013114467A
Authority
JP
Japan
Prior art keywords
image
target area
user
display
copy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011260236A
Other languages
Japanese (ja)
Inventor
Tomomi Takashina
知巳 高階
Yutaka Iwasaki
豊 岩崎
Hideki Sasaki
秀貴 佐々木
Yuji Kunigome
祐司 國米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011260236A priority Critical patent/JP2013114467A/en
Publication of JP2013114467A publication Critical patent/JP2013114467A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】コンピュータ等を直接操作することなく、実空間内の物体の外観をコピーして、実空間内の任意の位置に表示する。
【解決手段】実空間における対象領域に対するユーザの操作を検出する操作検出部と、対象領域に対してユーザが予め定められたコピー操作をしたことに応じて、対象領域を撮像した画像におけるコピー操作により指定された範囲を取得する画像取得部と、対象領域に対してユーザが予め定められたペースト操作をしたこと応じて、実空間に画像を表示するための表示装置を制御して、コピー操作により取得された画像をペースト操作により指定された位置に表示する表示制御部と、を備える表示システムを提供する。
【選択図】図1
An object of the present invention is to copy the appearance of an object in a real space and display it at an arbitrary position in the real space without directly operating a computer or the like.
An operation detection unit for detecting a user operation on a target area in a real space, and a copy operation on an image obtained by capturing the target area in response to a user performing a predetermined copy operation on the target area. A copy operation by controlling an image acquisition unit for acquiring a range specified by the control unit and a display device for displaying an image in the real space in response to a user performing a predetermined paste operation on the target area. And a display control unit that displays the image acquired at the position specified by the paste operation.
[Selection] Figure 1

Description

本発明は、表示システム、表示方法およびプログラムに関する。   The present invention relates to a display system, a display method, and a program.

特許文献1には、コピー対象を正確に選択するための方法が記載されている。特許文献2には、マルチタッチパネルにおいて、指のジェスチャーにより情報を入力する方法が記載されている。特許文献3には、対象物を含む領域に注釈画像を表示する方法が記載されている。特許文献4には、複数のデプスセンシングカメラと複数のプロジェクタとの座標を一致させて、3次元空間の任意の位置に仮想的なオブジェクトを表示する方法が記載されている。
特許文献1 特許第4056477号明細書
特許文献2 特表2010−532055号公報(WO2009/002758)
特許文献3 特開2009−290488号公報
特許文献4 US2011/0205341
Patent Document 1 describes a method for accurately selecting a copy target. Patent Document 2 describes a method of inputting information by a finger gesture on a multi-touch panel. Patent Document 3 describes a method for displaying an annotation image in a region including an object. Patent Document 4 describes a method of displaying a virtual object at an arbitrary position in a three-dimensional space by matching the coordinates of a plurality of depth sensing cameras and a plurality of projectors.
Patent Document 1 Japanese Patent No. 4056477 Specification Patent Document 2 Japanese Translation of PCT International Publication No. 2010-532055 (WO2009 / 002758)
Patent Document 3 JP 2009-290488 A Patent Document 4 US2011 / 0205341

しかし、従来、コンピュータ等を直接操作することなく、実空間内の物体の外観をコピーして、実空間内の任意の位置に表示させることはできなかった。   However, conventionally, the appearance of an object in the real space cannot be copied and displayed at an arbitrary position in the real space without directly operating a computer or the like.

本発明の第1の態様においては、実空間における対象領域に対するユーザの操作を検出する操作検出部と、前記対象領域に対してユーザが予め定められたコピー操作をしたことに応じて、前記対象領域を撮像した画像における前記コピー操作により指定された範囲を取得する画像取得部と、前記対象領域に対して前記ユーザが予め定められたペースト操作をしたこと応じて、前記実空間に画像を表示するための表示装置を制御して、前記コピー操作により取得された画像を前記ペースト操作により指定された位置に表示する表示制御部と、を備える表示システム、及び、このような表示システムに関連する表示方法およびプログラムを提供する。   In the first aspect of the present invention, the operation detection unit that detects a user operation on the target area in the real space, and the target in response to a user performing a predetermined copy operation on the target area. An image acquisition unit that acquires a range specified by the copy operation in an image obtained by imaging an area, and an image is displayed in the real space in response to the user performing a predetermined paste operation on the target area A display system comprising: a display control unit for controlling a display device to display the image acquired by the copy operation at a position specified by the paste operation; and a display system related to such a display system A display method and program are provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る表示システム10の構成を示す。1 shows a configuration of a display system 10 according to the present embodiment. 本実施形態に係る制御装置30の機能構成を示す。The function structure of the control apparatus 30 which concerns on this embodiment is shown. スクリーン14(対象平面)に設けられたポスター62および表示された画像オブジェクトの一例を示す。An example of the poster 62 provided on the screen 14 (target plane) and the displayed image object is shown. 初期化処理のフローを示す。The flow of initialization processing is shown. 通常処理のフローを示す。The flow of normal processing is shown. コピー操作の一例を示す。An example of a copy operation is shown. コピー操作がされた場合の処理フローを示す。A processing flow when a copy operation is performed is shown. ペースト操作の一例を示す。An example of paste operation is shown. ペースト操作がされた場合の処理フローを示す。The processing flow when a paste operation is performed is shown. 移動操作の一例を示す。An example of movement operation is shown. 移動操作または拡大縮小操作がされた場合の処理フローを示す。The processing flow when a movement operation or an enlargement / reduction operation is performed is shown. コピー操作時に表示される枠66および画像68の一例を示す。An example of a frame 66 and an image 68 displayed during the copy operation is shown. 低解像度でコピーする場合および高解像度でコピーする場合のコピー操作の一例を示す。An example of a copy operation when copying at a low resolution and when copying at a high resolution is shown. 操作する指毎に異なる画像を対応付けてコピーする場合のコピー操作およびペースト操作の一例を示す。An example of a copy operation and a paste operation when copying different images for each finger to be operated is shown. 本実施形態の変形例に係る制御装置30の機能ブロックを示す。The functional block of the control apparatus 30 which concerns on the modification of this embodiment is shown. 本実施形態の変形例に係る表示システム10によるデータの表示例を示す。The example of a display of the data by the display system 10 which concerns on the modification of this embodiment is shown. 本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。2 shows an exemplary hardware configuration of a computer 1900 according to the present embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る表示システム10の構成を示す。表示システム10は、ユーザがコピーを表す動作(コピー操作)をしたことに応じて、対象領域(本実施形態においては対象平面)におけるユーザにより指定された範囲の画像を撮像して取得する。そして、表示システム10は、ユーザがペーストを表す動作(ペースト操作)をしたことに応じて、コピー操作によって取得した画像を対象領域(本実施形態においては対象平面)のユーザにより指定された位置に例えば投影して表示する。   FIG. 1 shows a configuration of a display system 10 according to the present embodiment. The display system 10 captures and acquires an image of a range specified by the user in the target area (target plane in the present embodiment) in response to the user performing an operation representing copying (copy operation). The display system 10 then displays the image acquired by the copy operation at a position specified by the user in the target area (target plane in the present embodiment) in response to the user performing an operation representing paste (paste operation). For example, it is projected and displayed.

表示システム10は、撮像装置22と、表示装置24と、距離検出装置26と、制御装置30とを備える。撮像装置22は、実空間における対象平面の少なくとも一部を撮像する。本実施形態において、対象平面は、部屋12内に設けられたスクリーン14である。しかし、対象領域は、スクリーン14に限らず、机上の面、部屋の側壁、床面等の他の領域であってもよい。また、対象領域は、平面に限らず、曲面または段差が付いた面等であってもよい。   The display system 10 includes an imaging device 22, a display device 24, a distance detection device 26, and a control device 30. The imaging device 22 images at least a part of the target plane in real space. In the present embodiment, the target plane is a screen 14 provided in the room 12. However, the target area is not limited to the screen 14 and may be other areas such as a desk surface, a side wall of the room, and a floor surface. Further, the target region is not limited to a flat surface, and may be a curved surface or a surface with a step.

表示装置24は、実空間における対象平面の少なくとも一部に画像を表示する。表示装置24は、一例として、対象平面に画像を投影するプロジェクタである。また、表示装置24は、スクリーン14と一体的に設けられたフラットパネルディスプレイであってもよい。   The display device 24 displays an image on at least a part of the target plane in the real space. As an example, the display device 24 is a projector that projects an image on a target plane. The display device 24 may be a flat panel display provided integrally with the screen 14.

なお、撮像装置22の撮像範囲と表示装置24の表示範囲とは、互いに重複する範囲であってもよいし、重複しない範囲であってもよい。例えば、スクリーン14の全面が対象平面である場合、撮像装置22の撮像範囲がスクリーン14における左半分の範囲であり、表示装置24の表示範囲がスクリーン14における右半分の範囲である。   Note that the imaging range of the imaging device 22 and the display range of the display device 24 may be ranges that overlap each other, or may be ranges that do not overlap. For example, when the entire surface of the screen 14 is the target plane, the imaging range of the imaging device 22 is the left half range on the screen 14, and the display range of the display device 24 is the right half range on the screen 14.

距離検出装置26は、実空間における物体までの距離を検出する。距離検出装置26は、一例として、右側カメラと左側カメラとを有するステレオカメラである。このような距離検出装置26は、右側カメラにより撮像された画像と左側カメラにより撮像された画像との間の視差により、画面内の各物体までの被写体距離を表すことができる。本実施形態においては、距離検出装置26は、ステレオ画像に基づき画面内に含まれる物体の表面の各位置までの距離を示す距離画像を生成して出力する。   The distance detection device 26 detects the distance to the object in the real space. As an example, the distance detection device 26 is a stereo camera having a right camera and a left camera. Such a distance detection device 26 can represent the subject distance to each object on the screen by the parallax between the image captured by the right camera and the image captured by the left camera. In the present embodiment, the distance detection device 26 generates and outputs a distance image indicating the distance to each position on the surface of the object included in the screen based on the stereo image.

制御装置30は、コンピュータである。制御装置30は、撮像装置22、表示装置24および距離検出装置26の動作を制御する。より具体的には、制御装置30は、撮像装置22を制御して、撮像装置22により撮像された撮像画像を取得する。また、制御装置30は、距離検出装置26を制御して、距離検出装置26により生成された距離画像を取得する。さらに、制御装置30は、表示装置24を制御して、対象平面に画像を表示する。   The control device 30 is a computer. The control device 30 controls operations of the imaging device 22, the display device 24, and the distance detection device 26. More specifically, the control device 30 controls the imaging device 22 and acquires a captured image captured by the imaging device 22. In addition, the control device 30 controls the distance detection device 26 to acquire a distance image generated by the distance detection device 26. Furthermore, the control device 30 controls the display device 24 to display an image on the target plane.

図2は、本実施形態に係る制御装置30の機能構成を示す。制御装置30は、距離取得部42と、対象平面特定部44と、平面パラメータ記憶部46と、操作検出部48と、メイン制御部50と、画像取得部52と、コピー画像記憶部54と、オブジェクト記憶部56と、表示制御部58とを有する。   FIG. 2 shows a functional configuration of the control device 30 according to the present embodiment. The control device 30 includes a distance acquisition unit 42, a target plane identification unit 44, a plane parameter storage unit 46, an operation detection unit 48, a main control unit 50, an image acquisition unit 52, a copy image storage unit 54, An object storage unit 56 and a display control unit 58 are included.

距離取得部42は、距離検出装置26から、実空間における各物体までの距離を示す距離画像を取得する。対象平面特定部44は、距離取得部42により取得された距離画像に基づき、対象平面の位置を特定する。対象平面特定部44は、一例として、初期化処理において、対象平面の位置を特定する。平面パラメータ記憶部46は、対象平面特定部44により特定された対象平面の位置を表す平面パラメータを記憶する。   The distance acquisition unit 42 acquires a distance image indicating the distance to each object in the real space from the distance detection device 26. The target plane specifying unit 44 specifies the position of the target plane based on the distance image acquired by the distance acquisition unit 42. For example, the target plane specifying unit 44 specifies the position of the target plane in the initialization process. The plane parameter storage unit 46 stores a plane parameter indicating the position of the target plane specified by the target plane specifying unit 44.

操作検出部48は、通常処理において、距離取得部42により取得された距離画像、および、平面パラメータ記憶部46に記憶された平面パラメータに基づき、実空間における対象平面に対するユーザの操作を検出する。本実施形態においては、操作検出部48は、対象平面から予め定められた距離内に位置するユーザの身体の予め定められた部位(例えば手)の動きに基づき、対象平面に対するユーザの操作を検出する。   The operation detection unit 48 detects a user operation on the target plane in the real space based on the distance image acquired by the distance acquisition unit 42 and the plane parameter stored in the plane parameter storage unit 46 in the normal process. In the present embodiment, the operation detection unit 48 detects a user operation on the target plane based on the movement of a predetermined part (for example, a hand) of the user's body located within a predetermined distance from the target plane. To do.

操作検出部48は、一例として、ユーザの手が対象平面に触れた状態で右に動いた場合、コピー操作がされたと検出する。操作検出部48は、一例として、ユーザの手が対象平面に触れた状態で左に動いた場合、ペースト操作がされたと検出する。操作検出部48は、一例として、ユーザの手が対象平面に触れた状態で下に動いた場合、消去操作がされたと検出する。操作検出部48は、一例として、ユーザの手が表示されている画像に触れている場合、移動操作または拡大縮小操作がされたと検出する。   For example, when the user's hand moves to the right while touching the target plane, the operation detection unit 48 detects that a copy operation has been performed. For example, when the user's hand moves to the left while touching the target plane, the operation detection unit 48 detects that a paste operation has been performed. For example, the operation detection unit 48 detects that an erasing operation has been performed when the user's hand moves down while touching the target plane. For example, when the user's hand is touching the displayed image, the operation detection unit 48 detects that a movement operation or an enlargement / reduction operation has been performed.

メイン制御部50は、操作検出部48により検出されたユーザの操作に応じて、画像取得部52、コピー画像記憶部54、オブジェクト記憶部56および表示制御部58を制御する。さらに、メイン制御部50は、距離取得部42を制御して距離画像を取得させる。   The main control unit 50 controls the image acquisition unit 52, the copy image storage unit 54, the object storage unit 56, and the display control unit 58 in accordance with the user operation detected by the operation detection unit 48. Further, the main control unit 50 controls the distance acquisition unit 42 to acquire a distance image.

画像取得部52は、撮像装置22により撮像された画像を入力する。そして、画像取得部52は、対象平面に対してユーザがコピー操作をしたことに応じて、対象平面を撮像した画像におけるコピー操作により指定された範囲を取得する。コピー画像記憶部54は、画像取得部52が取得した範囲の画像を、コピー画像として一時的に記憶する。   The image acquisition unit 52 inputs an image captured by the imaging device 22. Then, in response to the user performing a copy operation on the target plane, the image acquisition unit 52 acquires a range specified by the copy operation on the image obtained by capturing the target plane. The copy image storage unit 54 temporarily stores an image in the range acquired by the image acquisition unit 52 as a copy image.

オブジェクト記憶部56は、対象平面に表示するべき1または複数の画像オブジェクトを記憶する。ここで、画像オブジェクトは、画像データとともに、当該画像の表示上の大きさを示す大きさデータおよび表示位置を表す座標データを含むデータである。   The object storage unit 56 stores one or more image objects to be displayed on the target plane. Here, the image object is data including size data indicating the display size of the image and coordinate data representing the display position together with the image data.

表示制御部58は、表示装置24を制御して、オブジェクト記憶部56に含まれる1または複数の画像オブジェクトを対象平面上に表示する。この場合において、表示制御部58は、1または複数の画像オブジェクトのそれぞれに含まれる画像データが、座標データにより表させる座標に表示され、且つ、大きさデータにより表される大きさで表示されるように、1または複数の画像オブジェクトに含まれる画像データを合成して表示する。   The display control unit 58 controls the display device 24 to display one or more image objects included in the object storage unit 56 on the target plane. In this case, the display control unit 58 displays the image data included in each of the one or more image objects in the coordinates represented by the coordinate data and in the size represented by the size data. As described above, the image data included in one or more image objects are combined and displayed.

さらに、表示制御部58は、対象平面に対してユーザがペースト操作をしたこと応じて、表示装置24を制御して、画像取得部52により取得されたコピー画像を実空間におけるペースト操作により指定された位置に表示する。この場合、メイン制御部50は、対象平面に対してユーザがペースト操作をしたことに応じて、コピー画像記憶部54に記憶されているコピー画像にペースト操作により指定された座標データおよび大きさデータを付加して新たな画像オブジェクトを生成し、生成した新たな画像オブジェクトをオブジェクト記憶部56に記憶させる。   Further, the display control unit 58 controls the display device 24 in response to the user performing a paste operation on the target plane, and the copy image acquired by the image acquisition unit 52 is designated by the paste operation in the real space. Displayed at the selected position. In this case, the main control unit 50 determines the coordinate data and size data specified by the paste operation on the copy image stored in the copy image storage unit 54 in response to the user performing a paste operation on the target plane. Is added to generate a new image object, and the generated new image object is stored in the object storage unit 56.

そして、表示制御部58は、オブジェクト記憶部56に記憶された新たな画像オブジェクトを含む1または複数の画像オブジェクトを合成して対象平面に表示する。これにより、表示制御部58は、ペースト操作により指定された位置に、コピー画像を表示することができる。   Then, the display control unit 58 synthesizes one or a plurality of image objects including the new image object stored in the object storage unit 56 and displays them on the target plane. Thereby, the display control unit 58 can display the copy image at the position specified by the paste operation.

なお、制御装置30は、対象平面の座標を1つの物理オブジェクトとして予め登録し、物理オブジェクトとして登録された対象平面に対する各種の操作入力があったことに応じて対応するメソッドを呼び出してデータの入出力をするプログラムを実行する。これにより、ユーザは、対象平面を1つのコンピュータにより制御可能な物理オブジェクトとして認識しながら制御プログラムを記述することができるので、容易にプログラミングをすることができる。   Note that the control device 30 registers the coordinates of the target plane in advance as one physical object, and calls a corresponding method in response to various operation inputs to the target plane registered as the physical object to input data. Execute the program that outputs. As a result, the user can describe the control program while recognizing the target plane as a physical object that can be controlled by one computer, and can easily perform programming.

図3は、スクリーン14(対象平面)に設けられたポスター62および表示された画像オブジェクトの一例を示す。表示システム10によれば、ユーザがあたかも対象平面上の物体の外観をコピーして指定された位置にペーストしているように、画像の撮像および表示をすることができる。   FIG. 3 shows an example of the poster 62 provided on the screen 14 (target plane) and the displayed image object. According to the display system 10, it is possible to capture and display an image as if the user copied the appearance of an object on the target plane and pasted it at a designated position.

例えば、図3に示されるように、人物およびカレンダーが描かれたポスター62がスクリーン14上に設けられていたとする。このような場合において、表示システム10は、スクリーン14に対するユーザの動作によって、ポスター62内の人物の画像とカレンダーの画像とをそれぞれ別個にコピーして、それぞれの画像をスクリーン14上の指定された位置にペーストすることができる。また、さらに、表示システム10は、スクリーン14に対するユーザの動作によって、ペーストした画像を移動したり、ペーストした画像を拡大縮小したり、ペーストした画像を消去したりすることもできる。   For example, it is assumed that a poster 62 on which a person and a calendar are drawn is provided on the screen 14 as shown in FIG. In such a case, the display system 10 separately copies the image of the person in the poster 62 and the image of the calendar in accordance with the user's operation on the screen 14, and each image is designated on the screen 14. Can be pasted into position. Furthermore, the display system 10 can also move the pasted image, enlarge / reduce the pasted image, or erase the pasted image by a user operation on the screen 14.

図4は、初期化処理のフローを示す。表示システム10の制御装置30は、ユーザによる操作に先立って、図4に示すステップS11からステップS15の初期化処理を実行する。   FIG. 4 shows a flow of initialization processing. Prior to the operation by the user, the control device 30 of the display system 10 executes an initialization process from step S11 to step S15 shown in FIG.

まず、ステップS11において、制御装置30は、距離検出装置26から距離画像を取得する。この場合において、制御装置30は、少なくとも対象平面を含む距離画像を取得する。   First, in step S <b> 11, the control device 30 acquires a distance image from the distance detection device 26. In this case, the control device 30 acquires a distance image including at least the target plane.

続いて、ステップS12において、制御装置30は、距離画像に基づき対象平面の位置を特定する。制御装置30は、一例として、距離画像内の各点から、RANSAC法等により、空間内における平面を表す式(a・x+b・y+c・z=d)に一致する点を抽出して、対象平面の位置を特定する。なお、平面を表す式において、a、b、c、dは、定数である。また、平面を表す式において、xは、実空間における横軸方向の位置を表す変数であり、yは、実空間における縦軸方向の位置を表す変数であり、zは、実空間における高さ軸方向の位置を表す変数である。   Subsequently, in step S12, the control device 30 specifies the position of the target plane based on the distance image. As an example, the control device 30 extracts points that match the expression (a · x + b · y + c · z = d) representing a plane in the space from each point in the distance image by the RANSAC method or the like, Specify the position of. In the formula representing a plane, a, b, c, and d are constants. In the expression representing the plane, x is a variable representing the position in the horizontal axis direction in the real space, y is a variable representing the position in the vertical axis direction in the real space, and z is a height in the real space. It is a variable that represents the position in the axial direction.

続いて、ステップS13において、制御装置30は、表示装置24を制御して、対象平面上に予め定められた模様のチェッカーパターンを表示する。制御装置30は、一例として、格子状のチェッカーパターンを表示する。続いて、ステップS14において、制御装置30は、チェッカーパターンが表示された対象平面を撮像装置22および距離検出装置26のそれぞれにより撮像して、画像を取得する。   Subsequently, in step S13, the control device 30 controls the display device 24 to display a checker pattern having a predetermined pattern on the target plane. As an example, the control device 30 displays a lattice checker pattern. Subsequently, in step S14, the control device 30 captures the target plane on which the checker pattern is displayed by the imaging device 22 and the distance detection device 26, and acquires an image.

続いて、ステップS15において、制御装置30は、表示装置24により表示される画像の座標、撮像装置22により撮像される画像の座標、および、距離検出装置26により検出される距離画像の座標のそれぞれを互いに位置合わせする。このような初期化処理を実行することにより、制御装置30は、対象平面に対するユーザの操作位置、対象平面に対する画像の撮像位置、および、対象平面に対する画像の表示位置を一致させることができる。   Subsequently, in step S <b> 15, the control device 30 determines the coordinates of the image displayed by the display device 24, the coordinates of the image captured by the imaging device 22, and the coordinates of the distance image detected by the distance detection device 26. Are aligned with each other. By executing such initialization processing, the control device 30 can match the operation position of the user with respect to the target plane, the imaging position of the image with respect to the target plane, and the display position of the image with respect to the target plane.

図5は、通常処理のフローを示す。表示システム10の制御装置30は、初期化処理を終了した後に、図5に示すステップS21からステップS35の通常処理を実行する。   FIG. 5 shows a flow of normal processing. After completing the initialization process, the control device 30 of the display system 10 executes the normal process from step S21 to step S35 shown in FIG.

まず、ステップS21において、制御装置30は、距離画像を取得する。続いて、ステップS22において、制御装置30は、距離画像に基づき、対象平面から予め定められた距離範囲内に位置する物体の表面領域Tを検出する。例えば、制御装置30は、ユーザの手等が、対象平面であるスクリーン14から予め定められた距離(例えば5cm)以内に位置する場合、当該手の表面領域Tを検出する。これにより、制御装置30は、ユーザの手が対象平面であるスクリーン14に触った或いは接触しているといえるほどに近づいたことを検出することができる。   First, in step S21, the control device 30 acquires a distance image. Subsequently, in step S22, the control device 30 detects the surface area T of the object located within a predetermined distance range from the target plane based on the distance image. For example, when the user's hand or the like is located within a predetermined distance (for example, 5 cm) from the screen 14 that is the target plane, the control device 30 detects the surface region T of the hand. Thus, the control device 30 can detect that the user's hand has come close enough to touch or touch the screen 14 that is the target plane.

続いて、ステップS23において、制御装置30は、ステップS22で検出した表面領域Tを、初期化処理のステップS12で特定した対象平面に射影した領域T´に変換する。続いて、ステップS24において、制御装置30は、領域T´の重心座標Pを算出する。   Subsequently, in step S23, the control device 30 converts the surface area T detected in step S22 into an area T ′ projected onto the target plane identified in step S12 of the initialization process. Subsequently, in step S24, the control device 30 calculates the barycentric coordinates P of the region T ′.

続いて、ステップS25において、制御装置30は、重心座標Pが、対象平面上に表示されている画像オブジェクト上に位置するか否かを判断する。すなわち、制御装置30は、例えばユーザの手が画像オブジェクト上にあるか否かを判断する。制御装置30は、重心座標Pが画像オブジェクト上に位置する場合(ステップS25のYes)、処理をステップS26に進めて、画像オブジェクトの移動操作または拡大縮小操作に応じた処理を実行する。そして、制御装置30は、移動操作または拡大縮小操作に応じた処理を終了すると、処理をステップS21に戻す。   Subsequently, in step S25, the control device 30 determines whether or not the barycentric coordinate P is located on the image object displayed on the target plane. That is, the control device 30 determines whether the user's hand is on the image object, for example. When the barycentric coordinates P are located on the image object (Yes in step S25), the control device 30 advances the process to step S26 and executes a process corresponding to the moving operation or the enlarging / reducing operation of the image object. And the control apparatus 30 returns a process to step S21, after complete | finishing the process according to movement operation or expansion / contraction operation.

制御装置30は、重心座標Pが画像オブジェクト上に位置しない場合(ステップS25のNo)、処理をステップS27に進める。ステップS27において、制御装置30は、重心座標Pが、右方向に移動したか否かを判断する。制御装置30は、重心座標Pが右方向に移動した場合(ステップS27のYes)、処理をステップS28に進めて、コピー操作に応じた処理を実行する。そして、制御装置30は、コピー操作に応じた処理を終了すると、処理をステップS21に戻す。   When the barycentric coordinate P is not located on the image object (No in step S25), the control device 30 advances the process to step S27. In step S27, the control device 30 determines whether the barycentric coordinate P has moved to the right. When the barycentric coordinate P has moved to the right (Yes in step S27), the control device 30 advances the process to step S28 and executes a process according to the copy operation. And the control apparatus 30 returns a process to step S21, after complete | finishing the process according to copy operation.

制御装置30は、重心座標Pが右方向に移動していない場合(ステップS27のNo)、処理をステップS29に進める。ステップS29において、制御装置30は、重心座標Pが左方向に移動したか否かを判断する。制御装置30は、重心座標Pが左方向に移動した場合(ステップS29のYes)、処理をステップS30に進めて、ペースト操作に応じた処理を実行する。そして、制御装置30は、ペースト操作に応じた処理を終了すると、処理をステップS21に戻す。   If the center-of-gravity coordinate P has not moved to the right (No in step S27), the control device 30 advances the process to step S29. In step S29, the control device 30 determines whether the barycentric coordinates P have moved leftward. When the barycentric coordinate P moves to the left (Yes in step S29), the control device 30 advances the process to step S30 and executes a process corresponding to the paste operation. And the control apparatus 30 returns a process to step S21, after complete | finishing the process according to paste operation.

制御装置30は、重心座標Pが左方向に移動していない場合(ステップS29のNo)、処理をステップS31に進める。ステップS31において、制御装置30は、重心座標Pが上方向に移動したか否かを判断する。制御装置30は、重心座標Pが上方向に移動した場合(ステップS31のYes)、処理をステップS32に進めて、保存操作に応じた処理を実行する。ここで、制御装置30は、保存操作がされた場合には、例えば、対象平面上に表示している画像オブジェクトをデータ格納部内に保存する処理を実行する。そして、制御装置30は、保存操作に応じた処理を終了すると、処理をステップS21に戻す。   If the center-of-gravity coordinate P has not moved to the left (No in step S29), the control device 30 advances the process to step S31. In step S31, the control device 30 determines whether or not the barycentric coordinates P have moved upward. When the barycentric coordinates P move upward (Yes in step S31), the control device 30 advances the process to step S32 and executes a process according to the storage operation. Here, when a storage operation is performed, for example, the control device 30 executes a process of storing the image object displayed on the target plane in the data storage unit. And the control apparatus 30 returns a process to step S21, after complete | finishing the process according to preservation | save operation.

制御装置30は、重心座標Pが上方向に移動していない場合(ステップS31のNo)、処理をステップS33に進める。ステップS33において、制御装置30は、重心座標Pが下方向に移動したか否かを判断する。制御装置30は、重心座標Pが下方向に移動した場合(ステップS33のYes)、処理をステップS34に進めて、消去操作に応じた処理を実行する。ここで、制御装置30は、消去操作がされた場合には、例えば、対象平面上に表示している画像オブジェクトを消去する処理を実行する。そして、制御装置30は、消去操作に応じた処理を終了すると、処理をステップS21に戻す。   When the barycentric coordinate P has not moved upward (No in step S31), the control device 30 advances the process to step S33. In step S33, the control device 30 determines whether or not the barycentric coordinate P has moved downward. When the barycentric coordinate P moves downward (Yes in step S33), the control device 30 advances the process to step S34 and executes a process according to the erasing operation. Here, when an erasing operation is performed, for example, the control device 30 executes a process of erasing an image object displayed on the target plane. And the control apparatus 30 returns a process to step S21, after complete | finishing the process according to deletion operation.

制御装置30は、重心座標Pが、対象平面上において下方向に移動していない場合(ステップS33のNo)、処理をステップS35に進める。ステップS35において、制御装置30は、ユーザにより予め定められた停止指示がされたか否かを判断する。制御装置30は、ユーザにより停止指示がされた場合(ステップS35のYes)、当該フローを抜けて、通常処理を終了する。制御装置30は、ユーザにより停止指示がされていない場合(ステップS35のNo)、処理をステップS21に戻す。   When the barycentric coordinate P has not moved downward on the target plane (No in step S33), the control device 30 advances the process to step S35. In step S35, the control device 30 determines whether or not a stop instruction predetermined by the user has been issued. When the stop instruction is given by the user (Yes in step S35), the control device 30 exits the flow and ends the normal process. When the stop instruction is not given by the user (No in step S35), the control device 30 returns the process to step S21.

このような通常処理を実行することにより、制御装置30は、対象平面に対するユーザの操作に応じた処理を実行することができる。より具体的には、制御装置30は、対象平面に対するコピー操作、ペースト操作、移動操作、拡大縮小操作、保存操作および消去操作に応じた処理を実行することができる。   By executing such normal processing, the control device 30 can execute processing according to the user's operation on the target plane. More specifically, the control device 30 can execute processing according to a copy operation, a paste operation, a move operation, an enlargement / reduction operation, a save operation, and an erase operation on the target plane.

図6は、コピー操作の一例を示す。制御装置30の画像取得部52は、対象平面に対してユーザがコピー操作をしたことに応じて、撮像装置22により撮像された対象平面を撮像した画像における、コピー操作により指定された範囲を取得する。   FIG. 6 shows an example of a copy operation. The image acquisition unit 52 of the control device 30 acquires the range specified by the copy operation in the image obtained by imaging the target plane imaged by the imaging device 22 in response to the user performing a copy operation on the target plane. To do.

画像取得部52は、一例として、対象平面に対してユーザが手を触れた状態で、縦方向に平行に並んだ複数の直線を一連の動作で描いた場合、これらの複数の直線を含む矩形の範囲の画像を、コピー操作において指定された範囲の画像として取得する。より詳しくは、画像取得部52は、ユーザが、対象平面上に右から左へ且つ上方向から下方向へと複数本の直線を描いた場合、これら複数の直線を囲む矩形の範囲の画像を、撮像装置22により撮像された画像から取得する。   As an example, when the user touches the target plane and the image acquisition unit 52 draws a plurality of straight lines arranged in parallel in the vertical direction by a series of operations, the image acquisition unit 52 is a rectangle including the plurality of straight lines. Is acquired as an image in the range specified in the copy operation. More specifically, when the user draws a plurality of straight lines from the right to the left and from the upper direction to the lower direction on the target plane, the image acquisition unit 52 displays an image in a rectangular range surrounding the plurality of straight lines. The image is acquired from the image captured by the imaging device 22.

図7は、コピー操作がされた場合の処理フローを示す。表示システム10の制御装置30は、図5のステップS28のコピー操作に応じた処理として、ステップS41からステップS52の処理を実行する。   FIG. 7 shows a processing flow when a copy operation is performed. The control device 30 of the display system 10 executes the processing from step S41 to step S52 as processing corresponding to the copy operation in step S28 of FIG.

まず、ステップS41において、制御装置30は、コピー範囲Wを0とする。続いて、ステップS42において、制御装置30は、距離画像を取得する。   First, in step S41, the control device 30 sets the copy range W to zero. Subsequently, in step S42, the control device 30 acquires a distance image.

続いて、ステップS43において、制御装置30は、距離画像に基づき、対象平面から予め定められた距離範囲内に位置する物体の表面領域Tを検出する。続いて、ステップS44において、制御装置30は、ステップS43で検出した表面領域Tを、対象平面に射影した領域T´に変換する。   Subsequently, in step S43, the control device 30 detects the surface region T of the object located within a predetermined distance range from the target plane based on the distance image. Subsequently, in step S44, the control device 30 converts the surface area T detected in step S43 into an area T ′ projected onto the target plane.

続いて、ステップS45において、制御装置30は、コピー範囲Wと領域T´との論理和を演算して、演算結果をコピー範囲Wに代入する。これにより、制御装置30は、ユーザが対象平面を手で触って移動させた場合、手の移動範囲をコピー範囲として検出することができる。   Subsequently, in step S <b> 45, the control device 30 calculates a logical sum of the copy range W and the region T ′, and substitutes the calculation result into the copy range W. Thereby, the control apparatus 30 can detect the movement range of a hand as a copy range, when a user touches and moves a target plane with a hand.

続いて、ステップS46において、制御装置30は、領域T´の面積Sを算出する。続いて、ステップS47において、制御装置30は、面積Sが予め定められた面積Cより大きいか否かを判断する。制御装置30は、面積Sが予め定められた面積Cより大きい場合(ステップS47のYes)、処理をステップS42に戻す。これにより、制御装置30は、ユーザの手が対象平面に接触し続けている場合には、コピー操作が継続していると判断して、コピー範囲Wの選択動作を継続することができる。   Subsequently, in step S46, the control device 30 calculates the area S of the region T ′. Subsequently, in step S47, the control device 30 determines whether or not the area S is larger than a predetermined area C. When the area S is larger than the predetermined area C (Yes in step S47), the control device 30 returns the process to step S42. Thereby, when the user's hand continues to touch the target plane, the control device 30 can determine that the copy operation is continuing and can continue the operation of selecting the copy range W.

制御装置30は、面積Sが予め定められた面積C以下の場合(ステップS47のNo)、処理をステップS48に進める。これにより、制御装置30は、例えばユーザの手が対象平面から離れた場合には、ユーザによるコピー操作が終了したと判断して、コピー範囲Wの選択動作を抜けて、次の処理に進むことができる。   When the area S is equal to or smaller than the predetermined area C (No in step S47), the control device 30 advances the process to step S48. Thereby, for example, when the user's hand moves away from the target plane, the control device 30 determines that the copy operation by the user has ended, and exits the copy range W selection operation and proceeds to the next process. Can do.

続いて、ステップS48において、制御装置30は、撮像装置22を制御して、実空間を撮像し、撮像画像Xを取得する。この場合において、制御装置30は、コピー範囲Wを含む範囲を撮像する。続いて、ステップS49において、制御装置30は、撮像画像Xを対象平面に射影した射影画像X´に変換する。   Subsequently, in step S <b> 48, the control device 30 controls the imaging device 22 to capture the real space and acquire the captured image X. In this case, the control device 30 images a range including the copy range W. Subsequently, in step S49, the control device 30 converts the captured image X into a projected image X ′ projected onto the target plane.

続いて、ステップS50において、制御装置30は、射影画像X´とコピー範囲Wとをアンド演算して、射影画像X´からコピー範囲Wの画像(コピー画像R)を取得する。続いて、ステップS51において、制御装置30は、取得したコピー画像Rに、識別番号を割り当てる。そして、ステップS52において、制御装置30は、コピー画像R、当該コピー画像Rの大きさ(例えば横方向の長さおよび縦方向の長さ)、および、識別番号の組をコピー画像記憶部54に一時的に保存する。   Subsequently, in step S50, the control device 30 performs an AND operation on the projection image X ′ and the copy range W, and acquires an image (copy image R) in the copy range W from the projection image X ′. Subsequently, in step S51, the control device 30 assigns an identification number to the acquired copy image R. In step S52, the control device 30 stores the set of the copy image R, the size of the copy image R (for example, the length in the horizontal direction and the length in the vertical direction), and the identification number in the copy image storage unit 54. Save temporarily.

以上の処理により、制御装置30は、対象平面に対してユーザがコピー操作をした場合、コピー操作により指定された範囲の画像を取得することができる。   With the above processing, when the user performs a copy operation on the target plane, the control device 30 can acquire an image in the range specified by the copy operation.

図8は、ペースト操作の一例を示す。制御装置30の表示制御部58は、対象平面に対してユーザがペースト操作をしたことに応じて、表示装置24を制御して、コピー操作により取得されたコピー画像Rをペースト操作により指定された位置に表示する。   FIG. 8 shows an example of the paste operation. The display control unit 58 of the control device 30 controls the display device 24 in response to the user performing a paste operation on the target plane, and the copy image R acquired by the copy operation is designated by the paste operation. Display in position.

表示制御部58は、一例として、ユーザが対象平面に対して手を触れた後に予め定められた方向(例えば左方向)に直線を描いたことに応じて、図7のステップS41からステップS52の処理により取得されたコピー画像Rを表示する。この場合において、表示制御部58は、例えば、対象平面上におけるユーザが手を触れた座標から、予め定められたベクトルを加算した位置にコピー画像Rを表示する。   For example, the display control unit 58 draws a straight line in a predetermined direction (for example, the left direction) after the user touches the target plane with the hand in steps S41 to S52 in FIG. The copy image R acquired by the processing is displayed. In this case, for example, the display control unit 58 displays the copy image R at a position obtained by adding a predetermined vector from the coordinates on the target plane touched by the user.

図9は、ペースト操作がされた場合の処理フローを示す。表示システム10の制御装置30は、図5のステップS30のペースト操作に応じた処理として、ステップS61からステップS67の処理を実行する。   FIG. 9 shows a processing flow when the paste operation is performed. The control device 30 of the display system 10 executes the processing from step S61 to step S67 as processing corresponding to the paste operation of step S30 in FIG.

まず、ステップS61において、制御装置30は、距離画像を取得する。続いて、ステップS62において、制御装置30は、距離画像に基づき、対象平面から予め定められた距離範囲内に位置する物体の表面領域Tを検出する。   First, in step S61, the control device 30 acquires a distance image. Subsequently, in step S62, the control device 30 detects the surface region T of the object located within a predetermined distance range from the target plane based on the distance image.

続いて、ステップS63において、制御装置30は、ステップS62で検出した表面領域Tを、対象平面に射影した領域T´に変換する。続いて、ステップS64において、制御装置30は、領域T´の重心座標Pを算出する。   Subsequently, in step S63, the control device 30 converts the surface region T detected in step S62 into a region T ′ projected onto the target plane. Subsequently, in step S64, the control device 30 calculates the barycentric coordinate P of the region T ′.

続いて、ステップS65において、制御装置30は、領域T´の重心座標Pから、コピー画像Rを表示するための開始座標を算出する。制御装置30は、一例として、領域T´の重心座標Pを開始座標としてもよいし、領域T´の重心座標Pに予め定められたベクトルを加算した座標を開始座標としてもよい。   Subsequently, in step S65, the control device 30 calculates start coordinates for displaying the copy image R from the barycentric coordinates P of the region T ′. As an example, the control device 30 may use the center-of-gravity coordinates P of the region T ′ as the start coordinates, or may use the coordinates obtained by adding a predetermined vector to the center-of-gravity coordinates P of the region T ′ as the start coordinates.

続いて、ステップS66において、制御装置30は、コピー画像記憶部54に一時的に保存されたコピー画像Rに、ステップS65で算出した開始座標および当該コピー画像Rの大きさデータを付加して、新たな画像オブジェクトとしてオブジェクト記憶部56に保存する。これにより、オブジェクト記憶部56には、新たな画像オブジェクトが記憶される。   Subsequently, in step S66, the control device 30 adds the start coordinates calculated in step S65 and the size data of the copy image R to the copy image R temporarily stored in the copy image storage unit 54. The image is stored in the object storage unit 56 as a new image object. As a result, a new image object is stored in the object storage unit 56.

続いて、ステップS67において、制御装置30は、オブジェクト記憶部56に記憶された1または複数の画像オブジェクトを合成して、対象平面上に表示する。より詳しくは、制御装置30は、オブジェクト記憶部56に記憶された1または複数の画像オブジェクトに含まれる画像データのそれぞれを、開始座標に示された位置、且つ、大きさデータに示された大きさで表示されるように合成する。   Subsequently, in step S67, the control device 30 synthesizes one or a plurality of image objects stored in the object storage unit 56 and displays them on the target plane. More specifically, the control device 30 sets each of the image data included in one or more image objects stored in the object storage unit 56 to the position indicated by the start coordinates and the size indicated by the size data. Synthesize so that it is displayed.

以上の処理により、制御装置30は、対象平面に対してユーザがペースト操作をした場合、コピー画像Rをペースト操作により指定した位置に表示することができる。   With the above processing, when the user performs a paste operation on the target plane, the control device 30 can display the copy image R at the position specified by the paste operation.

図10は、移動操作の一例を示す。制御装置30の表示制御部58は、対象平面に対して表示している画像に対してユーザが移動操作をしたことに応じて、表示装置24を制御して、当該画像の表示位置を移動操作により指定された方向に移動する。表示制御部58は、一例として、対象平面上に表示している画像に対してユーザが手を接触させた後に手を移動させたことに応じて、当該画像をユーザが手を移動させた方向に移動する。   FIG. 10 shows an example of the moving operation. The display control unit 58 of the control device 30 controls the display device 24 in response to the user performing a moving operation on the image displayed on the target plane, and moves the display position of the image. Move in the direction specified by. For example, the display control unit 58 moves the image in the direction in which the user moves the hand in response to the user moving the hand after touching the image displayed on the target plane. Move to.

また、制御装置30の表示制御部58は、対象平面に対して表示している画像に対してユーザが拡大縮小操作をしたことに応じて、表示装置24を制御して、当該画像の大きさを拡大縮小操作により指定された大きさに変更する。表示制御部58は、一例として、対象平面上に表示している画像の4つの角の何れかにユーザが手を接触させた後に手を移動させたことに応じて、手を接触させた角の座標位置をユーザが手を移動させた方向に移動して当該画像を拡大縮小する。   In addition, the display control unit 58 of the control device 30 controls the display device 24 in response to the user performing an enlargement / reduction operation on the image displayed on the target plane, so that the size of the image is displayed. Is changed to the specified size by the scaling operation. As an example, the display control unit 58 is configured to make the hand contact a corner according to the user moving the hand after touching the hand to any one of the four corners of the image displayed on the target plane. Is moved in the direction in which the user moves the hand to enlarge or reduce the image.

また、制御装置30の表示制御部58は、対象平面に対して表示している画像に対してユーザが予め定められた消去操作をしたことに応じて、当該画像を消去する。表示制御部58は、一例として、対象平面に対して表示している画像の近傍において、ユーザが手を接触させた後に手を下側に移動させたことに応じて、当該画像を消去する。   In addition, the display control unit 58 of the control device 30 erases the image in response to the user performing a predetermined erase operation on the image displayed on the target plane. As an example, the display control unit 58 deletes the image in the vicinity of the image displayed on the target plane in response to the user moving the hand downward after touching the hand.

図11は、移動操作または拡大縮小操作がされた場合の処理フローを示す。表示システム10の制御装置30は、図5のステップS26の移動操作および拡大縮小操作に応じた処理として、ステップS71からステップS81の処理を実行する。   FIG. 11 shows a processing flow when a movement operation or an enlargement / reduction operation is performed. The control device 30 of the display system 10 executes the processing from step S71 to step S81 as processing corresponding to the movement operation and the enlargement / reduction operation in step S26 of FIG.

まず、ステップS71において、制御装置30は、ユーザの手等に重なっている画像オブジェクトLの開始座標および大きさデータを取得する。続いて、ステップS72において、制御装置30は、距離画像を取得する。ステップS73において、制御装置30は、距離画像に基づき、対象平面から予め定められた距離範囲内に位置する物体の表面領域Tを検出する。   First, in step S <b> 71, the control device 30 acquires the start coordinate and size data of the image object L that overlaps the user's hand or the like. Subsequently, in step S72, the control device 30 acquires a distance image. In step S73, the control device 30 detects the surface area T of the object located within a predetermined distance range from the target plane based on the distance image.

続いて、ステップS74において、制御装置30は、ステップS73で検出した表面領域Tを、対象平面に射影した領域T´に変換する。続いて、ステップS75において、制御装置30は、領域T´の重心座標Pを算出する。続いて、ステップS76において、制御装置30は、画像オブジェクトLの重心座標から、領域T´の重心座標PへのベクトルVを算出する。   Subsequently, in step S74, the control device 30 converts the surface area T detected in step S73 into an area T ′ projected onto the target plane. Subsequently, in step S75, the control device 30 calculates the barycentric coordinate P of the region T ′. Subsequently, in step S76, the control device 30 calculates a vector V from the barycentric coordinates of the image object L to the barycentric coordinates P of the region T ′.

続いて、ステップS77において、制御装置30は、領域T´の重心座標Pが、画像オブジェクトLの4つの角から予め定められた範囲内に含まれているか否かを判断する。領域T´の重心座標Pが画像オブジェクトLの4つの角から予め定められた範囲内に含まれていない場合(ステップS77のNo)、制御装置30は、処理をステップS78に進める。また、領域T´の重心座標Pが画像オブジェクトLの4つの角から予め定められた範囲内に含まれている場合(ステップS77のYes)、制御装置30は、処理をステップS79に進める。   Subsequently, in step S77, the control device 30 determines whether or not the barycentric coordinates P of the region T ′ are included in a predetermined range from the four corners of the image object L. When the barycentric coordinates P of the region T ′ are not included in the predetermined range from the four corners of the image object L (No in step S77), the control device 30 advances the processing to step S78. When the barycentric coordinates P of the region T ′ are included in a predetermined range from the four corners of the image object L (Yes in step S77), the control device 30 advances the process to step S79.

ステップS78において、制御装置30は、画像オブジェクトLの開始座標に、ベクトルVを加算する。これにより、制御装置30は、画像オブジェクトLの表示位置を領域T´の重心座標Pの移動量分、移動させることができる。   In step S78, the control device 30 adds the vector V to the start coordinates of the image object L. As a result, the control device 30 can move the display position of the image object L by the amount of movement of the barycentric coordinate P of the region T ′.

また、ステップS78において、制御装置30は、画像オブジェクトLの大きさデータ(横方向の長さおよび縦方向の長さ)に、ベクトルVを加算する。さらに、ステップS78において、制御装置30は、領域T´の重心座標Pが画像オブジェクトLの4つの角のいずれの領域に含まれているかに応じて、領域T´の重心座標Pの近傍の角が移動して、領域T´の重心座標Pの近傍の角に対して対向している角が固定するように、開始座標を併せて変更してもよい。これにより、制御装置30は、画像オブジェクトLを領域T´の重心座標Pの移動量分、拡大または縮小することができる。   In step S78, the control device 30 adds the vector V to the size data (the length in the horizontal direction and the length in the vertical direction) of the image object L. Furthermore, in step S78, the control device 30 determines the corners near the barycentric coordinates P of the region T ′ according to which of the four corners of the image object L the barycentric coordinates P of the region T ′ are included in. , And the start coordinates may be changed together so that the corners facing the corners near the barycentric coordinates P of the region T ′ are fixed. As a result, the control device 30 can enlarge or reduce the image object L by the amount of movement of the barycentric coordinate P of the region T ′.

続いて、ステップS80において、制御装置30は、オブジェクト記憶部56に記憶された対応する画像オブジェクトLの開始座標および大きさデータを更新する。続いて、ステップS81において、制御装置30は、オブジェクト記憶部56に記憶された1または複数の画像オブジェクトを合成して、対象平面上に表示する。   Subsequently, in step S <b> 80, the control device 30 updates the start coordinate and size data of the corresponding image object L stored in the object storage unit 56. Subsequently, in step S81, the control device 30 synthesizes one or a plurality of image objects stored in the object storage unit 56 and displays them on the target plane.

以上の処理により、制御装置30は、対象平面に対してユーザが移動操作または拡大縮小操作をした場合、表示している画像を移動または拡大縮小することができる。   With the above processing, the control device 30 can move or scale the displayed image when the user performs a move operation or an enlargement / reduction operation on the target plane.

図12は、コピー操作時に表示される枠66および画像68の一例を示す。例えば、制御装置30の表示制御部58は、対象平面に対してユーザがコピー操作を開始してからコピー操作を完了するまでの間において、コピー操作において指定されている範囲を示す枠66を表示してもよい。これにより、表示システム10は、コピー操作により選択されている範囲を、ユーザに視覚的にフィードバックすることができる。この結果、表示システム10は、ユーザに正確な範囲指定をさせることができる。   FIG. 12 shows an example of a frame 66 and an image 68 displayed during the copy operation. For example, the display control unit 58 of the control device 30 displays a frame 66 indicating the range specified in the copy operation from when the user starts the copy operation to the target plane until the copy operation is completed. May be. Thereby, the display system 10 can visually feed back the range selected by the copy operation to the user. As a result, the display system 10 can allow the user to specify an accurate range.

また、例えば、制御装置30の表示制御部58は、対象平面に対してユーザがコピー操作を開始してからコピー操作を完了するまでの間において、コピー操作において指定されている範囲の画像68を、対象平面におけるコピー操作において指定されている範囲外に表示してもよい。このようにしても、表示システム10は、コピー操作により選択されている範囲を、ユーザに視覚的に認識させることができる。   Further, for example, the display control unit 58 of the control device 30 displays the image 68 in the range specified in the copy operation after the user starts the copy operation on the target plane until the copy operation is completed. The image may be displayed outside the range specified in the copy operation on the target plane. Even in this way, the display system 10 can allow the user to visually recognize the range selected by the copy operation.

また、制御装置30の表示制御部58は、予め指定された操作が割り付けられたボタンを有する操作パネルを表示してもよい。例えば、表示制御部58は、コピー操作、ペースト操作、移動操作、拡大縮小操作および消去操作等が割り付けられたボタンを有する操作パネルを、対象平面の上部等に表示してもよい。そして、この場合、制御装置30の操作検出部48は、操作パネルが有するボタンに対してユーザが操作したことに応じて、当該ボタンに割り付けられた操作を検出する。これにより、表示システム10は、ユーザの操作内容を確実に判別することができる。   In addition, the display control unit 58 of the control device 30 may display an operation panel having buttons to which operations designated in advance are assigned. For example, the display control unit 58 may display an operation panel having buttons assigned with a copy operation, a paste operation, a move operation, an enlargement / reduction operation, an erase operation, and the like on the upper portion of the target plane. In this case, the operation detection unit 48 of the control device 30 detects the operation assigned to the button in response to the user operating the button of the operation panel. Thereby, the display system 10 can discriminate | determine the user's operation content reliably.

図13は、低解像度でコピーする場合および高解像度でコピーする場合のコピー操作の一例を示す。操作検出部48は、対象平面上にユーザが手で予め定められた方向に直線を描いたことに応じて、コピー操作がされたことを検出する。この場合において、画像取得部52は、一連の動作で描いた1または複数の直線を含む矩形の範囲を、コピー操作において指定された範囲として取得するとともに、ユーザが引いた直線の種類に応じて異なる解像度でコピー操作において指定された範囲の画像を取得してもよい。これにより、表示システム10は、ユーザの動作に応じて、コピーする画像の画質等の属性を変更することができる。   FIG. 13 shows an example of a copy operation when copying at a low resolution and when copying at a high resolution. The operation detection unit 48 detects that a copy operation has been performed in response to the user drawing a straight line in a predetermined direction by hand on the target plane. In this case, the image acquisition unit 52 acquires a rectangular range including one or more straight lines drawn by a series of operations as a range specified in the copy operation, and according to the type of straight line drawn by the user. You may acquire the image of the range designated in copy operation by different resolution. Thereby, the display system 10 can change attributes such as the image quality of the image to be copied in accordance with the user's operation.

例えば、画像取得部52は、ユーザが引いた複数の直線の間隔に応じて、異なる解像度の画像を取得する。より具体的には、画像取得部52は、間隔が広い場合には低解像度の画像を取得し、間隔が狭い場合には高解像度の画像を取得する。   For example, the image acquisition unit 52 acquires images with different resolutions according to the intervals of a plurality of straight lines drawn by the user. More specifically, the image acquisition unit 52 acquires a low resolution image when the interval is wide, and acquires a high resolution image when the interval is narrow.

また、例えば、画像取得部52は、ユーザが引いた複数の直線の太さに応じて、異なる解像度の画像を取得する。より具体的には、画像取得部52は、直線が太い場合には低解像度の画像を取得し、直線が細い場合には高解像度の画像を取得する。   For example, the image acquisition unit 52 acquires images with different resolutions according to the thicknesses of a plurality of straight lines drawn by the user. More specifically, the image acquisition unit 52 acquires a low-resolution image when the straight line is thick, and acquires a high-resolution image when the straight line is thin.

同様に、画像取得部52は、直線を描く速度に応じて異なる解像度の画像を取得してもよい。さらに、画像取得部52は、画像の解像度に代えて、直線の種類に応じて異なる色深度で画像を取得してもよい。   Similarly, the image acquisition unit 52 may acquire images with different resolutions according to the speed of drawing a straight line. Furthermore, the image acquisition unit 52 may acquire images with different color depths according to the types of straight lines instead of the resolution of the images.

図14は、操作する指毎に異なる画像を対応付けてコピーする場合のコピー操作およびペースト操作の一例を示す。操作検出部48は、ユーザが何れの指でコピー操作またはペースト操作をしたかを検出してもよい。この場合、画像取得部52は、ユーザがコピー操作をしたことに応じて、操作をした指に対応付けて画像を取得する。そして、表示制御部58は、ユーザがペースト操作をしたことに応じて、操作をした指に対応して取得した画像を表示する。   FIG. 14 shows an example of a copy operation and a paste operation when different images are copied in association with each operated finger. The operation detection unit 48 may detect with which finger the user has performed a copy operation or a paste operation. In this case, the image acquisition unit 52 acquires an image in association with the operated finger in response to the user performing a copy operation. Then, the display control unit 58 displays an image acquired corresponding to the operated finger in response to the user performing a paste operation.

例えば、図14に示されるように、表示制御部58は、ユーザが親指でペースト操作をした場合には、親指でコピー操作をして取得したコピー画像(例えば人の画像)を表示する。また、図14に示されるように、表示制御部58は、ユーザが人差し指でペースト操作をした場合には、人差し指でコピー操作をして取得したコピー画像(例えばカレンダー画像)を表示する。これにより、表示システム10は、指毎に区別して画像のコピーおよびペースト等をすることができる。   For example, as illustrated in FIG. 14, when the user performs a paste operation with the thumb, the display control unit 58 displays a copy image (for example, a human image) obtained by performing the copy operation with the thumb. As shown in FIG. 14, when the user performs a paste operation with the index finger, the display control unit 58 displays a copy image (for example, a calendar image) obtained by performing the copy operation with the index finger. As a result, the display system 10 can copy and paste images and the like for each finger.

また、操作検出部48は、ユーザが、予め指定された属性が割り付けられた物体を持って対象平面に対して操作をしているか否かを検出してもよい。そして、この場合、画像取得部52は、操作検出部48が検出した物体に割り付けられた属性で、対象平面を撮像した画像におけるコピー操作により指定された範囲を取得してもよい。   Further, the operation detection unit 48 may detect whether or not the user is operating the target plane with an object assigned with a pre-designated attribute. In this case, the image acquisition unit 52 may acquire the range specified by the copy operation in the image obtained by capturing the target plane with the attribute assigned to the object detected by the operation detection unit 48.

例えば、ボールには高解像度の属性が割り当てられ、箱には低解像度の属性が割り当てられているとする。この場合、操作検出部48は、ユーザがボールを持ってコピー操作をしているか、箱を持ってコピー操作をしているかを検出する。そして、画像取得部52は、ユーザがボールを持ってコピー操作をした場合には、コピー画像を高解像度で取得し、ユーザが箱を持ってコピー操作をした場合には、コピー画像を低解像度で取得する。これにより、表示システム10は、ユーザが保持している物に応じて、コピーする画像の画質等の属性を変更することができる。   For example, assume that a high resolution attribute is assigned to the ball and a low resolution attribute is assigned to the box. In this case, the operation detection unit 48 detects whether the user performs a copy operation with a ball or a copy operation with a box. The image acquisition unit 52 acquires the copy image at a high resolution when the user performs a copy operation with the ball, and the copy image at a low resolution when the user performs the copy operation with a box. Get in. Thereby, the display system 10 can change attributes such as the image quality of the image to be copied in accordance with what the user holds.

また、操作検出部48は、対象平面に対してユーザが手のみで操作をしたことを条件として、ユーザの操作を検出してもよい。例えば、操作検出部48は、ペン等を持って対象平面に対して文字を記入している場合には、ユーザの操作を検出しない。すなわち、操作検出部48は、ユーザが予め定められた物を持って操作をした場合にはユーザの操作を検出せず、何ら物を持たずに操作した場合にユーザの操作を検出する。これにより、表示システム10は、ペン等を持って対象平面に対して文字を記入している場合に、ユーザが対象平面に対して何らかの操作をしていると誤って判断してしまうことを無くすことができる。   In addition, the operation detection unit 48 may detect the user's operation on the condition that the user has operated the target plane with only the hand. For example, the operation detection unit 48 does not detect a user operation when a character is written on the target plane with a pen or the like. That is, the operation detection unit 48 does not detect the user's operation when the user operates with a predetermined object, and detects the user's operation when operated without any object. Thereby, the display system 10 eliminates erroneous determination that the user is performing some operation on the target plane when a character is written on the target plane with a pen or the like. be able to.

また、複数のユーザが対象平面に対して操作をしている場合、操作検出部48は、対象平面に対して操作をしたユーザを識別してもよい。この場合、画像取得部52は、対象平面に対してユーザがコピー操作をしたことに応じて、コピー操作をしたユーザに対応付けてコピー操作により指定された範囲を取得する。そして、表示制御部58は、対象平面に対してユーザがペースト操作をしたことに応じて、ペースト操作をしたユーザに対応して取得した画像を表示する。これにより、表示システム10は、ユーザ毎に区別して、区別して画像のコピーおよびペースト等をすることができる。   Further, when a plurality of users are operating the target plane, the operation detection unit 48 may identify the user who has operated the target plane. In this case, the image acquisition unit 52 acquires the range specified by the copy operation in association with the user who performed the copy operation in response to the user performing a copy operation on the target plane. Then, the display control unit 58 displays an image acquired corresponding to the user who performed the paste operation in response to the user performing the paste operation on the target plane. Thereby, the display system 10 can distinguish and copy and paste an image for each user.

また、画像取得部52は、対象平面の平面度が基準値以上となるタイミングにおいて撮像された画像における、対象平面におけるコピー操作により指定された範囲を取得してもよい。これにより、画像取得部52は、例えばユーザが対象平面の前に立っていることにより、対象平面に設けられた物体の外観がユーザに隠れて撮像装置22により撮像できない場合であっても、ユーザが対象平面の前から他の場所へ移動したタイミングにおいて撮像された画像から、コピー操作により指定された範囲を取得することができる。これにより、表示システム10によれば、障害物が写りこんでいないコピー画像を確実に取得することができる。   Further, the image acquisition unit 52 may acquire a range designated by a copy operation on the target plane in an image captured at a timing when the flatness of the target plane is equal to or higher than a reference value. As a result, the image acquisition unit 52 can be used even when the user stands in front of the target plane and the imaging device 22 cannot capture the appearance of the object provided on the target plane. The range specified by the copy operation can be acquired from the image captured at the timing when the object moves from the front of the target plane to another location. Thereby, according to the display system 10, the copy image in which the obstacle is not reflected can be acquired reliably.

また、画像取得部52は、異なるタイミングで撮像された複数の画像のそれぞれからコピー操作により指定された範囲における障害物により隠れていない部分を抽出し、抽出した部分を合成してコピー操作により指定された範囲を取得してもよい。このようにしても、表示システム10によれば、障害物が写りこんでいないコピー画像を確実に取得することができる。   In addition, the image acquisition unit 52 extracts a portion that is not hidden by an obstacle in a range specified by a copy operation from each of a plurality of images captured at different timings, and combines the extracted portions to specify by a copy operation The acquired range may be acquired. Even in this way, according to the display system 10, it is possible to reliably acquire a copy image in which an obstacle is not reflected.

また、画像取得部52は、画像取得部52は、対象平面の全体を画角内に含めて撮像している状態より撮像倍率を大きくして撮像された画像から、対象平面におけるコピー操作により指定された範囲を取得してもよい。これにより、表示システム10によれば、鮮明なコピー画像を取得することができる。   In addition, the image acquisition unit 52 is designated by a copy operation on the target plane from an image captured at a higher imaging magnification than the state in which the entire target plane is included in the angle of view. The acquired range may be acquired. Thereby, according to the display system 10, a clear copy image can be acquired.

図15は、本実施形態の変形例に係る制御装置30の機能ブロックを示す。本変形例に係る表示システム10は、図1から図14を参照して説明した本実施形態に係る表示システム10と略同一の機能および構成を採るので、略同一の機能および構成を有する構成要素には同一の符号を付けて、相違点を除き説明を省略する。   FIG. 15 shows functional blocks of the control device 30 according to a modification of the present embodiment. Since the display system 10 according to this modification employs substantially the same function and configuration as the display system 10 according to the present embodiment described with reference to FIGS. 1 to 14, the component having substantially the same function and configuration. Are denoted by the same reference numerals, and description thereof is omitted except for differences.

本変形例に係る制御装置30は、読出部70を更に有する。読出部70は、メイン制御部50からの制御に応じて、保存されたデータを読み出す。読出部70は、ネットワークを介して外部サーバ等からデータを読み出してもよいし、当該制御装置30内のデータ記憶装置からデータを読み出してもよい。読出部70は、読み出したデータを画像オブジェクトに変換してオブジェクト記憶部56に転送する。   The control device 30 according to this modification further includes a reading unit 70. The reading unit 70 reads the stored data according to the control from the main control unit 50. The reading unit 70 may read data from an external server or the like via a network, or may read data from a data storage device in the control device 30. The reading unit 70 converts the read data into an image object and transfers it to the object storage unit 56.

オブジェクト記憶部56は、読出部70により読み出されたデータを一つの画像オブジェクトとして記憶する。そして、表示制御部58は、表示装置24を制御して、オブジェクト記憶部56に記憶された1または複数の画像オブジェクトを表示する。これにより、表示制御部58は、読出部70により読み出されたデータを含む画像を対象平面に表示することができる。   The object storage unit 56 stores the data read by the reading unit 70 as one image object. Then, the display control unit 58 controls the display device 24 to display one or more image objects stored in the object storage unit 56. Thereby, the display control unit 58 can display an image including the data read by the reading unit 70 on the target plane.

図16は、本実施形態の変形例に係る表示システム10によるデータの表示例を示す。操作検出部48は、ユーザによって対象平面に記載されたファイル名を検出する。例えば、操作検出部48は、記載された文字80を認識して、ファイル名を検出する。そして、操作検出部48は、ユーザによる対象平面に対する予め定められたデータ読出操作を検出する。   FIG. 16 shows a display example of data by the display system 10 according to a modification of the present embodiment. The operation detection unit 48 detects the file name written on the target plane by the user. For example, the operation detection unit 48 recognizes the written character 80 and detects the file name. Then, the operation detection unit 48 detects a predetermined data reading operation on the target plane by the user.

メイン制御部50は、データ読出操作がされると、読出部70に対して検出したファイル名およびデータ読出指示を与える。データ読出部70は、データ読出操作がされたことに応じて、与えられたファイル名で表されるデータを読み出す。そして、読出部70は、読み出したデータの内容を画像オブジェクトとしてオブジェクト記憶部56に記憶させる。例えば、読出部70は、読み出したデータが文書データである場合には、文書を開いた状態の画像データをオブジェクト記憶部56に記憶させる。そして、表示制御部58は、データ読出部70により読み出されたデータを含む画像オブジェクトを対象平面に表示する。これにより、本変形例に係る表示システム10によれば、対象平面に対するユーザの動作に応じて、データを読み出して表示することができる。   When the data reading operation is performed, the main control unit 50 gives the detected file name and data reading instruction to the reading unit 70. The data reading unit 70 reads data represented by the given file name in response to the data reading operation. The reading unit 70 stores the content of the read data in the object storage unit 56 as an image object. For example, when the read data is document data, the reading unit 70 stores the image data in a state where the document is opened in the object storage unit 56. Then, the display control unit 58 displays the image object including the data read by the data reading unit 70 on the target plane. Thereby, according to the display system 10 which concerns on this modification, according to the user's operation | movement with respect to an object plane, data can be read and displayed.

また、操作検出部48は、対象平面に記載された人物名を検出してもよい。この場合、メイン制御部50は、データ読出操作がされると、読出部70に対して検出した人物名およびデータ読出指示を与える。データ読出部70は、データ読出操作がされたことに応じて、人物名で表される人物に関するデータを検索して読み出す。そして、読出部70は、読み出したデータの内容を画像オブジェクトとしてオブジェクト記憶部56に記憶させる。そして、表示制御部58は、データ読出部70により読み出されたデータを含む画像オブジェクトを対象平面に表示する。これにより、本変形例に係る表示システム10によれば、対象平面に対するユーザの動作に応じて、人物に関するデータを読み出して表示することができる。   Further, the operation detection unit 48 may detect a person name described on the target plane. In this case, when the data reading operation is performed, the main control unit 50 gives the detected person name and data reading instruction to the reading unit 70. The data reading unit 70 searches and reads data related to the person represented by the person name in response to the data reading operation. The reading unit 70 stores the content of the read data in the object storage unit 56 as an image object. Then, the display control unit 58 displays the image object including the data read by the data reading unit 70 on the target plane. Thereby, according to the display system 10 which concerns on this modification, according to a user's operation | movement with respect to an object plane, the data regarding a person can be read and displayed.

図17は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。   FIG. 17 shows an example of the hardware configuration of a computer 1900 according to this embodiment. A computer 1900 according to this embodiment is connected to a CPU peripheral unit having a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084. Input / output unit having communication interface 2030, hard disk drive 2040, and CD-ROM drive 2060, and legacy input / output unit having ROM 2010, flexible disk drive 2050, and input / output chip 2070 connected to input / output controller 2084 With.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を制御装置30として機能させるプログラムは、距離取得モジュールと、対象平面特定モジュールと、平面パラメータ記憶モジュールと、操作検出モジュールと、メイン制御モジュールと、画像取得モジュールと、コピー画像記憶モジュールと、オブジェクト記憶モジュールと、表示制御モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、距離取得部42、対象平面特定部44、平面パラメータ記憶部46、操作検出部48、メイン制御部50、画像取得部52、コピー画像記憶部54、オブジェクト記憶部56および表示制御部58としてそれぞれ機能させる。   A program installed in the computer 1900 and causing the computer 1900 to function as the control device 30 includes a distance acquisition module, a target plane identification module, a plane parameter storage module, an operation detection module, a main control module, an image acquisition module, A copy image storage module, an object storage module, and a display control module are provided. These programs or modules work on the CPU 2000 or the like to change the computer 1900 into a distance acquisition unit 42, a target plane specifying unit 44, a plane parameter storage unit 46, an operation detection unit 48, a main control unit 50, an image acquisition unit 52, a copy. It functions as an image storage unit 54, an object storage unit 56, and a display control unit 58, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である距離取得部42、対象平面特定部44、平面パラメータ記憶部46、操作検出部48、メイン制御部50、画像取得部52、コピー画像記憶部54、オブジェクト記憶部56および表示制御部58として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の制御装置30が構築される。   The information processing described in these programs is read by the computer 1900, whereby the distance acquisition unit 42, the target plane identification unit 44, which are specific means in which the software and the various hardware resources described above cooperate with each other, It functions as a planar parameter storage unit 46, operation detection unit 48, main control unit 50, image acquisition unit 52, copy image storage unit 54, object storage unit 56, and display control unit 58. And the specific control apparatus 30 according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 1900 in this embodiment by these specific means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. When the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 表示システム、12 部屋、14 スクリーン、22 撮像装置、24 表示装置、26 距離検出装置、30 制御装置、42 距離取得部、44 対象平面特定部、46 平面パラメータ記憶部、48 操作検出部、50 メイン制御部、52 画像取得部、54 コピー画像記憶部、56 オブジェクト記憶部、58 表示制御部、62 ポスター、66 枠、68 画像、70 読出部、80 文字、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 Display system, 12 rooms, 14 screens, 22 Imaging apparatus, 24 Display apparatus, 26 Distance detection apparatus, 30 Control apparatus, 42 Distance acquisition part, 44 Target plane specific | specification part, 46 Plane parameter memory | storage part, 48 Operation detection part, 50 Main control unit, 52 image acquisition unit, 54 copy image storage unit, 56 object storage unit, 58 display control unit, 62 poster, 66 frame, 68 images, 70 reading unit, 80 characters, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 input / output chip, 2075 graphic controller, 2080 display device, 2082 host Controller, 2084 input-output controller, 2090 a flexible disk, 2095 CD-ROM

Claims (21)

実空間における対象領域に対するユーザの操作を検出する操作検出部と、
前記対象領域に対してユーザが予め定められたコピー操作をしたことに応じて、前記対象領域を撮像した画像における前記コピー操作により指定された範囲を取得する画像取得部と、
前記対象領域に対して前記ユーザが予め定められたペースト操作をしたこと応じて、前記実空間に画像を表示するための表示装置を制御して、前記コピー操作により取得された画像を前記ペースト操作により指定された位置に表示する表示制御部と、
を備える表示システム。
An operation detection unit that detects a user's operation on a target area in real space;
An image acquisition unit that acquires a range specified by the copy operation in an image obtained by imaging the target area in response to a user performing a predetermined copy operation on the target area;
In response to the user performing a predetermined paste operation on the target area, a display device for displaying an image in the real space is controlled, and the image acquired by the copy operation is controlled by the paste operation. A display control unit for displaying at a position specified by
A display system comprising:
前記対象領域を撮像する撮像装置と、
前記対象領域に画像を表示する表示装置と
を更に備える請求項1に記載の表示システム。
An imaging device for imaging the target area;
The display system according to claim 1, further comprising: a display device that displays an image in the target area.
前記実空間における物体までの距離を検出する距離検出装置を更に備え、
前記操作検出部は、前記対象領域から予め定められた距離内に位置するユーザの身体の予め定められた部位の動きに基づき、前記対象領域に対するユーザの操作を検出する
請求項2に記載の表示システム。
A distance detection device for detecting a distance to the object in the real space;
The display according to claim 2, wherein the operation detection unit detects a user operation on the target region based on a movement of a predetermined part of a user's body located within a predetermined distance from the target region. system.
前記表示制御部は、前記対象領域に対して表示している画像に対して前記ユーザが予め定められた移動操作をしたことに応じて、当該画像の表示位置を前記移動操作により指定された方向に移動する
請求項1から3の何れか1項に記載の表示システム。
In response to the user performing a predetermined moving operation on the image displayed on the target area, the display control unit determines a display position of the image by the moving operation. The display system according to any one of claims 1 to 3.
前記表示制御部は、前記対象領域に対して表示している画像に対して前記ユーザが予め定められた拡大縮小操作をしたことに応じて、当該画像の大きさを前記拡大縮小操作により指定された大きさに変更する
請求項1から3の何れか1項に記載の表示システム。
The display control unit designates the size of the image by the enlargement / reduction operation in response to the user performing a predetermined enlargement / reduction operation on the image displayed on the target area. The display system according to any one of claims 1 to 3, wherein the display system is changed to a larger size.
前記表示制御部は、前記対象領域に対して表示している画像に対して前記ユーザが予め定められた消去操作をしたことに応じて、当該画像を消去する
請求項1から3の何れか1項に記載の表示システム。
The display control unit erases the image in response to the user performing a predetermined erasing operation on the image displayed on the target area. The display system according to item.
前記操作検出部は、前記対象領域に対してユーザが手のみで操作をしたことを条件として、ユーザの操作を検出する
請求項1から6の何れか1項に記載の表示システム。
The display system according to claim 1, wherein the operation detection unit detects a user operation on the condition that the user has operated the target area with only a hand.
前記画像取得部は、前記対象領域の全体を画角内に含めて撮像している状態より撮像倍率を大きくして撮像された画像から、前記対象領域における前記コピー操作により指定された範囲を取得する
請求項1から7の何れか1項に記載の表示システム。
The image acquisition unit acquires a range designated by the copy operation in the target area from an image captured with a larger imaging magnification than a state where the entire target area is included in an angle of view. The display system according to any one of claims 1 to 7.
前記画像取得部は、前記対象領域の平面度が基準値以上となるタイミングにおいて撮像された画像における、前記対象領域における前記コピー操作により指定された範囲を取得する
請求項1から8の何れか1項に記載の表示システム。
The said image acquisition part acquires the range designated by the said copy operation in the said target area in the image imaged in the timing when the flatness of the said target area becomes more than a reference value. The display system according to item.
前記画像取得部は、異なるタイミングで撮像された複数の画像のそれぞれから前記コピー操作により指定された範囲における障害物により隠れていない部分を抽出し、抽出した部分を合成して前記コピー操作により指定された範囲を取得する
請求項1から9の何れか1項に記載の表示システム。
The image acquisition unit extracts a portion that is not hidden by an obstacle in a range specified by the copy operation from each of a plurality of images captured at different timings, and combines the extracted portions to specify by the copy operation The display system according to claim 1, wherein the displayed range is acquired.
前記表示制御部は、前記対象領域に対してユーザが前記コピー操作を開始してから前記コピー操作を完了するまでの間において、前記コピー操作において指定されている範囲を示す枠を表示する
請求項1から10の何れか1項に記載の表示システム。
The display control unit displays a frame indicating a range designated in the copy operation from when the user starts the copy operation to the target area until the copy operation is completed. 11. The display system according to any one of 1 to 10.
前記表示制御部は、前記対象領域に対してユーザが前記コピー操作を開始してから前記コピー操作を完了するまでの間において、前記コピー操作において指定されている範囲の画像を、前記対象領域における前記コピー操作において指定されている範囲外に表示する
請求項1から10の何れか1項に記載の表示システム。
The display control unit displays an image in a range designated in the copy operation in the target area from when the user starts the copy operation to the target area until the copy operation is completed. The display system according to any one of claims 1 to 10, wherein the display is performed outside a range specified in the copy operation.
前記表示制御部は、予め指定された操作が割り付けられたボタンを有する操作パネルを表示し、
前記操作検出部は、前記操作パネルが有するボタンに対してユーザが操作したことに応じて、当該ボタンに割り付けられた操作を検出する
請求項1から12の何れか1項に記載の表示システム。
The display control unit displays an operation panel having buttons assigned with operations designated in advance,
The display system according to any one of claims 1 to 12, wherein the operation detection unit detects an operation assigned to the button in response to a user operating the button of the operation panel.
前記操作検出部は、前記対象領域上にユーザが手で予め定められた方向に直線を描いたことに応じて、コピー操作がされたことを検出し、
前記画像取得部は、一連の動作で描いた1または複数の前記直線を含む矩形の範囲を、前記コピー操作において指定された範囲として取得するとともに、前記ユーザが引いた直線の種類に応じて異なる解像度で前記コピー操作において指定された範囲の画像を取得する
請求項1から13の何れか1項に記載の表示システム。
The operation detection unit detects that a copy operation has been performed in response to a user drawing a straight line in a predetermined direction by hand on the target area,
The image acquisition unit acquires a rectangular range including one or a plurality of straight lines drawn by a series of operations as a range specified in the copy operation, and varies depending on the type of the straight line drawn by the user. The display system according to any one of claims 1 to 13, wherein an image in a range specified in the copy operation at a resolution is acquired.
前記操作検出部は、ユーザが何れの指でコピー操作またはペースト操作をしたかを検出し、
前記画像取得部は、ユーザが前記コピー操作をしたことに応じて、操作をした指に対応付けて画像を取得し、
前記表示制御部は、ユーザが前記ペースト操作をしたことに応じて、操作をした指に対応して取得した画像を表示する
請求項1から13の何れか1項に記載の表示システム。
The operation detection unit detects with which finger the user has performed a copy operation or a paste operation,
The image acquisition unit acquires an image associated with the operated finger in response to the user performing the copy operation,
The display system according to claim 1, wherein the display control unit displays an image acquired corresponding to the operated finger in response to the user performing the paste operation.
前記操作検出部は、ユーザが予め指定された属性が割り付けられた物体を持って前記対象領域に対して操作をしているか否かを検出し、
前記画像取得部は、前記操作検出部が検出した物体に割り付けられた属性で、前記対象領域を撮像した画像における前記コピー操作により指定された範囲を取得する
請求項1から14の何れか1項に記載の表示システム。
The operation detection unit detects whether or not the user is operating the target area with an object assigned with a predetermined attribute,
The said image acquisition part acquires the range designated by the said copy operation in the image which imaged the said target area with the attribute allocated to the object which the said operation detection part detected. Display system as described in.
前記操作検出部は、前記対象領域に対して操作をしたユーザを識別し、
前記画像取得部は、前記対象領域に対してユーザが前記コピー操作をしたことに応じて、コピー操作をしたユーザに対応付けて前記コピー操作により指定された範囲を取得し、
前記表示制御部は、前記対象領域に対してユーザが前記ペースト操作をしたことに応じて、前記ペースト操作をしたユーザに対応して取得した画像を表示する
請求項1から15の何れか1項に記載の表示システム。
The operation detection unit identifies a user who has operated the target area,
The image acquisition unit acquires a range designated by the copy operation in association with the user who performed the copy operation in response to the user performing the copy operation on the target area,
The said display control part displays the image acquired corresponding to the user who performed the said paste operation according to the user performing the said paste operation with respect to the said object area | region. Display system as described in.
保存されたデータを読み出すデータ読出部を更に備え、
前記操作検出部は、前記対象領域に記載されたファイル名、および、予め定められたデータ読出操作を検出し、
前記データ読出部は、前記データ読出操作がされたことに応じて前記ファイル名で表されるデータを読み出し、
前記表示制御部は、前記データ読出部により読み出されたデータを表示する
請求項1から16の何れか1項に記載の表示システム。
A data reading unit for reading stored data;
The operation detection unit detects a file name described in the target area and a predetermined data read operation,
The data reading unit reads the data represented by the file name in response to the data reading operation;
The display system according to any one of claims 1 to 16, wherein the display control unit displays data read by the data reading unit.
前記操作検出部は、前記対象領域に記載された人物名を検出し、
前記表示制御部は、前記データ読出操作がされたことに応じて前記人物名で表される人物に関するデータを読み出し、
前記表示制御部は、前記データ読出部により読み出されたデータを表示する
請求項18に記載の表示システム。
The operation detection unit detects a person name described in the target area,
The display control unit reads data related to the person represented by the person name in response to the data reading operation,
The display system according to claim 18, wherein the display control unit displays data read by the data reading unit.
実空間における対象領域に対するユーザの操作を検出する操作検出ステップと、
前記対象領域に対してユーザが予め定められたコピー操作をしたことに応じて、前記対象領域を撮像した画像における前記コピー操作により指定された範囲を取得する画像取得ステップと、
前記対象領域に対して前記ユーザが予め定められたペースト操作をしたこと応じて、前記実空間に画像を表示するための表示装置を制御して、前記画像取得ステップにより取得された画像を前記実空間における前記ペースト操作により指定された位置に表示する表示制御ステップと、
を備える表示方法。
An operation detection step for detecting a user operation on the target area in the real space;
An image acquisition step of acquiring a range designated by the copy operation in an image obtained by imaging the target area in response to a user performing a predetermined copy operation on the target area;
In response to the user performing a predetermined paste operation on the target area, the display device for displaying an image in the real space is controlled, and the image acquired in the image acquisition step is A display control step of displaying at a position specified by the paste operation in space;
A display method comprising:
コンピュータを、
実空間における対象領域に対するユーザの操作を検出する操作検出部と、
前記対象領域に対してユーザが予め定められたコピー操作をしたことに応じて、前記対象領域を撮像した画像における前記コピー操作により指定された範囲を取得する画像取得部と、
前記対象領域に対して前記ユーザが予め定められたペースト操作をしたこと応じて、前記実空間に画像を表示するための表示装置を制御して、前記画像取得部により取得された画像を前記実空間における前記ペースト操作により指定された位置に表示する表示制御部と、
を備える制御装置として機能させるためのプログラム。
Computer
An operation detection unit that detects a user's operation on a target area in real space;
An image acquisition unit that acquires a range specified by the copy operation in an image obtained by imaging the target area in response to a user performing a predetermined copy operation on the target area;
In response to the user performing a predetermined paste operation on the target area, the display device for displaying an image in the real space is controlled, and the image acquired by the image acquisition unit is A display control unit for displaying at a position specified by the paste operation in space;
A program for functioning as a control device.
JP2011260236A 2011-11-29 2011-11-29 Display system, display method and program Pending JP2013114467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011260236A JP2013114467A (en) 2011-11-29 2011-11-29 Display system, display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011260236A JP2013114467A (en) 2011-11-29 2011-11-29 Display system, display method and program

Publications (1)

Publication Number Publication Date
JP2013114467A true JP2013114467A (en) 2013-06-10

Family

ID=48709959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011260236A Pending JP2013114467A (en) 2011-11-29 2011-11-29 Display system, display method and program

Country Status (1)

Country Link
JP (1) JP2013114467A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015031752A (en) * 2013-07-31 2015-02-16 キヤノンマーケティングジャパン株式会社 Image projection system, image projection device, image projection method, and program
JP2015100052A (en) * 2013-11-20 2015-05-28 シャープ株式会社 Video projection device
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
WO2017057106A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
CN108027655A (en) * 2016-02-25 2018-05-11 日本电气株式会社 Information processing system, information processing equipment, control method and program
JP2023092060A (en) * 2021-12-21 2023-07-03 カシオ計算機株式会社 PROJECTION APPARATUS, PROJECTION SYSTEM, PROJECTION CORRECTION METHOD AND PROGRAM

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (en) * 1993-04-30 1995-07-04 Rank Xerox Ltd Interactive copying device
JPH09237349A (en) * 1995-10-14 1997-09-09 Rank Xerox Ltd Interactive desktop system
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processing device
JP2000259338A (en) * 1999-03-11 2000-09-22 Seiko Epson Corp Input system, display system, presentation system, and information storage medium
JP2001265523A (en) * 2000-03-21 2001-09-28 Sony Corp Information input / output system, information input / output method, and program storage medium
JP2005267034A (en) * 2004-03-17 2005-09-29 Brother Ind Ltd Image input device
JP2009020564A (en) * 2007-07-10 2009-01-29 Brother Ind Ltd projector
JP2009070416A (en) * 2009-01-05 2009-04-02 Sony Computer Entertainment Inc Control system and control method
JP2009140498A (en) * 2008-12-03 2009-06-25 Sony Corp Information input / output device and information input / output method
JP2010261989A (en) * 2009-04-30 2010-11-18 Konica Minolta Business Technologies Inc Image processing device, display history confirmation support method, and computer program
JP2011237680A (en) * 2010-05-12 2011-11-24 Seiko Epson Corp Projector and control method for the same

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (en) * 1993-04-30 1995-07-04 Rank Xerox Ltd Interactive copying device
JPH09237349A (en) * 1995-10-14 1997-09-09 Rank Xerox Ltd Interactive desktop system
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processing device
JP2000259338A (en) * 1999-03-11 2000-09-22 Seiko Epson Corp Input system, display system, presentation system, and information storage medium
JP2001265523A (en) * 2000-03-21 2001-09-28 Sony Corp Information input / output system, information input / output method, and program storage medium
JP2005267034A (en) * 2004-03-17 2005-09-29 Brother Ind Ltd Image input device
JP2009020564A (en) * 2007-07-10 2009-01-29 Brother Ind Ltd projector
JP2009140498A (en) * 2008-12-03 2009-06-25 Sony Corp Information input / output device and information input / output method
JP2009070416A (en) * 2009-01-05 2009-04-02 Sony Computer Entertainment Inc Control system and control method
JP2010261989A (en) * 2009-04-30 2010-11-18 Konica Minolta Business Technologies Inc Image processing device, display history confirmation support method, and computer program
JP2011237680A (en) * 2010-05-12 2011-11-24 Seiko Epson Corp Projector and control method for the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015031752A (en) * 2013-07-31 2015-02-16 キヤノンマーケティングジャパン株式会社 Image projection system, image projection device, image projection method, and program
JP2015100052A (en) * 2013-11-20 2015-05-28 シャープ株式会社 Video projection device
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
WO2017057106A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
CN108027656A (en) * 2015-09-28 2018-05-11 日本电气株式会社 Input equipment, input method and program
JPWO2017057107A1 (en) * 2015-09-28 2018-06-14 日本電気株式会社 Input device, input method, and program
JPWO2017057106A1 (en) * 2015-09-28 2018-07-05 日本電気株式会社 Input device, input method, and program
US10168769B2 (en) 2015-09-28 2019-01-01 Nec Corporation Input apparatus, input method, and program
US10234955B2 (en) 2015-09-28 2019-03-19 Nec Corporation Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
CN108027655A (en) * 2016-02-25 2018-05-11 日本电气株式会社 Information processing system, information processing equipment, control method and program
JP2023092060A (en) * 2021-12-21 2023-07-03 カシオ計算機株式会社 PROJECTION APPARATUS, PROJECTION SYSTEM, PROJECTION CORRECTION METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
JP6007497B2 (en) Image projection apparatus, image projection control apparatus, and program
US11048333B2 (en) System and method for close-range movement tracking
US9619104B2 (en) Interactive input system having a 3D input space
US9910498B2 (en) System and method for close-range movement tracking
CN104166509B (en) A kind of contactless screen exchange method and system
US9513716B2 (en) Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector
JP6039248B2 (en) Information processing apparatus and control method thereof
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US20140168267A1 (en) Augmented reality system and control method thereof
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2013037675A5 (en)
WO2013010027A1 (en) Drawing aid system for multi-touch devices
JP2011022945A (en) Fingertip-manipulation-type information providing system, program, and storage medium
JP7602068B2 (en) KEY FUNCTION EXECUTION METHOD, KEY FUNCTION EXECUTION SYSTEM, KEY FUNCTION EXECUTION DEVICE, ELECTRONIC DEVICE, AND COMPUTER PROGRAM
JP2013114467A (en) Display system, display method and program
JP2014029656A (en) Image processor and image processing method
JP3355708B2 (en) Command processing device
CN104657098A (en) Display System And Display Controll Device
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program
JP6007496B2 (en) Display system, display program, and display method
JP2013114466A (en) Display system, display method and program
JP6007490B2 (en) Display system, display program, and display method
CN114327229A (en) Image-based gesture control method and electronic device using same
JP2019186698A (en) Image processing apparatus, processing method, and program
JP2013149023A (en) Display system, display program, and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209