[go: up one dir, main page]

JP2018125819A - Control device, control method, program, and storage medium - Google Patents

Control device, control method, program, and storage medium Download PDF

Info

Publication number
JP2018125819A
JP2018125819A JP2017019035A JP2017019035A JP2018125819A JP 2018125819 A JP2018125819 A JP 2018125819A JP 2017019035 A JP2017019035 A JP 2017019035A JP 2017019035 A JP2017019035 A JP 2017019035A JP 2018125819 A JP2018125819 A JP 2018125819A
Authority
JP
Japan
Prior art keywords
projection
projectors
image
area
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017019035A
Other languages
Japanese (ja)
Inventor
英司 竹内
Hideji Takeuchi
英司 竹内
秀明 由井
Hideaki Yui
秀明 由井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017019035A priority Critical patent/JP2018125819A/en
Publication of JP2018125819A publication Critical patent/JP2018125819A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: when a plurality of projectors cooperate to project images, setting of the shape of a projection image is complicated.SOLUTION: A control device controls a projection system including a plurality of projectors, and comprises: detection means that detects respective projectable areas of the plurality of projectors; and setting means that analyzes the projectable areas detected by the detection means, and sets a projection area based on the shape of a content to be projected from the maximum area when the plurality of projectors cooperate to project images.SELECTED DRAWING: Figure 9

Description

本発明は、複数のプロジェクタ(投影装置)を用いた投影システムで、スタック投影またはマルチ投影をする際の投影領域を設定する技術に関する。   The present invention relates to a technique for setting a projection area when performing stack projection or multi-projection in a projection system using a plurality of projectors (projectors).

複数のプロジェクタが協働し、投影領域の少なくとも一部を重畳させることで、1つの投影領域を形成する投影システムで、スタック投影やマルチ投影という方法が知られている。これらのスタック投影またはマルチ投影においては、プロジェクタの投影する画像の少なくとも一部が重複していて、各々プロジェクタの投影画像同士の位置を合わせる必要がある。   A method called stack projection or multi-projection is known in a projection system in which a plurality of projectors cooperate to form one projection region by overlapping at least a part of the projection region. In these stack projections or multi-projections, at least a part of the images projected by the projectors overlap, and it is necessary to align the positions of the projected images of the projectors.

また、プロジェクタを投影面に正対した位置に設置できない場合がある。この場合、投影面上に台形歪という幾何学歪が発生してしまう。これを解消するために、台形補正(キーストーン補正)という台形歪を信号処理で補正する機能を用いることがある。   In some cases, the projector cannot be installed at a position facing the projection surface. In this case, geometric distortion called trapezoidal distortion occurs on the projection surface. In order to solve this, a function of correcting trapezoidal distortion called keystone correction (keystone correction) by signal processing may be used.

スタック投影やマルチ投影を実施する場合、投影画像どうしの厳密な位置合わせと台形補正とを両立することが好ましい。しかしながらその作業は大変煩雑で多くの時間を費やしてしまう。   When stack projection or multi-projection is performed, it is preferable to achieve both strict alignment of projection images and trapezoidal correction. However, the work is very complicated and takes a lot of time.

特許文献1では、マルチ投影やスタック投影において、重畳領域の位置合わせと台形補正とを自動で行うシステムが記載されている。   Patent Document 1 describes a system that automatically performs superimposition area alignment and trapezoidal correction in multi-projection and stack projection.

特開平9−326981号公報JP-A-9-326981

しかしながら、特許文献1のようなシステムにおいては、各プロジェクタが、おのおの単独の投影領域が最大となるような投影領域を算出しているので、補正された後の投影画像の形状が、投影画像の元となるコンテンツ画像の形状に対応していない。具体的には、コンテンツ画像が矩形であっても投影画像が矩形にならないことや、コンテンツ画像の一部が欠けた投影画像が投影されることや、投影画像とコンテンツ画像とで縦横比が異なることがあった。   However, in a system such as Patent Document 1, each projector calculates a projection area in which the single projection area is maximized, so that the shape of the projection image after correction is the projection image. It does not correspond to the shape of the original content image. Specifically, even if the content image is rectangular, the projection image does not become rectangular, a projection image lacking a part of the content image is projected, or the aspect ratio differs between the projection image and the content image. There was a thing.

本発明は、上記課題を解決するために、複数のプロジェクタを用いて、投影領域の少なくとも一部を重畳させた投影領域を形成する場合に、その投影領域の設定をなるべく簡易にすることを目的とする。   In order to solve the above-described problem, an object of the present invention is to simplify the setting of a projection area as much as possible when a projection area is formed by superimposing at least a part of the projection area using a plurality of projectors. And

また、複数のプロジェクタを用いて、投影領域の少なくとも一部を重畳させた投影領域を形成する場合に、その投影領域の形状をコンテンツ画像の形状に対応させることを目的とする。   Another object of the present invention is to make the shape of the projection region correspond to the shape of the content image when a projection region is formed by superimposing at least a part of the projection region using a plurality of projectors.

上記の課題を解決するため、複数のプロジェクタを含む投影システムを制御する制御装置は、複数のプロジェクタそれぞれの投影可能領域を検出する検出手段と、検出手段で検出された各投影可能領域を解析し、複数のプロジェクタが協働して投影する場合の最大領域の中から、投影するコンテンツの形状に基づく投影領域を設定する設定手段とを有することを特徴とする。   In order to solve the above problem, a control device that controls a projection system including a plurality of projectors detects a projectable area of each of the plurality of projectors, and analyzes each projectable area detected by the detection means. And setting means for setting a projection area based on the shape of the content to be projected from the maximum area when a plurality of projectors project in cooperation.

本発明に記載の方法では、複数のプロジェクタで投影を行う場合の投影領域の形状を簡単に決定し、特に投影画像の欠落や、投影領域の形状が投影画像の縦横比と合わせることが出来る。つまり、補正後の投影画像の形状を、コンテンツ画像の形状と同じにできる。   In the method described in the present invention, the shape of the projection area when projection is performed by a plurality of projectors can be easily determined, and in particular, the lack of the projection image or the shape of the projection area can be matched with the aspect ratio of the projection image. That is, the corrected projected image can have the same shape as the content image.

スタック投影のシステム構成図Stack projection system configuration diagram マルチ投影のシステム構成図Multi-projection system configuration diagram システムのブロック図System block diagram 画像処理部の詳細なブロック図Detailed block diagram of image processing unit 減光処理の説明のための図Illustration for dimming process 変形処理の説明のための図Illustration for explaining transformation process 自動補正のフローチャートAutomatic correction flowchart メニュー画面を示した図Figure showing the menu screen スタック投影の自動補正処理を説明するための図Diagram for explaining automatic correction of stack projection スタック投影の自動補正処理におけるフローチャートFlow chart for automatic correction of stack projection マルチ投影の自動補正処理を説明するための図The figure for demonstrating the automatic correction process of multi projection マルチ投影の自動補正処理におけるフローチャートFlow chart for automatic correction processing for multiple projection スクリーン面内における矩形の向きを説明する図Diagram explaining the orientation of the rectangle in the screen surface

以下、本発明の実施形態について説明するが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   Hereinafter, although embodiment of this invention is described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

[実施例1]
以下、図と共に本発明の第1の実施形態を説明する。
[Example 1]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1を用いて本実施形態の自動位置合わせシステムの構成について説明する。図1は2台のプロジェクタが協働して投影する投影システムで、自動位置合わせを行うシステムの構成の一例を表した図である。   The configuration of the automatic alignment system of this embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of the configuration of a system that performs automatic alignment in a projection system in which two projectors project in cooperation.

図1において、2台のプロジェクタの各々から投影される投影画像の全部または大部分が、スクリーン上で重なっている。このような投影形態のことをスタック投影と呼ぶ。スタック投影は、輝度の向上や投影画像の3D表示のために用いられる。プロジェクタ100a及びプロジェクタ100bは画像を重畳させて表示することによって、一つの画像をスクリーン900上に投影する。また、プロジェクタ100a、プロジェクタ100b、PC200はLANにより、相互に通信可能な状態で接続されている。なお、接続形式は相互に通信可能であれば、有線、無線を問わない。   In FIG. 1, all or most of the projected images projected from each of the two projectors overlap on the screen. Such a projection form is called stack projection. Stack projection is used for improving brightness and 3D display of projected images. The projector 100a and the projector 100b project one image on the screen 900 by superimposing and displaying the images. In addition, the projector 100a, the projector 100b, and the PC 200 are connected via a LAN so that they can communicate with each other. The connection format may be wired or wireless as long as it can communicate with each other.

PC200は、映像ケーブル300aを通じてプロジェクタ100aに映像信号を供給する。また、PC200は、映像ケーブル300bを通じてプロジェクタ100bに映像信号を供給する。なお、映像信号の形式はHDMI(登録商標)やDVI、VGAなど、どのような形式を用いても構わない。   The PC 200 supplies a video signal to the projector 100a through the video cable 300a. Further, the PC 200 supplies a video signal to the projector 100b through the video cable 300b. The format of the video signal may be any format such as HDMI (registered trademark), DVI, or VGA.

撮像装置400はUSBケーブルあるいはLANケーブルを介してPC200と接続されている。PC200からの撮影指示に基づいて投影面の撮影を行い、撮影画像をPC200に送信する。撮像装置400はPC200からの指示に基づいて撮影できればよく、カメラの種類は問わない。撮像装置400は複数であってもよい。   The imaging device 400 is connected to the PC 200 via a USB cable or a LAN cable. The projection plane is photographed based on the photographing instruction from the PC 200, and the photographed image is transmitted to the PC 200. The imaging apparatus 400 only needs to be able to capture images based on instructions from the PC 200, and the type of camera is not limited. There may be a plurality of imaging devices 400.

図2は投影面の大画面化・高解像度化のためにプロジェクタ4台を投影面上において、投影画像の一部を重ね合わせる形態を示したものである。投影面の重畳部に対して減光処理(エッジブレンディング)を施すことで重畳部を目立たなくさせている。減光処理についての詳細は後述する。このような投影形態のことをマルチ投影と呼ぶ。この構成では、PC1台に対して映像ケーブル300a、300b、300c、300dを介して4台のプロジェクタを接続している。映像ケーブルやLANケーブルの接続形式に関しては、図1に示したスタック投影の場合と同じ形式である。   FIG. 2 shows a form in which a part of the projected image is overlaid on the projection surface of four projectors in order to increase the screen size and resolution. The superimposition portion is made inconspicuous by performing dimming processing (edge blending) on the superimposition portion of the projection surface. Details of the dimming process will be described later. Such a projection form is called multi-projection. In this configuration, four projectors are connected to one PC via video cables 300a, 300b, 300c, and 300d. The connection format of the video cable and the LAN cable is the same as that of the stack projection shown in FIG.

本実施形態では、図1に示すような、2台のプロジェクタを用いるスタック投影について説明するが、プロジェクタやカメラの、台数や配置についてはこれに限らない。   In the present embodiment, stack projection using two projectors as shown in FIG. 1 will be described, but the number and arrangement of projectors and cameras are not limited thereto.

図3は画像補正システムを構成するプロジェクタ100、PC200、映像ケーブル300、及び撮像装置400の主要な構成を表す図である。図3を用いて、画像補正システムの構成について説明する。   FIG. 3 is a diagram illustrating main configurations of the projector 100, the PC 200, the video cable 300, and the imaging device 400 that constitute the image correction system. The configuration of the image correction system will be described with reference to FIG.

まず、プロジェクタ100について説明する。   First, the projector 100 will be described.

本実施形態のプロジェクタ100は、CPU101、RAM102、ROM103、投影部104、投影制御部105、VRAM106、操作部107、ネットワークIF108、画像処理部109、映像入力部110、光源制御部111を有する。また、112は上記の各ブロックを接続する内部バスである。   The projector 100 according to the present embodiment includes a CPU 101, a RAM 102, a ROM 103, a projection unit 104, a projection control unit 105, a VRAM 106, an operation unit 107, a network IF 108, an image processing unit 109, a video input unit 110, and a light source control unit 111. Reference numeral 112 denotes an internal bus for connecting the above blocks.

CPU101は、プロジェクタ100の各動作ブロックの制御を行う。   The CPU 101 controls each operation block of the projector 100.

RAM102は、ワークメモリとして一時的に制御プログラムやデータを格納するものである。   The RAM 102 temporarily stores a control program and data as a work memory.

ROM103は、CPU101の処理手順を記述した制御プログラムを記憶するためのものである。   The ROM 103 is for storing a control program describing the processing procedure of the CPU 101.

投影部104は、後述する投影制御部105によって指示された画像を投影するためのものであり、不図示の液晶パネル、レンズ、光源から構成される。   The projection unit 104 is for projecting an image instructed by a projection control unit 105 described later, and includes a liquid crystal panel, a lens, and a light source (not shown).

投影制御部105は、VRAM106に格納された画像データを読み出し、投影部104に投影の指示を出すためのものである。   The projection control unit 105 reads image data stored in the VRAM 106 and issues a projection instruction to the projection unit 104.

VRAM106は投影部104で投影する画像を格納するための領域である。   The VRAM 106 is an area for storing an image projected by the projection unit 104.

操作部107は、ユーザからの指示を受け付け、CPU101に対して指示信号を送信するものである。例えば、スイッチやダイヤルから成る。また、操作部107は不図示のリモコンからの信号を受信し、受信した信号に対応した指示信号をCPU101に対して送るものであっても良い。   The operation unit 107 receives an instruction from the user and transmits an instruction signal to the CPU 101. For example, it consists of a switch and a dial. The operation unit 107 may receive a signal from a remote controller (not shown) and send an instruction signal corresponding to the received signal to the CPU 101.

ネットワークIF108は外部機器とネットワーク通信を行うためのものである。本実施形態では、ネットワークIF108はPC200との通信に用いられる。   The network IF 108 is for performing network communication with an external device. In the present embodiment, the network IF 108 is used for communication with the PC 200.

画像処理部109は、後述の映像入力部110から受信した映像信号にフレーム数、画素数、画像形状などの変更処理を施して、投影制御部105に送信するものであり、例えば画像処理用のマイクロプロセッサからなる。また、画像処理部109は、専用のマイクロプロセッサである必要はなく、例えば、ROM103に記憶されたプログラムによって、CPU101が画像処理部109と同様の処理を実行しても良い。画像処理部109は、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー等のOSD重畳処理、歪み補正処理(キーストン補正処理)、エッジブレンディングといった機能を実行することが可能である。また、画像処理部109は、映像入力部110から受信した映像信号以外にも、CPU101によって再生された画像や映像に対して前述の変更処理を施すこともできる。画像処理部109の詳細については後述する。   The image processing unit 109 performs processing for changing the number of frames, the number of pixels, the image shape, and the like on the video signal received from the video input unit 110, which will be described later, and transmits the video signal to the projection control unit 105. It consists of a microprocessor. Further, the image processing unit 109 does not have to be a dedicated microprocessor. For example, the CPU 101 may execute the same processing as the image processing unit 109 by a program stored in the ROM 103. The image processing unit 109 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, OSD superimposition processing such as menus, distortion correction processing (keystone correction processing), and edge blending. In addition to the video signal received from the video input unit 110, the image processing unit 109 can perform the above-described change processing on the image or video reproduced by the CPU 101. Details of the image processing unit 109 will be described later.

映像入力部110は、外部装置から映像信号を受信するものであり、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。また、アナログ映像信号を受信した場合には、受信したアナログ映像信号をデジタル映像信号に変換する。そして、受信した映像信号を、画像処理部109に送信する。ここで、外部装置は、映像信号を出力できるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、どのようなものであってもよい。本実施形態では、外部装置としてPC200および映像ケーブル300を用いる。   The video input unit 110 receives a video signal from an external device. For example, the video input unit 110 is a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, HDMI (registration). Trademark) terminal. When an analog video signal is received, the received analog video signal is converted into a digital video signal. Then, the received video signal is transmitted to the image processing unit 109. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, or a game machine as long as it can output a video signal. In this embodiment, a PC 200 and a video cable 300 are used as external devices.

光源制御部111は、不図示の光源のオン/オフの制御や光量の制御をするものであり、制御用のマイクロプロセッサからなる。また、光源制御部111は、専用のマイクロプロセッサである必要はなく、例えば、ROM103に記憶されたプログラムによって、CPU101が光源制御部111と同様の処理を実行しても良い。また、不図示の光源は、スクリーンに画像を投影するための光を出力するものであり、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、レーザー光源などであっても良い。   The light source control unit 111 controls on / off of a light source (not shown) and the amount of light, and includes a control microprocessor. Further, the light source control unit 111 does not have to be a dedicated microprocessor. For example, the CPU 101 may execute the same processing as the light source control unit 111 by a program stored in the ROM 103. A light source (not shown) outputs light for projecting an image on a screen, and may be, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, or a laser light source.

次に自動補正処理を実行する制御装置としても機能するPC200について説明する。   Next, the PC 200 that also functions as a control device that executes automatic correction processing will be described.

本実施形態のPC200は、CPU201、RAM202、ROM203、操作部204、表示部205、ネットワークIF206、映像出力部207、通信部208を有する。また、209は上記の各ブロックを接続する内部バスである。   The PC 200 of this embodiment includes a CPU 201, a RAM 202, a ROM 203, an operation unit 204, a display unit 205, a network IF 206, a video output unit 207, and a communication unit 208. Reference numeral 209 denotes an internal bus for connecting the above blocks.

CPU201は、PC100の各動作ブロックの制御を行う。   The CPU 201 controls each operation block of the PC 100.

RAM202はワークメモリとして一時的に制御プログラムやデータを格納するものである。   The RAM 202 temporarily stores a control program and data as a work memory.

ROM203はCPU201の処理手順を記述した各種の制御プログラムを記憶するためのものである。本願明細書で説明する投影画像の自動補正処理プログラムやメニュー画面等の表示制御プログラムは、ROM203に格納されている。ただし、これらのプログラムはROM203の代わりに、例えばハードディスクに格納されていても良いし、DVDは光磁気ディスクなどの各種の記録媒体に格納されていても良い。   The ROM 203 is for storing various control programs describing the processing procedure of the CPU 201. The projection image automatic correction processing program and the display control program such as the menu screen described in the specification of the present application are stored in the ROM 203. However, these programs may be stored in, for example, a hard disk instead of the ROM 203, and the DVD may be stored in various recording media such as a magneto-optical disk.

操作部204はユーザからの指示を受け付け、CPU201に対して指示信号を送信するものである。例えば、マウスやキーボード、タッチパネルなどから成る。   The operation unit 204 receives an instruction from the user and transmits an instruction signal to the CPU 201. For example, it consists of a mouse, keyboard, touch panel and the like.

表示部205は画像データやUI画面の表示を行う。表示部205は例えば液晶パネルや有機ELパネルである。   A display unit 205 displays image data and a UI screen. The display unit 205 is, for example, a liquid crystal panel or an organic EL panel.

ネットワークIF206は外部機器とネットワーク通信を行うためのものである。本実施形態では、LAN接続されたプロジェクタ100と通信を行う。なお、本実施形態ではLAN通信によって投影装置100の制御をするものとしているが、LAN通信に限らずその他の通信方法を用いても良い。例えばシリアル通信(RS−232)を用いても良い。その場合、後述の通信部208を介して投影装置100と接続する。   A network IF 206 is for performing network communication with an external device. In the present embodiment, communication is performed with the projector 100 connected to the LAN. In the present embodiment, the projection apparatus 100 is controlled by LAN communication. However, the communication method is not limited to LAN communication, and other communication methods may be used. For example, serial communication (RS-232) may be used. In that case, it connects with the projection apparatus 100 via the communication part 208 mentioned later.

映像出力部207は外部装置に対して映像信号を送信するものであり、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。また、本実施形態では、表示部205にユーザに補正処理の操作をさせるためのUI画面を表示するものとして説明するが、映像出力部207に接続された外部機器に対してUI画面を表示する形式であっても良い。   The video output unit 207 transmits a video signal to an external device. For example, the video output unit 207 is a composite terminal, S video terminal, D terminal, component terminal, analog RGB terminal, DVI-I terminal, DVI-D terminal, HDMI ( Registered trademark) terminal. In the present embodiment, the display unit 205 is described as displaying a UI screen for allowing the user to perform correction processing. However, the UI screen is displayed on an external device connected to the video output unit 207. It may be in the form.

通信部208は撮像装置400に対して撮影指示や露出補正指示などを含む信号や撮影画像を送受信するためのものであり、例えば、USB(Universal Serial Bus)などの規格で送受信が行われる。本実施形態ではPC200と撮像装置400を通信部208によってUSB接続するものとして説明するが、撮像装置がネットワークによって制御可能であれば、ネットワークIF206を介してLAN接続しても構わない。   The communication unit 208 is for transmitting and receiving a signal including a photographing instruction and an exposure correction instruction and a photographed image to and from the imaging apparatus 400. For example, transmission and reception are performed according to a standard such as USB (Universal Serial Bus). In this embodiment, the PC 200 and the imaging device 400 are described as being connected by USB via the communication unit 208. However, as long as the imaging device can be controlled by a network, the PC 200 and the imaging device 400 may be connected by LAN via the network IF 206.

次に、本実施形態の構成について詳しく説明する。   Next, the configuration of the present embodiment will be described in detail.

図4は、図3の画像処理部109の内部構成を詳しく説明するためのブロック図である。   FIG. 4 is a block diagram for explaining in detail the internal configuration of the image processing unit 109 of FIG.

画像処理部109は、各種画像処理部109a、OSD重畳部109b、減光処理部109c、変形処理部109dを含む。   The image processing unit 109 includes various image processing units 109a, an OSD superimposing unit 109b, a dimming processing unit 109c, and a deformation processing unit 109d.

元画像信号sig01は、前述のように、映像入力部110、ネットワークIF108などから入力される。また、タイミング信号sig02は、元画像信号sig01に同期した垂直同期信号、水平同期信号、クロックなどのタイミング信号であって、元画像sig01の供給元から供給される。画像処理部109内の各ブロックは、タイミング信号sig02に基づいて動作するが、画像処理部109の内部でタイミング信号を作り直して使用してもよい。   As described above, the original image signal sig01 is input from the video input unit 110, the network IF 108, and the like. The timing signal sig02 is a timing signal such as a vertical synchronization signal, a horizontal synchronization signal, and a clock synchronized with the original image signal sig01, and is supplied from the supply source of the original image sig01. Each block in the image processing unit 109 operates based on the timing signal sig02. However, the timing signal may be regenerated and used inside the image processing unit 109.

各種画像処理部109aは、CPU101と連携して、元画像信号sig01を入力し、各種画像処理を施したりして生成した画像処理信号sig03をOSD重畳部109bに対して出力することができる。各種画像処理とは、画像信号のヒストグラムやAPLをはじめとする統計情報の取得や、IP変換、フレームレート変換、解像度変換、γ変換、色域変換、色補正、エッジ強調などである。これらの画像処理の詳細については公知であるので説明を割愛する。   The various image processing units 109a can output the image processing signal sig03 generated by inputting the original image signal sig01 and performing various image processings in cooperation with the CPU 101 to the OSD superimposing unit 109b. Various image processing includes acquisition of statistical information including image signal histogram and APL, IP conversion, frame rate conversion, resolution conversion, γ conversion, color gamut conversion, color correction, edge enhancement, and the like. The details of these image processes are well known and will not be described.

OSD重畳部109bは、CPU101の指示により、ユーザ用のメニューや操作のためのガイド情報をOSD画像として画像処理信号sig03に重畳し、生成したOSD重畳信号sig04を減光処理部109cに対して出力することができる。   The OSD superimposing unit 109b superimposes the user menu and operation guide information as an OSD image on the image processing signal sig03 in accordance with an instruction from the CPU 101, and outputs the generated OSD superimposing signal sig04 to the dimming processing unit 109c. can do.

減光処理部109cは、プロジェクタ100のCPU101の指示により、OSD重畳部109bから受信したOSD重畳信号sig04に対し、エッジブレンドの減光処理を行なう。そして生成した重畳部減光信号sig05を変形処理部109dに対して出力することができる。減光処理としては、マルチ投影の重畳領域において、非重畳領域との境界から端部に向かって徐々に減光するようなゲインをかける。   The dimming processing unit 109c performs edge blending dimming processing on the OSD superimposed signal sig04 received from the OSD superimposing unit 109b in accordance with an instruction from the CPU 101 of the projector 100. Then, the generated superimposed portion dimming signal sig05 can be output to the deformation processing unit 109d. As the dimming process, a gain is applied so as to gradually diminish from the boundary with the non-superimposed area toward the end in the multi-projection superimposed area.

図5にエッジブレンド処理による投影画像の減光手法を示す。図5(a)にプロジェクタ1台の投影画像を示す。投影画像500aは、非重畳領域510aと重畳領域520aから構成される。同図(b)に、別のプロジェクタからの投影画像500b、非重畳領域510b、重畳領域520bを示す。   FIG. 5 shows a projection image dimming method by edge blend processing. FIG. 5A shows a projection image of one projector. The projected image 500a is composed of a non-overlapping area 510a and a superimposed area 520a. FIG. 5B shows a projected image 500b, a non-superimposed area 510b, and a superimposed area 520b from another projector.

同図(c)に示す530a、530bは、プロジェクタ100の減光処理部109cがOSD重畳信号sig04に適用するゲインである。非重畳領域510a,510bにおいては1.0倍、重畳領域520a、520bにおいては、横方向の位置により、非重畳領域との境界を1.0とし、投影画像端において0となるようなゲインとする。同図では、ゲインは直線となっているが、S字カーブなどにしてもよい。   530a and 530b shown in FIG. 5C are gains applied to the OSD superimposed signal sig04 by the light reduction processing unit 109c of the projector 100. Gains that are 1.0 times in the non-overlapping areas 510a and 510b, and that in the overlapping areas 520a and 520b are set to 1.0 at the boundary with the non-overlapping area and 0 at the projected image edge, depending on the position in the horizontal direction. To do. In the figure, the gain is a straight line, but it may be an S-shaped curve.

同図(d)に、合成後の投影画像を示す。重畳領域540は、プロジェクタ100それぞれの重畳領域520a、520bの重ね合わせとなっている。均一な画像を投影しているとき、重畳領域540の輝度は非重畳領域510a、510bと同等であるため、境界が目立たなくなっている。   FIG. 4D shows a projected image after synthesis. The overlapping area 540 is an overlapping of the overlapping areas 520 a and 520 b of the projector 100. When a uniform image is projected, the luminance of the superimposing region 540 is equal to that of the non-superimposing regions 510a and 510b, so that the boundary is not noticeable.

図2に示したようなマルチ投影の場合において、減光処理部109cによるエッジブレンド処理が行われる。   In the case of multi-projection as shown in FIG. 2, the edge blending process by the light reduction processing unit 109c is performed.

変形処理部109dは、変形の式に基づいて、重畳部減光信号sig05に変形処理を施し、変形後画像信号sig06を出力することができる。キーストーン補正は射影変換で実現できるため、プロジェクタ100のCPU101から射影変換のためのパラメータを入力する。元画像の座標を(xs、ys)とすると、変形後画像の座標(xd、yd)は式1で表わされる。   The deformation processing unit 109d can perform a deformation process on the superimposition dimming signal sig05 based on a deformation formula, and can output a post-deformation image signal sig06. Since keystone correction can be realized by projective transformation, parameters for projective transformation are input from the CPU 101 of the projector 100. If the coordinates of the original image are (xs, ys), the coordinates (xd, yd) of the post-deformation image are expressed by Equation 1.

Figure 2018125819
Figure 2018125819

ここで、Mは3×3行列で、プロジェクタ100のCPU101から入力される元画像から変形後画像への射影変換行列である。xso、ysoは、図6に実線で示す元画像の1つの頂点の座標であり、xdo、ydoは、図6に一点鎖線で示す変形後画像の、元画像の頂点(xso、yso)に対応する頂点の座標値である。   Here, M is a 3 × 3 matrix, which is a projective transformation matrix from the original image input from the CPU 101 of the projector 100 to the transformed image. xso and yso are the coordinates of one vertex of the original image indicated by the solid line in FIG. 6, and xdo and ydo correspond to the vertex (xso, yso) of the original image of the transformed image indicated by the one-dot chain line in FIG. It is the coordinate value of the vertex to perform.

プロジェクタ100のCPU101から、式1の行列Mの逆行列M−1とオフセット(xso,yso)、(xdo,ydo)が入力され、式2に従って変形後の座標値(xd、yd)に対応する元画像の座標(xs、ys)を求める。 From the CPU 101 of the projector 100, an inverse matrix M −1 of the matrix M of Expression 1 and offsets (xso, yso), (xdo, ydo) are input and correspond to the transformed coordinate values (xd, yd) according to Expression 2. The coordinates (xs, ys) of the original image are obtained.

Figure 2018125819
Figure 2018125819

式2に基づいて求められた元画像の座標が整数になれば、元画像座標(xs、ys)が持つ画素値をそのまま変換後座標(xd、yd)の持つ画素値としてもよい。しかし、式2に基づいて求められた元画像の座標は整数になるとは限らないので、周辺画素の値を用いて補間することで、変形後座標(xd、yd)の持つ画素値を求める。補間の方法は、バイリニア、バイキュービック、その他の任意の補間方法を用いればよい。また、式2に基づいて求められた元画像の座標が、元画像領域の範囲外である場合には、その画素値は黒またはユーザが設定した背景色とする。   If the coordinates of the original image obtained based on Equation 2 are integers, the pixel values of the original image coordinates (xs, ys) may be used as the pixel values of the converted coordinates (xd, yd) as they are. However, since the coordinates of the original image obtained based on Expression 2 are not always integers, the pixel values of the post-deformation coordinates (xd, yd) are obtained by interpolation using the values of the surrounding pixels. The interpolation method may be bilinear, bicubic, or any other interpolation method. When the coordinates of the original image obtained based on Expression 2 are outside the range of the original image area, the pixel value is black or the background color set by the user.

このようにして、変換後座標の全てについて画素値を求め、変換後画像を作成する。   In this manner, pixel values are obtained for all the converted coordinates, and a converted image is created.

上記の説明では、プロジェクタ100のCPU101から、画像処理部109に、行列Mとその逆行列M−1とを入力しているが、逆行列M−1のみを入力して画像処理部109の内部で行列Mを求めてもよい。あるいは、画像処理部109に行列Mのみを入力して画像処理部109の内部で逆行列M−1を求めてもよい。   In the above description, the matrix 101 and its inverse matrix M-1 are input from the CPU 101 of the projector 100 to the image processing unit 109. However, only the inverse matrix M-1 is input and the inside of the image processing unit 109 is input. The matrix M may be obtained by Alternatively, only the matrix M may be input to the image processing unit 109 and the inverse matrix M−1 may be obtained inside the image processing unit 109.

なお、本実施形態において、射影変換によって変形処理を行うものとして説明するが、変形処理の手法は射影変換に限らず、他の手法を用いても構わない。   In the present embodiment, description will be made assuming that the deformation process is performed by projective transformation, but the method of the deformation process is not limited to the projective conversion, and other methods may be used.

次に、図7を用いて自動補正のフローについて説明する。このフローはユーザがPC200の操作部204を介して、CPU201にプログラムの実行を指示したときに開始される。なお、図7の処理フローにおいて、フローの開始条件をユーザがPC200の操作部204を介してプログラムの実行を指示したときとして説明を行うが、開始条件はこれに限らない。   Next, the flow of automatic correction will be described using FIG. This flow is started when the user instructs the CPU 201 to execute a program via the operation unit 204 of the PC 200. In the processing flow of FIG. 7, the flow start condition is described as when the user instructs execution of the program via the operation unit 204 of the PC 200, but the start condition is not limited to this.

例えば、Linux(登録商標)のCronやWindowsのタスク・スケジューラ等を用いて図7の処理フローを定期的に実行させても良い。その場合、PC200のRAM202あるいはROM203に投影モード情報及び補正対象プロジェクタ情報が格納されていれば、S701とS702を省略することができる。   For example, the processing flow of FIG. 7 may be periodically executed using a Linux (registered trademark) Cron, a Windows task scheduler, or the like. In this case, if the projection mode information and the correction target projector information are stored in the RAM 202 or the ROM 203 of the PC 200, S701 and S702 can be omitted.

まず、PC200のCPU201は表示部205に投影モードの設定を促すメニュー画面を表示する(S701)。ユーザに投影モードの設定を促すメニュー画面を図8(a)に示す。ユーザはこのメニュー画面上のプルダウンメニュー801を操作して、投影モードを選択する。投影モードとして、スタック投影、マルチ投影が選択可能であり、スタック投影やマルチ投影においては台数や配置についても設定可能である。台数や配置に関しては図8(a)のプルダウンメニュー801に示したものだけではなく、その他の形態を選択できるようにしても良い。投影モードの選択後、ユーザがメニュー画面800上の決定ボタン802を押下することで、PC200のCPU201は自身のRAM202に投影モード情報を格納し、S702に遷移する。   First, the CPU 201 of the PC 200 displays a menu screen that prompts the user to set the projection mode on the display unit 205 (S701). A menu screen that prompts the user to set the projection mode is shown in FIG. The user operates the pull-down menu 801 on this menu screen to select the projection mode. As the projection mode, stack projection or multi-projection can be selected. In the stack projection or multi-projection, the number and arrangement can be set. Regarding the number and arrangement, not only those shown in the pull-down menu 801 in FIG. 8A but also other modes may be selected. After the projection mode is selected, when the user presses the enter button 802 on the menu screen 800, the CPU 201 of the PC 200 stores the projection mode information in its own RAM 202, and the process proceeds to S702.

本実施形態では投影モードの選択にプルダウンメニューを用いているが、選択方法はこれに限らない。例えばGUIによってラジオボタンやチェックボックスから入力させても良いし、CUIを用いても良い。あるいは、投影モード情報を含む設定ファイルを予めPC100のROM103に格納しておき、CPU101にROM103上の設定ファイルから投影モードを取得させても良い。   In this embodiment, a pull-down menu is used to select the projection mode, but the selection method is not limited to this. For example, a GUI may be used to input from a radio button or a check box, or a CUI may be used. Alternatively, a setting file including projection mode information may be stored in advance in the ROM 103 of the PC 100, and the CPU 101 may be caused to acquire the projection mode from the setting file on the ROM 103.

投影モードの設定後、PC200のCPU201は表示部205に補正対象プロジェクタの設定を促すメニュー画面を表示する(S702)。ユーザに補正対象プロジェクタの設定を促すメニュー画面を図8(b)に示す。表示領域811にはS701で設定した投影モード情報が表示される。ユーザはテキストボックス812〜815に補正対象のプロジェクタのIPアドレスを入力する。補正対象のプロジェクタが2台であれば、ユーザはテキストボックス812、813にIPアドレスを入力し、その他のテキストボックスには何も入力をしないことで、PC200のCPU201に投影対象プロジェクタの台数とアドレスを認識させる。IPアドレスの入力後、ユーザがメニュー画面810上の決定ボタン816を押下することで、PC200のCPU201は自身のRAM202に投影対象プロジェクタのIPアドレス情報を格納し、S703に遷移する。   After setting the projection mode, the CPU 201 of the PC 200 displays a menu screen that prompts the user to set the correction target projector on the display unit 205 (S702). FIG. 8B shows a menu screen that prompts the user to set the correction target projector. In the display area 811, the projection mode information set in S701 is displayed. The user inputs the IP address of the projector to be corrected in the text boxes 812 to 815. If there are two projectors to be corrected, the user inputs the IP address in the text boxes 812 and 813 and does not input anything in the other text boxes. Recognize When the user presses the enter button 816 on the menu screen 810 after inputting the IP address, the CPU 201 of the PC 200 stores the IP address information of the projection target projector in its own RAM 202, and the process proceeds to S703.

なお、IPアドレスの入力方法はテキストボックス形式に限らず、チェックボックスなど、その他の形式を用いても良い。CUIにて入力をさせても良い。あるいは投影対象プロジェクタのIPアドレスを含む設定ファイルを予めPC100のROM103に格納しておき、CPU101がROM103上の設定ファイルからIPアドレスを取得させても構わない。   The IP address input method is not limited to the text box format, and other formats such as a check box may be used. You may make it input in CUI. Alternatively, a setting file including the IP address of the projector to be projected may be stored in advance in the ROM 103 of the PC 100, and the CPU 101 may acquire the IP address from the setting file on the ROM 103.

投影モード及び補正対象プロジェクタの設定が完了後、PC200のCPU201は自身のRAM202に格納された投影モード情報に基づいて、対応する補正処理方法を選択(S703)し、補正処理を実行する。   After the setting of the projection mode and the correction target projector is completed, the CPU 201 of the PC 200 selects a corresponding correction processing method based on the projection mode information stored in its own RAM 202 (S703), and executes the correction process.

図1に示す投影装置2台を用いたスタック投影における自動補正処理(S704)について、図9および図10を用いて説明する。   An automatic correction process (S704) in stack projection using the two projection apparatuses shown in FIG. 1 will be described with reference to FIGS.

図9は、スタック投影の自動補正処理を説明するための、スクリーン900における図である。図9において、スクリーン900は平面である。図9において、プロジェクタ100a、100bのそれぞれの投影可能領域901a、901bを実線で囲んで図示している。各々のプロジェクタがスクリーンと正対していれば、投影可能な領域901a、901bはそれぞれ矩形になるが、ここでは各々のプロジェクタがスクリーンに正対していないため、投影可能領域901a、901bがそれぞれ台形になっている。   FIG. 9 is a diagram on the screen 900 for explaining the stack projection automatic correction processing. In FIG. 9, the screen 900 is a plane. In FIG. 9, the projectable areas 901 a and 901 b of the projectors 100 a and 100 b are surrounded by solid lines. If each projector is directly facing the screen, the projectable areas 901a and 901b are rectangular, but here, since each projector is not facing the screen, the projectable areas 901a and 901b are each trapezoidal. It has become.

図10は、スタック投影の自動補正処理における、PC200のフローチャートである。スタック投影の自動補正処理が開始されると、PC200は補正対象となる全てのプロジェクタの投影可能な領域を検出する(S1001)。すなわち、図9の実線に示されるような、プロジェクタ100aおよびプロジェクタ100bの、投影可能領域901aおよび901bを検出する。投影可能な領域を検出するとは、投影可能な領域内の各点の座標が、PC200のRAM202に格納されることを指す。投影可能な領域の検出のために、プロジェクタ100およびスクリーン900および撮像装置400の、位置情報および方向情報と、プロジェクタ100および撮像装置400の、光学情報と、を取得しておく。プロジェクタおよびスクリーンおよび撮像装置の、位置情報および方向情報とは、これらの装置が配置されている、位置および向きの情報である。位置情報および方向情報は、プロジェクタ100およびスクリーン900および撮像装置400の、位置および向きを、1つの座標系で表すことができれば、どのようなものであってもよい。プロジェクタおよび撮像装置の、光学情報とは、これらの装置のレンズの焦点距離などの光学に関する情報であり、主に幾何光学に関する情報である。   FIG. 10 is a flowchart of the PC 200 in the stack projection automatic correction process. When the stack projection automatic correction process is started, the PC 200 detects a projectable region of all projectors to be corrected (S1001). That is, the projectable areas 901a and 901b of the projector 100a and the projector 100b as shown by the solid line in FIG. 9 are detected. Detecting a projectable area means that the coordinates of each point in the projectable area are stored in the RAM 202 of the PC 200. In order to detect a projectable region, position information and direction information of the projector 100, the screen 900, and the imaging device 400, and optical information of the projector 100 and the imaging device 400 are acquired in advance. The position information and direction information of the projector, the screen, and the imaging device are information on the position and orientation in which these devices are arranged. The position information and the direction information may be any information as long as the position and orientation of the projector 100, the screen 900, and the imaging device 400 can be expressed in one coordinate system. The optical information of the projector and the imaging device is information related to optics such as the focal length of lenses of these devices, and is mainly information related to geometric optics.

各装置の位置情報および方向情報および光学情報を取得するには、既知の情報をPC200のRAM202に与えておき、PC200のCPU201が読み出すことによって得ることができる。あるいは、全ての情報が既知でなくても、各装置の位置情報または方向情報または光学情報を取得することもできる。具体的には、各々のプロジェクタ100からスクリーン900にテスト画像などの投影画像を投影して、投影画像を撮像装置400が撮像し、撮像された投影画像のデータをPC200のCPU201において解析する方法がある。解析によって得られる、位置情報または方向情報または光学情報は、PC200のRAM202に格納される。このように、投影と撮像とによって、位置情報または方向情報または光学情報を取得する方法は、公知であるので詳細は割愛する。PC200のCPU201は、これらの位置情報と方向情報と光学情報とを用いて、投影可能な領域の座標を計算して、RAM202に格納することができる。   In order to acquire position information, direction information, and optical information of each device, it is possible to obtain known information from the RAM 202 of the PC 200 and read it by the CPU 201 of the PC 200. Alternatively, even if not all information is known, position information, direction information, or optical information of each device can be acquired. Specifically, there is a method in which a projection image such as a test image is projected from each projector 100 onto the screen 900, the imaging device 400 captures the projection image, and the CPU 201 of the PC 200 analyzes the captured projection image data. is there. Position information, direction information, or optical information obtained by analysis is stored in the RAM 202 of the PC 200. As described above, a method for acquiring position information, direction information, or optical information by projection and imaging is publicly known, and the details are omitted. The CPU 201 of the PC 200 can calculate the coordinates of a region that can be projected using the position information, the direction information, and the optical information, and store the coordinates in the RAM 202.

前述した座標を、例えば、1つのXYZ座標系で表す場合、X軸、Y軸、Z軸の方向を決めておく必要があり、例えば、複数のプロジェクタの内の1台の、設置されている向きを基準にすることができる。例えば、プロジェクタの外形の上面や下面を基準面とすることができる。以降、説明のために、プロジェクタ100aの設置されている向きを基準として、図1のようにプロジェクタ100aの横方向をX軸、高さ方向をY軸、縦方向Z軸とするが、座標系や軸の設定の方法はこれに限らない。また、撮像装置400やスクリーン900など、プロジェクタ以外の装置や機器を基準に、座標系を設定してもよい。スクリーン900が矩形であれば、スクリーンの辺を基準にしてもよい。また、水準器を用いれば、水平を基準とすることもできる。   For example, when the coordinates described above are expressed by one XYZ coordinate system, it is necessary to determine the directions of the X axis, the Y axis, and the Z axis. For example, one of a plurality of projectors is installed. Orientation can be a reference. For example, the upper and lower surfaces of the external shape of the projector can be used as the reference surface. Hereinafter, for the sake of explanation, the horizontal direction of the projector 100a is set as the X axis, the height direction is set as the Y axis, and the vertical direction Z axis as shown in FIG. The method of setting the axis is not limited to this. Also, the coordinate system may be set based on an apparatus or device other than the projector, such as the imaging apparatus 400 or the screen 900. If the screen 900 is rectangular, the sides of the screen may be used as a reference. If a level is used, the horizontal level can be used as a reference.

次に、S1001で検出した投影可能領域を解析し、図9の投影可能な領域の内部における、最大領域の矩形902(図9の点線)を算出する(図10のS1002)。ここで言う矩形とは、スクリーン900を法線方向から見た場合の矩形を指している。矩形は平面であるスクリーン900と同一の面内にある。このように、まず矩形の法線方向をスクリーン900の法線方向と一致するように定める。   Next, the projectable area detected in S1001 is analyzed, and the maximum area rectangle 902 (dotted line in FIG. 9) within the projectable area in FIG. 9 is calculated (S1002 in FIG. 10). Here, the rectangle refers to a rectangle when the screen 900 is viewed from the normal direction. The rectangle is in the same plane as the screen 900 which is a plane. Thus, first, the normal direction of the rectangle is determined so as to coincide with the normal direction of the screen 900.

次に平面のスクリーン900の面内における、矩形の向きを定める。スクリーン面内においては、図13の矩形1301と矩形1302のように、矩形の辺の向きを様々に決めることができる。   Next, the orientation of the rectangle in the plane of the flat screen 900 is determined. In the screen plane, the directions of the sides of the rectangle can be variously determined, such as the rectangle 1301 and the rectangle 1302 in FIG.

本実施形態において矩形の向きは、先述した、プロジェクタ100aの横方向であるX軸を、スクリーン900に正射影した方向(図9のx)に平行な辺を矩形が持つように決定する。異なる向きにXYZ座標系のX軸を設定しておいた場合は、そのX軸をスクリーン900に正射影した方向に平行な辺を矩形が持つように矩形の向きを決定する。   In this embodiment, the orientation of the rectangle is determined so that the rectangle has a side parallel to the direction (x in FIG. 9) orthogonal to the X axis that is the horizontal direction of the projector 100a described above. When the X axis of the XYZ coordinate system is set in a different direction, the direction of the rectangle is determined so that the rectangle has a side parallel to the direction in which the X axis is orthogonally projected on the screen 900.

このように、矩形の向きを決定した後に、投影可能な領域の内部において矩形を決定する。具体的には、まず図9におけるプロジェクタ100aの投影可能な領域901aの左側の頂点であるA0およびA3、およびプロジェクタ100bの投影可能な領域901bの左側の頂点であるB0およびB3を抽出する。次にこれら4つの頂点の中で、最も右側、すなわちx方向の最も右側、である頂点を選ぶ。図9の場合、B3が選ばれる。B3を通り、スクリーン900の面内においてx方向に垂直な直線の一部が、最大の矩形(点線)の左辺になる。同様に、A1、A2、B1、B2の4頂点の最も左側から右辺が決まり、A0、A1、B0、B1の4頂点の最も下側から上辺が決まり、A2、A3、B2、B3の4頂点の最も上側から下辺が決まる。ここで言う上下とは、スクリーン900の面内において、x軸に垂直な方向であり、図9における上下と同じである。このようにして4辺が決められた矩形を、全てのプロジェクタが投影可能な最大の矩形の範囲とする。   In this way, after determining the orientation of the rectangle, the rectangle is determined within the projectable region. Specifically, first, A0 and A3 which are left vertices of the projectable area 901a of the projector 100a in FIG. 9, and B0 and B3 which are left vertices of the projectable area 901b of the projector 100b are extracted. Next, among these four vertices, the vertex on the rightmost side, that is, the rightmost side in the x direction is selected. In the case of FIG. 9, B3 is selected. A part of the straight line passing through B3 and perpendicular to the x direction in the plane of the screen 900 is the left side of the largest rectangle (dotted line). Similarly, the right side is determined from the leftmost of the four vertices of A1, A2, B1, and B2, the upper side is determined from the bottom of the four vertices of A0, A1, B0, and B1, and the four vertices of A2, A3, B2, and B3 are determined. The lower side is determined from the uppermost side. The term “upper and lower” here refers to the direction perpendicular to the x-axis in the plane of the screen 900 and is the same as the upper and lower in FIG. The rectangle with four sides determined in this way is set as the maximum rectangular range that can be projected by all projectors.

次に、このようにして決められた最大の矩形902と、コンテンツ画像との、縦横比を比較する(S1003)。最大の矩形902の縦横比とは、横の辺と縦の辺の長さの比であり、すなわち先述した上辺と右辺の長さの比である。また、コンテンツ画像の縦横比とは、投影の元となる画像の縦横比である。コンテンツ画像の縦横比には、例えば16:9や4:3といった比が用いられている。コンテンツ画像の縦横比を取得するには、プロジェクタに入力される元画像信号sig01を、LANを経由して、PC200のCPU201に送る方法がある。あるいは、コンテンツ画像の縦横比をRAM202に保存しておくことで、CPU201において値を用いることもできる。   Next, the aspect ratio between the maximum rectangle 902 determined in this way and the content image is compared (S1003). The aspect ratio of the maximum rectangle 902 is the ratio of the length of the horizontal side to the vertical side, that is, the ratio of the length of the upper side and the right side described above. The aspect ratio of the content image is the aspect ratio of the image that is the source of projection. A ratio such as 16: 9 or 4: 3 is used for the aspect ratio of the content image. In order to acquire the aspect ratio of the content image, there is a method of sending the original image signal sig01 input to the projector to the CPU 201 of the PC 200 via the LAN. Alternatively, the CPU 201 can use the value by storing the aspect ratio of the content image in the RAM 202.

S1003において比較した結果に基づき、次に投影の形状と位置とを決定する(S1004)。本実施形態においてはコンテンツ画像の比を変えずに投影してユーザに表示することとしている。したがって、図9における補正後の投影領域903(図9の破線)のように、形状が矩形であり、かつ、縦横比がコンテンツ画像と同じになるようにしている。最大の矩形902が、コンテンツ画像よりも縦長の場合は、補正後の投影領域903の下辺の長さを、最大の矩形の下辺の長さと同じにする。その場合、図9のように、補正後の投影領域903の左辺と右辺とは、最大の矩形902の左辺と右辺とにそれぞれ重なる。そして、補正後の投影領域903の左辺の中点を、最大の矩形902の左辺の中点と同じになるように上辺および下辺の位置を決定すれば、補正後の投影領域903の位置は一意に決まる。また、最大の矩形902が、コンテンツ画像よりも横長の場合、補正後の投影領域903の左辺の長さを、最大の矩形の左辺の長さと同じにする。その場合、補正後の投影領域903の下辺と上辺とは、最大の矩形902の下辺と上辺とにそれぞれ重なる。そして、補正後の投影領域903の下辺の中点を、最大の矩形902の下辺の中点と同じになるように左辺および右辺の位置を決定すれば、補正後の投影領域903の位置は一意に決まる。また、最大の矩形902とコンテンツ画像の縦横比が同じであった場合、補正後の投影領域903は最大の矩形902と同じ形状、同じ位置にすることができる。   Based on the result of comparison in S1003, the shape and position of the projection are then determined (S1004). In the present embodiment, projection is performed without changing the ratio of content images, and the projected image is displayed to the user. Therefore, as in the corrected projection region 903 in FIG. 9 (broken line in FIG. 9), the shape is rectangular and the aspect ratio is the same as that of the content image. When the maximum rectangle 902 is longer than the content image, the length of the lower side of the corrected projection area 903 is made the same as the length of the lower side of the maximum rectangle. In that case, as shown in FIG. 9, the left side and the right side of the projection region 903 after correction overlap with the left side and the right side of the largest rectangle 902, respectively. If the positions of the upper side and the lower side are determined so that the midpoint of the left side of the corrected projection area 903 is the same as the midpoint of the left side of the largest rectangle 902, the position of the projection area 903 after correction is unique. It is decided. When the maximum rectangle 902 is longer than the content image, the length of the left side of the corrected projection area 903 is set to be the same as the length of the left side of the maximum rectangle. In this case, the lower side and the upper side of the corrected projection area 903 overlap with the lower side and the upper side of the largest rectangle 902, respectively. If the positions of the left and right sides are determined so that the midpoint of the lower side of the corrected projection area 903 is the same as the midpoint of the lower side of the largest rectangle 902, the position of the corrected projection area 903 is unique. It is decided. Further, when the aspect ratio of the largest rectangle 902 and the content image is the same, the corrected projection area 903 can have the same shape and the same position as the largest rectangle 902.

以上のように、最大の矩形902の縦横比によらず、コンテンツ画像と同じ形状の補正後の投影領域903を決定することができる。なお、補正後の投影領域903の位置の決定においては、最大の矩形902の中央ではなく、最大の矩形902の内部の任意の位置に配置してよい。例えば、最大の矩形902の端に配置してもよい。あるいは、最大の矩形902の頂点と、補正後の投影領域903の頂点との距離が、最大の矩形902の辺の長さに特定の比を乗じた長さと等しくなるようにして決めてもよい。このように、予め位置の決定方法が定められていればよい。また、上述した方法では、補正後の投影領域903を最大の矩形902の内部において最大化するようにしているが、これに限定されるものではない。投影領域が大きい方がユーザにとって見やすくて好ましい場合もあるが、ユーザが投影領域を小さくして見たい場合もある。この場合、補正後の投影領域903の大きさの決定方法を予め定めておくことで、ユーザにとって好ましい表示を行うことが可能になる。補正後の投影領域903の大きさは、最大の矩形902の大きさに対して相対的に定めてもよいし、既知の座標系の絶対的な長さから定めてもよい。   As described above, the corrected projection area 903 having the same shape as the content image can be determined regardless of the aspect ratio of the largest rectangle 902. In determining the position of the projection region 903 after correction, it may be arranged at an arbitrary position inside the maximum rectangle 902 instead of the center of the maximum rectangle 902. For example, it may be arranged at the end of the largest rectangle 902. Alternatively, the distance between the vertex of the largest rectangle 902 and the vertex of the corrected projection area 903 may be determined to be equal to the length obtained by multiplying the length of the side of the largest rectangle 902 by a specific ratio. . In this way, it is only necessary to determine a position determination method in advance. In the method described above, the corrected projection area 903 is maximized inside the largest rectangle 902, but the present invention is not limited to this. In some cases, it is preferable for the user to have a larger projection area because it is easier for the user to see. In this case, by determining in advance a method for determining the size of the projection area 903 after correction, it is possible to perform display that is preferable for the user. The size of the corrected projection area 903 may be determined relative to the size of the largest rectangle 902 or may be determined from the absolute length of a known coordinate system.

以上のように、S1004において、補正後の投影領域903の形状、大きさ、位置が決定される。すなわち補正後の投影領域903の座標が決定される。   As described above, the shape, size, and position of the corrected projection area 903 are determined in S1004. That is, the coordinates of the corrected projection area 903 are determined.

次に、補正後の投影領域903を元に、プロジェクタごとの投影領域を決定する(S1005)。本実施形態に記載の、プロジェクタ2台のスタック投影においては、プロジェクタ100aおよび100bは、いずれも補正後の投影領域903の全体を投影する。   Next, a projection area for each projector is determined based on the corrected projection area 903 (S1005). In the stack projection of the two projectors described in this embodiment, both the projectors 100a and 100b project the entire projection region 903 after correction.

次に、S1005で決められた、プロジェクタごとの投影領域を元に、プロジェクタごとの補正を実行する(S1006)。各プロジェクタの投影可能な領域、および、補正後の投影領域が算出されているので、それらの相対位置に基づいて、プロジェクタごとのキーストーン補正量を算出することができる。PC200のCPU201で算出されたキーストーン補正量は、LANを経由して、プロジェクタの変形処理部109dに送ることができる。プロジェクタの変形処理部109dは、入力された元画像信号sig01に対してキーストーン補正を行い、補正された画像を投影することができる。   Next, correction for each projector is executed based on the projection area for each projector determined in S1005 (S1006). Since the projectable area of each projector and the corrected projection area are calculated, the keystone correction amount for each projector can be calculated based on the relative positions thereof. The keystone correction amount calculated by the CPU 201 of the PC 200 can be sent to the deformation processing unit 109d of the projector via the LAN. The deformation processing unit 109d of the projector can perform keystone correction on the input original image signal sig01 and project the corrected image.

あるいは、プロジェクタの変形処理部109dにおけるキーストーン補正を行わないで、プロジェクタごとの補正を実行することもできる。PC200のCPU201で算出されたキーストーン補正量に基づいて、PCの映像出力部207から出力する画像にキーストーン補正を行ってから、プロジェクタの映像入力部110へ画像を送り、元画像信号sig01として使用する。2つの方法の違いは、キーストーン補正を行う場所が、プロジェクタか、PCかの違いである。   Alternatively, correction for each projector can be performed without performing keystone correction in the deformation processing unit 109d of the projector. Based on the keystone correction amount calculated by the CPU 201 of the PC 200, the image output from the video output unit 207 of the PC is subjected to keystone correction, and then the image is sent to the video input unit 110 of the projector to be the original image signal sig01. use. The difference between the two methods is that the place where the keystone correction is performed is a projector or a PC.

以上のように、投影装置2台を用いたスタック投影における自動補正処理(S704)が終了する。このような自動補正処理の後に、コンテンツ画像を再生して投影すれば、スクリーン上の投影画像の形状は、矩形になる。本実施形態では、投影している画素の集合の外形が矩形に近い状態になる。この外形を矩形とみなした際の縦横比は、コンテンツ画像の縦横比と略同じになる。なお、本実施形態において、スクリーンやプロジェクタに歪みが生じると、投影画像の形状が補正の前後において矩形からずれうるが、ここで説明する趣旨の範囲において本発明を適宜用いることが可能である。   As described above, the automatic correction process (S704) in the stack projection using the two projectors is completed. If the content image is reproduced and projected after such automatic correction processing, the shape of the projected image on the screen becomes rectangular. In the present embodiment, the outer shape of the set of projected pixels is close to a rectangle. The aspect ratio when the outer shape is regarded as a rectangle is substantially the same as the aspect ratio of the content image. In this embodiment, when the screen or the projector is distorted, the shape of the projected image may be deviated from the rectangle before and after the correction. However, the present invention can be used as appropriate within the scope of the present invention.

[実施例2]
以下、図と共に本発明の第2の実施形態を説明する。
[Example 2]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.

第2の実施形態では、投影装置2台を用いたマルチ投影における自動補正を示す。システム構成は、図2において、プロジェクタ100c、100dが無い構成であり、プロジェクタ100a、100bの2台を有するシステムである。それ以外の装置構成は、第1の実施形態と同じである。また、装置のブロック図も図3、図4に示される通り、同じである。   In the second embodiment, automatic correction in multi-projection using two projectors is shown. In FIG. 2, the system configuration does not include the projectors 100c and 100d, and has two projectors 100a and 100b. The other device configuration is the same as that of the first embodiment. The block diagram of the apparatus is the same as shown in FIGS.

自動補正のフローの図7のS701〜S703について、投影モードがマルチ投影になる点以外は同じである。S705において、マルチ投影の自動補正処理が実行される。   7 is the same as S701 to S703 in FIG. 7 except that the projection mode is multi-projection. In step S <b> 705, automatic multi-projection correction processing is executed.

図11、図12を用いてマルチ投影の自動補正処理を説明する。   The multi-projection automatic correction processing will be described with reference to FIGS.

図11は、マルチ投影の自動補正処理を説明するための、スクリーン900における図である。図11において、スクリーン900は平面である。図11において、プロジェクタ100a、100bのそれぞれの投影可能な領域1101a、1101bを実線で囲んで図示している。   FIG. 11 is a diagram on the screen 900 for explaining the multi-projection automatic correction processing. In FIG. 11, the screen 900 is a plane. In FIG. 11, the projectable areas 1101a and 1101b of the projectors 100a and 100b are shown surrounded by solid lines.

図12は、マルチ投影の自動補正処理における、PC200のフローチャートである。マルチ投影の自動補正処理が開始されると、PC200は補正対象となる全てのプロジェクタの投影可能な領域を検出する(S1201)。S1201での処理内容は、スタック投影における処理S1001と同じであるので省略する。   FIG. 12 is a flowchart of the PC 200 in the multi-projection automatic correction process. When the automatic correction processing for multi-projection is started, the PC 200 detects a projectable area of all projectors to be corrected (S1201). Since the processing content in S1201 is the same as the processing S1001 in stack projection, a description thereof will be omitted.

次に、図11の投影可能な領域の内部における、最大の矩形1102(図11の点線)を算出する(図12のS1202)。S1202における矩形の向きの決定方法は、スタック投影における処理S1002と同じであるので省略する。   Next, the maximum rectangle 1102 (dotted line in FIG. 11) within the projectable area in FIG. 11 is calculated (S1202 in FIG. 12). The method for determining the orientation of the rectangle in step S1202 is the same as that in step S1002 in stack projection, and is therefore omitted.

矩形の向きを決定した後に、投影可能な領域の内部において矩形が最大となるようにする。最大の矩形1102の4辺の決定方法において、図11の上辺と下辺との決定方法はスタック投影のS1002と同じであるので省略する。   After determining the orientation of the rectangle, the rectangle is maximized within the projectable region. In the determination method of the four sides of the maximum rectangle 1102, the determination method of the upper side and the lower side of FIG.

図11の左辺と右辺の決定方法はスタック投影のS1103と異なる。左辺を決定するには、まず図11におけるプロジェクタ100aの投影可能な領域1101aの左側の頂点であるA0およびA3を抽出する。次にこれら2つの頂点の中で、最も右側、すなわちx方向の最も右側、である頂点を選ぶ。図11の場合、A3が選ばれる。A3を通り、スクリーン900の面内においてx方向に垂直な直線の一部が、最大の矩形(点線)の左辺になる。同様に、B1、B2の2頂点の最も左側から右辺が決まる。このようにして4辺が決められた矩形は、マルチ投影として投影可能な範囲において最大化されていると言える。   The method for determining the left side and the right side in FIG. 11 is different from S1103 of stack projection. In order to determine the left side, first, A0 and A3 which are left vertices of the projectable area 1101a of the projector 100a in FIG. 11 are extracted. Next, of these two vertices, the vertex which is the rightmost side, that is, the rightmost side in the x direction is selected. In the case of FIG. 11, A3 is selected. A part of the straight line passing through A3 and perpendicular to the x direction in the plane of the screen 900 is the left side of the largest rectangle (dotted line). Similarly, the right side is determined from the leftmost side of the two vertices B1 and B2. It can be said that the rectangle with four sides determined in this way is maximized in a range that can be projected as a multi-projection.

次に、このようにして決められた最大の矩形1102と、コンテンツ画像との、縦横比を比較する(S1203)。S1203における処理の内容はスタック投影における処理S1003と同じであるので省略する。   Next, the aspect ratio between the maximum rectangle 1102 determined in this way and the content image is compared (S1203). Since the content of the process in S1203 is the same as the process S1003 in the stack projection, the description is omitted.

S1203の結果に基づき、次に投影の形状と位置とを決定する(S1204)。S1204において、補正後の投影領域1103の形状、大きさ、位置が決定される。すなわち補正後の投影領域1103の座標が決定される。本実施形態に記載のマルチ投影の場合、補正後の投影領域1103は、各プロジェクタの投影の、重畳領域と非重畳領域とから形成される。   Based on the result of S1203, next, the shape and position of the projection are determined (S1204). In S1204, the shape, size, and position of the corrected projection area 1103 are determined. That is, the coordinates of the corrected projection area 1103 are determined. In the case of the multi-projection described in the present embodiment, the corrected projection area 1103 is formed from a superimposed area and a non-superimposed area of the projection of each projector.

次にS1201とS1204の結果に基づき、重畳領域1104を決定する(S1205)。重畳領域1104は、矩形であり、矩形の1辺を補正後の投影領域1103の1辺と平行であるような向きにする。また、重畳領域1104は、投影可能な領域1101aおよび投影可能な領域1101bの共通領域であり、かつ、補正後の投影領域1103の内側であるようにする。このような範囲内において、重畳領域1104を図11のように最大化することができる。以上のように、重畳領域1104を決定し、それ以外の補正後の投影領域1103を非重畳領域として決定することができる。   Next, based on the results of S1201 and S1204, the overlapping area 1104 is determined (S1205). The overlapping area 1104 is rectangular, and one side of the rectangle is oriented in parallel with one side of the projection area 1103 after correction. Further, the overlapping area 1104 is a common area of the projectable area 1101a and the projectable area 1101b, and is located inside the corrected projection area 1103. Within such a range, the overlapping region 1104 can be maximized as shown in FIG. As described above, the superimposed region 1104 can be determined, and other corrected projection regions 1103 can be determined as non-superimposed regions.

次に、プロジェクタごとの投影領域を決定する(S1206)。本実施形態に記載の、プロジェクタ2台のマルチ投影においては、プロジェクタ100aが重畳領域1104およびそれより左側の非重畳領域を投影する。100bは、重畳領域1104およびそれより右側の非重畳領域を投影する。   Next, a projection area for each projector is determined (S1206). In the multi-projection with two projectors described in the present embodiment, the projector 100a projects the overlapping region 1104 and the non-overlapping region on the left side thereof. 100b projects the overlapping region 1104 and the non-overlapping region on the right side thereof.

次に、S1206で決められた、プロジェクタごとの投影領域を元に、プロジェクタごとの補正を実行する(S1207)。S1207において行われる処理が、スタック投影における処理S1006と異なる点は、重畳領域に対して図5で示したエッジブレンド処理を行うことである。それ以外については、同じであるため省略する。   Next, correction for each projector is executed based on the projection area for each projector determined in S1206 (S1207). The process performed in S1207 is different from the process S1006 in stack projection in that the edge blend process shown in FIG. Since it is the same about other than that, it abbreviate | omits.

以上のように、投影装置2台を用いたマルチ投影における自動補正処理(S705)が終了する。このような自動補正処理の後に、コンテンツ画像を再生して投影すれば、スクリーン上の投影画像の形状は、矩形になる。   As described above, the automatic correction process (S705) in the multi-projection using the two projectors is completed. If the content image is reproduced and projected after such automatic correction processing, the shape of the projected image on the screen becomes rectangular.

第2の実施形態では、プロジェクタの台数を2台として説明したが、台数や配置によらず同様の考え方を用いて本発明が適用される。   In the second embodiment, the number of projectors has been described as two, but the present invention is applied using the same concept regardless of the number and arrangement.

[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、装置に供給することによっても、達成されることは言うまでもない。このとき、供給された装置の制御部を含むコンピュータ(またはCPUやMPU)は、記憶媒体に格納されたプログラムコードを読み出し実行する。
[Other Embodiments]
It goes without saying that the object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to the apparatus. At this time, the computer (or CPU or MPU) including the control unit of the supplied apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the OS (basic system or operating system) running on the apparatus performs part or all of the processing based on the instruction of the program code described above, and the functions of the above-described embodiments are realized by the processing. Needless to say, cases are also included.

さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施形態の機能が実現される場合も含まれることは言うまでもない。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行う。   Further, the program code read from the storage medium may be written into a memory provided in a function expansion board inserted into the apparatus or a function expansion unit connected to the computer, and the functions of the above-described embodiments may be realized. Needless to say, it is included. At this time, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

このように、実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、省略、置き換え、変更を行うことができる。   As described above, the embodiment can be implemented in various other forms, and can be omitted, replaced, and changed without departing from the gist of the invention.

100、100a、100b、100c、100d 投影装置
109 画像処理部
109c 減光処理部
109d 変形処理部
sig01 元画像信号
200 PC
201 CPU
202 RAM
204 操作部
205 表示部
300 映像ケーブル
400 撮像装置
540 重畳領域
800 投影モード設定画面
810 補正対象プロジェクタ設定画面
900 スクリーン
901 投影可能な領域
902 最大の矩形
903 補正後の投影領域
1101 投影可能な領域
1102 最大の矩形
1103 補正後の投影領域
100, 100a, 100b, 100c, 100d Projector 109 Image processing unit 109c Dimming processing unit 109d Deformation processing unit sig01 Original image signal 200 PC
201 CPU
202 RAM
204 Operation Unit 205 Display Unit 300 Video Cable 400 Imaging Device 540 Superimposition Area 800 Projection Mode Setting Screen 810 Correction Target Projector Setting Screen 900 Screen 901 Projectable Area 902 Maximum Rectangle 903 Corrected Projection Area 1101 Projectable Area 1102 Maximum Rectangle 1103 Projected area after correction

Claims (8)

複数のプロジェクタを含む投影システムを制御する制御装置であって、
前記複数のプロジェクタそれぞれの投影可能領域を検出する検出手段と、
前記検出手段で検出された各投影可能領域を解析し、前記複数のプロジェクタが協働して投影する場合の最大領域の中から、投影するコンテンツの形状に基づく投影領域を設定する設定手段とを有することを特徴とする制御装置。
A control device for controlling a projection system including a plurality of projectors,
Detecting means for detecting a projectable region of each of the plurality of projectors;
Analyzing each projectable area detected by the detection means, and setting means for setting a projection area based on the shape of the content to be projected from among the maximum areas when the plurality of projectors project in cooperation. A control device comprising:
さらに、前記投影領域に基づき、前記複数のプロジェクタに対して投影画像の形状を補正するよう指示する指示手段を有することを特徴とする請求項1に記載の制御装置。   The control apparatus according to claim 1, further comprising an instruction unit that instructs the plurality of projectors to correct a shape of a projection image based on the projection area. さらに、スクリーン上の投影画像を撮像する撮像装置を備え、
前記検出手段は、前記撮像装置が撮影により取得した画像を解析することで、前記投影可能領域を検出することを特徴とする請求項1または2に記載の制御装置。
Furthermore, an imaging device for capturing a projected image on the screen is provided,
The control device according to claim 1, wherein the detection unit detects the projectable region by analyzing an image acquired by the imaging device by photographing.
前記設定手段は、前記投影領域として、スクリーンの法線方向から見て矩形である様な領域を設定することを特徴とする請求項1ないし3のいずれか1項に記載の制御装置。   4. The control device according to claim 1, wherein the setting unit sets, as the projection area, an area that is rectangular when viewed from the normal direction of the screen. 5. 前記複数のプロジェクタが投影する画像の少なくとも一部が重複していることを特徴とする請求項1ないし4のいずれか1項に記載の制御装置。   5. The control device according to claim 1, wherein at least some of the images projected by the plurality of projectors overlap each other. 複数のプロジェクタを含む投影システムを制御する制御方法であって、
前記複数のプロジェクタそれぞれの投影可能領域を検出する検出工程と、
前記検出工程で検出された各投影可能領域を解析し、前記複数のプロジェクタが協働して投影する場合の最大領域の中から、投影するコンテンツの形状に基づく投影領域を設定する設定工程とを有することを特徴とする制御方法。
A control method for controlling a projection system including a plurality of projectors,
A detecting step of detecting a projectable area of each of the plurality of projectors;
Analyzing each projectable region detected in the detection step, and setting a projection region based on the shape of the content to be projected from among the maximum regions when the plurality of projectors project in cooperation. A control method comprising:
複数のプロジェクタを含む投影システムを制御するプログラムであって、
コンピュータが読み出し実行することで、
前記複数のプロジェクタそれぞれの投影可能領域を検出する検出工程と、
前記検出工程で検出された各投影可能領域を解析し、前記複数のプロジェクタが協働して投影する場合の最大領域の中から、投影するコンテンツの形状に基づく投影領域を設定する設定工程と実行可能とするプログラム。
A program for controlling a projection system including a plurality of projectors,
When the computer reads and executes,
A detecting step of detecting a projectable area of each of the plurality of projectors;
A setting step of executing each of the projectable regions detected in the detection step and setting a projection region based on the shape of the content to be projected from the maximum region when the plurality of projectors project in cooperation. A program that makes it possible.
請求項7に記載のプログラムをコンピュータにより読みだし可能に格納した記憶媒体。   A storage medium storing the program according to claim 7 so as to be readable by a computer.
JP2017019035A 2017-02-03 2017-02-03 Control device, control method, program, and storage medium Pending JP2018125819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017019035A JP2018125819A (en) 2017-02-03 2017-02-03 Control device, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019035A JP2018125819A (en) 2017-02-03 2017-02-03 Control device, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2018125819A true JP2018125819A (en) 2018-08-09

Family

ID=63110514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019035A Pending JP2018125819A (en) 2017-02-03 2017-02-03 Control device, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2018125819A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020202786A1 (en) * 2019-03-29 2020-10-08
CN114299836A (en) * 2022-01-24 2022-04-08 广州万城万充新能源科技有限公司 Can carry on advertisement projection system and fill electric pile of electric pile
CN115190281A (en) * 2022-06-30 2022-10-14 海宁奕斯伟集成电路设计有限公司 Device and method for adjusting projection position of projector
CN115883802A (en) * 2021-09-30 2023-03-31 中强光电股份有限公司 Method for adjusting pixel values of mixed images and projection system thereof
US11792373B2 (en) 2020-10-26 2023-10-17 Seiko Epson Corporation Display method and display system
JP2024101092A (en) * 2023-01-17 2024-07-29 セイコーエプソン株式会社 Information processing method, information processing device and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202786A1 (en) * 2019-03-29 2020-10-08 富士フイルム株式会社 Image processing device, projection system, image processing method, and image processing program
JPWO2020202786A1 (en) * 2019-03-29 2020-10-08
US11477422B2 (en) 2019-03-29 2022-10-18 Fujifilm Corporation Image processing device, projection system, image processing method, and image processing program
JP7223837B2 (en) 2019-03-29 2023-02-16 富士フイルム株式会社 Image processing device, projection system, image processing method, and image processing program
US11627295B2 (en) 2019-03-29 2023-04-11 Fujifilm Corporation Image processing device, projection system, image processing method, and image processing program
US11792373B2 (en) 2020-10-26 2023-10-17 Seiko Epson Corporation Display method and display system
CN115883802A (en) * 2021-09-30 2023-03-31 中强光电股份有限公司 Method for adjusting pixel values of mixed images and projection system thereof
CN114299836B (en) * 2022-01-24 2024-02-09 广州万城万充新能源科技有限公司 Advertisement projection system capable of being carried on charging pile and charging pile
CN114299836A (en) * 2022-01-24 2022-04-08 广州万城万充新能源科技有限公司 Can carry on advertisement projection system and fill electric pile of electric pile
CN115190281A (en) * 2022-06-30 2022-10-14 海宁奕斯伟集成电路设计有限公司 Device and method for adjusting projection position of projector
CN115190281B (en) * 2022-06-30 2024-01-02 海宁奕斯伟集成电路设计有限公司 Device and method for adjusting projection position of projector
JP2024101092A (en) * 2023-01-17 2024-07-29 セイコーエプソン株式会社 Information processing method, information processing device and program
JP7655330B2 (en) 2023-01-17 2025-04-02 セイコーエプソン株式会社 Information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
JP6164820B2 (en) Projector, control method therefor, and image projection system
CN106605195B (en) Communication device and control method of communication device
US9554105B2 (en) Projection type image display apparatus and control method therefor
JP6645687B2 (en) Display device and control method
JP2018125819A (en) Control device, control method, program, and storage medium
US9521383B2 (en) Image processing apparatus, projector, and image processing method
US9319651B2 (en) Image projection apparatus, image projection method, and storage medium of program
US20190281266A1 (en) Control apparatus, readable medium, and control method
US20170244941A1 (en) Projector and control method thereof
US9470966B2 (en) Image projection apparatus and presentation system
US11832031B2 (en) Projection system controlling method, and projector
JP2021039203A (en) Image processing device and image processing method
JP6271837B2 (en) Projection apparatus and control method thereof
JP2013083755A (en) Display device, method of controlling display device, and program
JP2019047355A (en) projector
JP2021061510A (en) Projection control device, method, program, and storage medium
JP6700955B2 (en) Projection apparatus and projection method
JP2018054912A (en) Projection display apparatus and control method thereof
JP2022126414A (en) PROJECTION CONTROL DEVICE AND PROJECT CONTROL METHOD
CN116366817B (en) Projection method and projector
JP2018121201A (en) Image processing device, image processing method, and program
JP2020053710A (en) Information processing apparatus, projection device, control method of projection device, and program
WO2020162051A1 (en) Projection type video display system
JP2014036394A (en) Distortion correction method of projection image and projection display device
JP2020150481A (en) Information processing equipment, projection system, information processing method, and program