[go: up one dir, main page]

JP2007096622A - Correction data creation method, correction data creation apparatus and image projection system - Google Patents

Correction data creation method, correction data creation apparatus and image projection system Download PDF

Info

Publication number
JP2007096622A
JP2007096622A JP2005281810A JP2005281810A JP2007096622A JP 2007096622 A JP2007096622 A JP 2007096622A JP 2005281810 A JP2005281810 A JP 2005281810A JP 2005281810 A JP2005281810 A JP 2005281810A JP 2007096622 A JP2007096622 A JP 2007096622A
Authority
JP
Japan
Prior art keywords
image
correction data
correction
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005281810A
Other languages
Japanese (ja)
Inventor
Shigeru Naoi
茂 直井
Hiroshi Kawase
宏志 河瀬
Masaki Ishikawa
正喜 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005281810A priority Critical patent/JP2007096622A/en
Publication of JP2007096622A publication Critical patent/JP2007096622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】輝度レベルの低い領域において、シームレスな画像を実現する技術を提供すること。
【解決手段】画像投映装置104A〜104Dから投映される投映画像を、画像データを表示する有効画像領域と、画像データを表示しない無効画像領域と、にわけ、これらの有効画像領域の境界線と無効画像領域の境界線とにより囲まれる領域を補正単位画像領域とし、この補正単位画像領域毎に輝度レベルの低い領域に適用する補正データを作成し、別途算出されている輝度レベルの比較的高い領域に適用する補正データに結合する。
【選択図】図1
A technique for realizing a seamless image in an area with a low luminance level is provided.
The projected images projected from the image projecting devices 104A to 104D are divided into an effective image area for displaying image data and an invalid image area for not displaying image data, and a boundary line between these effective image areas. The area surrounded by the border of the invalid image area is set as a correction unit image area, and correction data to be applied to a low luminance level area is created for each correction unit image area, and the brightness level calculated separately is relatively high. Combine with the correction data to apply to the region.
[Selection] Figure 1

Description

本発明は、スクリーン上で複数の画像を連結して所望の画像を投映する画像投映システムにおける画像の画素値を補正する補正データを作成する技術に関する。   The present invention relates to a technique for creating correction data for correcting a pixel value of an image in an image projection system that projects a desired image by connecting a plurality of images on a screen.

複数の画像投映装置を使用してスクリーンに映像を投映する画像表示装置においては、各々の画像投映装置により投映される画像をつなぎ合わせるために、各々の画像投映装置から投映される画像の明るさや色合いを調整する必要がある。   In an image display device that projects images on a screen using a plurality of image projection devices, the brightness of the images projected from the respective image projection devices, It is necessary to adjust the hue.

そのような調整を行う技術として、特許文献1には、複数の画像投映装置から投映される画像を隣接する画像同士が重複部分をもつように配置し、この重複部分に対して画素毎に補正を行うことでブレンド処理を行い、シームレスな画像を実現する技術が開示されている。   As a technique for performing such adjustment, Patent Document 1 arranges images projected from a plurality of image projection apparatuses so that adjacent images have overlapping portions, and corrects the overlapping portions for each pixel. A technique for performing a blending process to realize a seamless image is disclosed.

国際公開第99/31877号パンフレットWO99 / 31877 pamphlet

しかしながら、従来の技術では、輝度レベルの高い範囲においては、色や輝度の調整幅が大きいため画素毎に微妙な加減をつけることができ、シームレスな画像を実現しやすい一方で、輝度レベルの低い範囲においては、色や輝度の調整幅が小さいため画素毎に微妙な加減をつけることができず、画素毎に調整することでかえって画素間の補正ムラが顕著に表れるという欠点がある。   However, in the conventional technology, in the range where the luminance level is high, the adjustment range of the color and luminance is large, so that it is possible to add subtle adjustments for each pixel, and it is easy to realize a seamless image, while the luminance level is low. In the range, since the adjustment range of the color and brightness is small, it is not possible to add subtle adjustments for each pixel, and there is a drawback that correction unevenness between pixels appears remarkably by adjusting for each pixel.

そこで、本発明は、輝度レベルの低い範囲においても、シームレスな画像を実現する技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technique for realizing a seamless image even in a low luminance level range.

以上の課題を解決するため、本発明では、輝度レベルの低い範囲とその他の範囲で補正データを異なる方法で作成する。   In order to solve the above problems, in the present invention, correction data is created by a different method in a range where the luminance level is low and other ranges.

例えば、本発明では、画像再生部から出力された画像データを複数の画像投映部から投映し、複数の該画像投映部から投映した複数の画像を連結して所望の画像を映し出すことができるようにした画像投映システムにおいて、前記画像投映部から投映された画像を撮影した撮影データに基づいて前記画像データの画素値の補正を行うための補正データを作成する補正データ作成方法であって、第一の輝度レベル以下の画素値の補正データは補正単位画像領域毎に算出し、前記第一の輝度レベルよりも高い第二の輝度レベル以上の画素値の補正データは画素毎に算出し、それぞれの補正データを結合する。   For example, in the present invention, the image data output from the image reproduction unit can be projected from a plurality of image projection units, and a plurality of images projected from the plurality of image projection units can be connected to project a desired image. In the image projection system according to the present invention, there is provided a correction data creation method for creating correction data for correcting pixel values of the image data based on photographing data obtained by photographing an image projected from the image projection unit. Correction data for pixel values below one luminance level is calculated for each correction unit image area, correction data for pixel values above a second luminance level higher than the first luminance level is calculated for each pixel, Combine the correction data.

以上のように、本発明によれば、輝度レベルの低い範囲では所定の面単位で補正データを作成するため、輝度レベルの低い範囲における補正ムラを軽減することができる。   As described above, according to the present invention, correction data is created in units of predetermined planes in a range with a low luminance level, so that correction unevenness in a range with a low luminance level can be reduced.

図1は、本発明の一実施形態である画像投映システム100の概略構成図である。   FIG. 1 is a schematic configuration diagram of an image projection system 100 according to an embodiment of the present invention.

画像投映システム100は、画像再生装置101A〜101Dと、画像切替装置102と、画像補正装置103と、画像投映装置104A〜104Dと、遮光部材105A〜105Dと、スクリーン106と、撮像装置107と、演算処理装置108と、を備えている。   The image projection system 100 includes an image reproduction device 101A to 101D, an image switching device 102, an image correction device 103, an image projection device 104A to 104D, a light shielding member 105A to 105D, a screen 106, an imaging device 107, And an arithmetic processing unit 108.

画像再生装置101A〜101Dは、外部記憶装置(図示せず)に記憶されている画像データを読み込み、後述する画像切替装置102に出力する。   The image reproducing devices 101A to 101D read image data stored in an external storage device (not shown) and output the image data to an image switching device 102 described later.

ここでの画像データは、静止画及び動画の何れでもよく、また、外部記憶装置としては、例えば、ハードディスク、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、磁気ディスク等を用いることができる。   The image data here may be either a still image or a moving image, and examples of the external storage device include a hard disk, a CD-ROM (Compact Disk Read Only Memory), and a DVD-ROM (Digital Versatile Disk Read Only Memory). A magnetic disk or the like can be used.

なお、本実施形態では、8ビットの画像データを扱っており、少なくとも(R、G、B)=(0、0、0)の黒画像データと、(R、G、B)=(255、255、255)の白画像データと、図6で示されているいわゆる市松模様の座標算出用画像データと、がそれぞれの画像再生装置101A〜101Dの外部記憶装置に記憶されている。   In the present embodiment, 8-bit image data is handled, and at least (R, G, B) = (0, 0, 0) black image data and (R, G, B) = (255, 255, 255) and the so-called checkered coordinate calculation image data shown in FIG. 6 are stored in the external storage devices of the respective image reproducing devices 101A to 101D.

画像切替装置102は、画像再生装置101A〜101Dから送られてくる画像データを後述する画像補正装置103を介して画像投映装置104A〜104Dに出力するか否かを制御するスイッチング装置である。   The image switching device 102 is a switching device that controls whether or not the image data sent from the image reproducing devices 101A to 101D is output to the image projection devices 104A to 104D via the image correction device 103 described later.

ここで、本実施形態では、画像再生装置101Aから送られてくる画像データの出力をこの画像切替装置102でオン又はオフすることで、画像投映装置104Aからの画像の投映をオン又はオフすることができるようにされている。同様に、画像再生装置101Bから送られてくる画像データの出力をオン又はオフすることで、画像投映装置104Bからの画像の投映をオン又はオフすることができ、また、画像再生装置101Cから送られてくる画像データの出力をオン又はオフすることで、画像投映装置104Cからの画像の投映をオン又はオフすることができ、さらに、画像再生装置101Dから送られてくる画像データの出力をオン又はオフすることで、画像投映装置104Dからの画像の投映をオン又はオフすることができるようにされている。   Here, in the present embodiment, the output of the image data sent from the image reproduction device 101A is turned on or off by the image switching device 102, thereby turning on or off the projection of the image from the image projection device 104A. Have been able to. Similarly, by turning on or off the output of the image data sent from the image reproduction device 101B, it is possible to turn on or off the projection of the image from the image projection device 104B. By turning on or off the output of the received image data, the projection of the image from the image projection device 104C can be turned on or off, and further, the output of the image data sent from the image reproduction device 101D can be turned on. Alternatively, the image projection from the image projection device 104D can be turned on or off by turning it off.

なお、画像切替装置102の制御は、後述する演算処理装置108により行われている。   Note that the control of the image switching device 102 is performed by an arithmetic processing device 108 described later.

画像補正装置103は、画像再生装置101A〜101Dから画像切替装置102を介して送られてきた画像データに対して、その位置や形状の補正といった幾何補正と、その色や輝度の補正といった画素値補正を施す。   The image correction device 103 performs pixel correction such as geometric correction such as position and shape correction and color and luminance correction on the image data sent from the image reproduction devices 101A to 101D via the image switching device 102. Make corrections.

なお、本実施形態では、幾何補正に関しては、既知の方法で補正を施すことにより、画像投映装置104A〜104Dから投映された画像がスクリーン106において幾何的に連結されるようになっており、画素値補正に関しては、画像再生装置101A〜101Dから入力された画像データに何等補正を施さずにスルーさせる設定又は入出力を等価となるような設定となっている。なお、これらの制御については、演算処理装置108で行うことができるようにされている。   In the present embodiment, with respect to geometric correction, the images projected from the image projection apparatuses 104A to 104D are geometrically connected on the screen 106 by performing correction by a known method, and the pixels With respect to value correction, settings are made such that the image data input from the image reproducing apparatuses 101A to 101D is passed through without any correction or input / output is equivalent. These controls can be performed by the arithmetic processing unit 108.

画像投映装置104A〜104Dは、画像補正装置103から出力された画像データをそれぞれの投映部104aからスクリーン106に投映するものであり、具体的には、液晶プロジェクタやDLP(登録商標)プロジェクタ等を用いることができる。   The image projection devices 104A to 104D project the image data output from the image correction device 103 from the respective projection units 104a onto the screen 106. Specifically, a liquid crystal projector, a DLP (registered trademark) projector, or the like is used. Can be used.

なお、隣接する画像投映装置104A〜104Dについては、スクリーン106で隣接する投映領域同士の少なくとも一部が相互に重なり合うようにされており、全ての画像投映装置104A〜104Dにより投映された画像が連結されて所望の画像をスクリーン106に投映することができるようにされている。   Regarding the adjacent image projection devices 104A to 104D, at least a part of the adjacent projection areas on the screen 106 is overlapped with each other, and the images projected by all the image projection devices 104A to 104D are connected. Thus, a desired image can be projected on the screen 106.

遮光部材105A〜105Dは、それぞれの画像投映装置104A〜104Dの投映部104aの周囲であって、この投映部104aからスクリーン106に向かう光軸上に設けられている。   The light shielding members 105A to 105D are provided around the projection unit 104a of each of the image projection apparatuses 104A to 104D and on the optical axis from the projection unit 104a toward the screen 106.

画像投映装置104A〜104Dから投映される投映光は、画像投映装置104A〜104Dの構造的な要因により、図2に示されているように、画像再生装置101A〜101Dから出力された画像データに対応した有効画像領域111と、この有効画像領域111の周囲に位置し、画像再生装置101A〜101Dから出力された画像データには必要のない(画像データには対応していない)無効画像領域112と、有効画像領域111から離れた位置に投映される第一の漏れ光113〔図2(A)参照〕と、第二の漏れ光114〔図2(B)参照〕と、により構成されているのが一般的である。   The projection light projected from the image projection devices 104A to 104D is converted into image data output from the image reproduction devices 101A to 101D as shown in FIG. 2 due to structural factors of the image projection devices 104A to 104D. The corresponding effective image area 111 and the invalid image area 112 that is located around the effective image area 111 and is not necessary for the image data output from the image reproducing apparatuses 101A to 101D (not corresponding to the image data). And a first leaked light 113 (see FIG. 2A) projected at a position distant from the effective image area 111 and a second leaked light 114 (see FIG. 2B). It is common.

ここで、遮光部材105A〜105Dは、この有効画像領域111から離れた位置に投映される第一の漏れ光113及び第二の漏れ光114がスクリーン106に投映されないようにするものであり、有効画像領域111の周囲の光を遮るように設置する。   Here, the light shielding members 105 </ b> A to 105 </ b> D are configured to prevent the first leaked light 113 and the second leaked light 114 projected at positions away from the effective image area 111 from being projected on the screen 106. It is installed so as to block the light around the image area 111.

なお、第二の漏れ光114については、厳密には、無効画像領域112と区別することはできないが、遮光部材105A〜105Dにより遮光される領域が、所定の間隔、有効画像領域111から離れるようにすることで、画像データには必要ない投映領域であって、有効画像領域111の周囲に残る領域が無効画像領域112になる。   Strictly speaking, the second leaked light 114 cannot be distinguished from the invalid image area 112, but the area shielded by the light shielding members 105A to 105D is separated from the effective image area 111 by a predetermined interval. By doing so, an area that is a projection area that is not necessary for the image data and remains around the effective image area 111 becomes the invalid image area 112.

この点、遮光部材105A〜105Dによる遮光領域を有効画像領域111に近づけすぎると、この遮光部材105A〜105Dにより有効画像領域111に対して光学的なブレンド処理がかかり、例えば、有効画像領域111の周辺部が暗くなってしまう場合がある。そこで、本実施形態では、有効画像領域111から遮光部材105A〜105Dによる遮光領域を所定の間隔離して設け、この遮光領域と有効画像領域111との間の無効画像領域112は、後述する方法で画素値を補正することにより除去するようにしている。   In this regard, if the light shielding area by the light shielding members 105 </ b> A to 105 </ b> D is too close to the effective image area 111, the effective image area 111 is optically blended by the light shielding members 105 </ b> A to 105 </ b> D. The peripheral part may become dark. Therefore, in the present embodiment, a light shielding region by the light shielding members 105A to 105D is provided to be separated from the effective image region 111 by a predetermined distance, and the invalid image region 112 between the light shielding region and the effective image region 111 is formed by a method described later. The pixel value is removed by correcting it.

なお、画像投映装置104A〜104Dの構造により、第一の漏れ光113や第二の漏れ光114がスクリーン106に投映されないような場合には、このような遮光部材105A〜105Dを設ける必要はない。   If the first leakage light 113 and the second leakage light 114 are not projected on the screen 106 due to the structure of the image projection devices 104A to 104D, it is not necessary to provide such light shielding members 105A to 105D. .

具体的に、遮光部材105A〜105Dについては、図1に示されているように、中央に有効画像領域111と無効画像領域112とを通過させるための矩形状の貫通孔を備えた矩形状の板状部材により構成されている。   Specifically, as shown in FIG. 1, the light shielding members 105 </ b> A to 105 </ b> D have a rectangular shape having a rectangular through hole for allowing the effective image area 111 and the invalid image area 112 to pass through at the center. It is comprised by the plate-shaped member.

なお、この矩形状の貫通孔については、その周りの板状部材を相互にスライドさせることで、その大きさ・形状を変更することができるようにしておくことが望ましい。   In addition, about this rectangular through-hole, it is desirable to be able to change the magnitude | size and shape by sliding the plate-shaped member around it mutually.

また、本実施形態では、図示していないが、画像投映装置104A〜104Dの位置を固定する設置台に遮光部材105A〜105Dを固定するようにしているが、例えば、画像投映装置104A〜104D等に遮光部材105A〜105Dを固定してもよい。   In the present embodiment, although not shown, the light shielding members 105A to 105D are fixed to an installation base for fixing the positions of the image projection apparatuses 104A to 104D, but for example, the image projection apparatuses 104A to 104D, etc. The light shielding members 105 </ b> A to 105 </ b> D may be fixed to each other.

スクリーン106については、フロント投射用とリア投射用のどちらを使用することもでき、また、その形状は、平面、円筒、半球形等任意のものを使用することができるが、本実施形態では、リア投射用で矩形状のものを使用している。   For the screen 106, either front projection or rear projection can be used, and any shape such as a plane, cylinder, hemisphere, etc. can be used, but in this embodiment, A rectangular projection is used for rear projection.

撮像装置107は、スクリーン106に投映された画像を撮影し、その撮影した撮影データを後述する演算処理装置108に送信する。   The imaging device 107 captures an image projected on the screen 106 and transmits the captured image data to the arithmetic processing unit 108 described later.

ここで、撮像装置107は、デジタルカメラを使用することにより実現することができ、IEEE1394インターフェースやUSBインターフェース等の情報送信手段を介して演算処理装置108に画像データを送信することができるものを使用する。   Here, the imaging apparatus 107 can be realized by using a digital camera, and can use an apparatus that can transmit image data to the arithmetic processing unit 108 via an information transmission unit such as an IEEE1394 interface or a USB interface. To do.

また、撮像装置107は、全ての画像投映装置104A〜104Dからスクリーン106に投映される投映領域の全体を撮影することができるように設置する。   Further, the imaging device 107 is installed so that the entire projection area projected on the screen 106 from all the image projection devices 104A to 104D can be photographed.

演算処理装置108は、後述するように、撮像装置107で撮影された撮影データから有効画像領域と無効画像領域の抽出処理と、撮像装置107で撮影された撮影データの画素毎の座標算出処理と、撮像装置107で撮影された撮影データの領域の区切り処理と、分割された領域毎の平均輝度の算出処理と、分割された領域と基準輝度とのオフセット値の算出処理と、補正データの算出処理と、を行うとともに、画像切替装置102と画像補正装置103の制御を行う。   As will be described later, the arithmetic processing unit 108 extracts the effective image area and the invalid image area from the shooting data shot by the imaging device 107, and calculates the coordinates for each pixel of the shooting data shot by the imaging device 107. , Processing for dividing the area of the image data captured by the imaging device 107, processing for calculating the average luminance for each divided area, processing for calculating the offset value between the divided area and the reference luminance, and calculation of correction data The image switching device 102 and the image correction device 103 are controlled.

例えば、演算処理装置108は、図示してはいないが、CPU(Central Processing Unit)と、主メモリと、補助記憶装置と、インターフェースと、これらを連結するシステムバスと、を備えるコンピュータシステムによって実現することができる。   For example, although not shown, the arithmetic processing unit 108 is realized by a computer system including a CPU (Central Processing Unit), a main memory, an auxiliary storage device, an interface, and a system bus that couples them. be able to.

以上のように構成される本実施形態における映像投映システム100において補正データを作成する際の処理を以下に説明する。   Processing when creating correction data in the video projection system 100 according to the present embodiment configured as described above will be described below.

なお、以下では、8ビットの画像データを例にして説明するがこのような態様に限定されるわけではない。   In the following description, 8-bit image data will be described as an example, but the present invention is not limited to such a mode.

図3は、映像投映システム100において補正データを作成する際の処理の流れを示すフローチャートである。   FIG. 3 is a flowchart showing the flow of processing when creating correction data in the video projection system 100.

まず、第一の画像の撮影処理を行う(S201)。   First, a first image photographing process is performed (S201).

ここでは、画像再生装置101A〜101Dから画素値が(0、0、0)の黒画像データを出力し、画像切替装置102で各画像投映装置104A〜104Dに出力する画像データを切り替えて、スクリーン106に各画像投映装置104A〜104Dが単独でこの黒画像データを投映するようにして、それぞれの黒画像を画像撮影装置107で撮影する。   Here, black image data with pixel values (0, 0, 0) is output from the image reproducing devices 101A to 101D, and the image switching device 102 switches the image data to be output to each of the image projection devices 104A to 104D. Each image projection device 104 </ b> A to 104 </ b> D independently projects the black image data on 106, and each black image is captured by the image capturing device 107.

即ち、画像投映装置104Aから投映した画像データを撮影する際には他の画像投映装置104B、104C及び104Dの投映光がスクリーン106に投映されないようにし、画像投映装置104Bから投映した画像データを撮影する際には他の画像投映装置104A、104C及び104Dの投映光がスクリーン106に投映されないようにし、画像投映装置104Cから投映した画像データを撮影する際には他の画像投映装置104A、104B及び104Dの投映光がスクリーン106に投映されないようにし、画像投映装置104Dから投映した画像データを撮影する際には他の画像投映装置104A、104B及び104Cの投映光がスクリーン106に投映されないようにしている。   That is, when shooting the image data projected from the image projection device 104A, the projection light of the other image projection devices 104B, 104C and 104D is prevented from being projected onto the screen 106, and the image data projected from the image projection device 104B is shot. When projecting, the projection light of the other image projection devices 104A, 104C and 104D is prevented from being projected onto the screen 106, and when photographing the image data projected from the image projection device 104C, the other image projection devices 104A, 104B and The projection light of 104D is not projected on the screen 106, and the projection light of the other image projection devices 104A, 104B, and 104C is not projected on the screen 106 when shooting the image data projected from the image projection device 104D. Yes.

例えば、画像投映装置104A〜104Dとして、投映部104aをメカニカルシャッタで開閉することができるようにされているものを使用する場合には、撮影を行うもの以外の画像投映装置104A〜104Dのメカニカルシャッタを閉じることによりスクリーン106に投映光が投映されないようにすることができる。また、撮影を行うもの以外の画像投映装置104A〜104Dの電源を切ってしまったり、撮影を行うもの以外の画像投映装置104A〜104Dの投映部104aを遮蔽板で覆ってしまったり、することによりスクリーン106に投映光が投映されないようにすることも可能である。   For example, when using the image projection devices 104A to 104D that can open and close the projection unit 104a with a mechanical shutter, the mechanical shutters of the image projection devices 104A to 104D other than those that perform shooting are used. By closing, projection light can be prevented from being projected onto the screen 106. In addition, by turning off the power of the image projection apparatuses 104A to 104D other than the one that performs photographing, or covering the projection unit 104a of the image projection apparatuses 104A to 104D other than the one that performs photographing with a shielding plate. It is also possible to prevent projection light from being projected onto the screen 106.

また、撮影装置107で撮影を行う際には、図2で示した、有効画像領域111と無効画像領域112とが撮影されるように、撮影装置107の絞りや露光時間を調整する。例えば、絞りを解放し、露光時間を長めにすることで、有効画像領域111と無効画像領域112との両方を撮影することができる。   Further, when photographing with the photographing apparatus 107, the aperture and exposure time of the photographing apparatus 107 are adjusted so that the effective image area 111 and the invalid image area 112 shown in FIG. 2 are photographed. For example, both the effective image area 111 and the invalid image area 112 can be photographed by releasing the aperture and extending the exposure time.

このようにして撮影した撮影データの例を図4に示す。図4(A)は、画像投映装置104Aから投映した画像を画像撮影装置107で撮影した撮影データであり、同様に、図4(B)、図4(C)及び図4(D)は、それぞれ、画像投映装置104B、104C及び104Dから投映した画像を画像撮影装置107で撮影した撮影データである。   An example of shooting data shot in this way is shown in FIG. FIG. 4A shows photographing data obtained by photographing an image projected from the image projecting device 104A by the image photographing device 107. Similarly, FIGS. 4B, 4C, and 4D are as follows. These are the shooting data obtained by shooting the images projected from the image projection devices 104B, 104C, and 104D by the image shooting device 107, respectively.

ここで、これらの撮影データには、有効画像領域111A〜111Dと無効画像領域112A〜112Dとの両方を含んだ領域が所定の明るさを有する領域として撮影される(実際の撮影データには、有効画像領域111A〜111Dと無効画像領域112A〜112Dとの境界線は明確には撮影されない)。   Here, in these shooting data, an area including both the effective image areas 111A to 111D and the invalid image areas 112A to 112D is shot as an area having a predetermined brightness (the actual shooting data includes The boundary lines between the effective image areas 111A to 111D and the invalid image areas 112A to 112D are not clearly captured).

なお、本実施形態では、リア投射用のスクリーン106を使用し、有効画像領域111A〜111Dと無効画像領域112A〜112D以外の部分は光が投影されていないため、黒色で撮影されている。   In the present embodiment, the rear projection screen 106 is used, and the portions other than the effective image areas 111A to 111D and the invalid image areas 112A to 112D are not projected, and thus are photographed in black.

そして、このようにして撮影された撮影データは、撮像装置107から演算処理装置108に送られ、演算処理装置108において第一の画像データとして記憶される。   The photographing data photographed in this way is sent from the imaging device 107 to the arithmetic processing device 108 and stored as first image data in the arithmetic processing device 108.

次に、第二の画像の撮影処理を行う(S202)。   Next, a second image shooting process is performed (S202).

ここでは、画像再生装置101A〜101Dから画素値が(255、255、255)の白画像データを出力し、画像切替装置102で各画像投映装置104A〜104Dに出力する画像データを切り替えて、スクリーン106に各画像投映装置104A〜104Dが単独で白画像データを投映するようにした画像をそれぞれ画像撮影装置107で撮影する。   Here, white image data with pixel values (255, 255, 255) is output from the image reproduction apparatuses 101A to 101D, and the image data to be output to the image projection apparatuses 104A to 104D is switched by the image switching apparatus 102, and the screens are switched. Each image projection device 104 </ b> A to 104 </ b> D individually captures white image data on the image 106, and the image capturing device 107 captures the image.

この点、第一の画像の撮影処理(S201)の際には、撮影の対象となってはいない画像投映装置104A〜104Dの投映光がスクリーン106に投映されないようにしていたが、充分に輝度レベルの高い画像を使用する第二の画像の撮影処理(S202)の際には、閾値の設定で撮影の対象とはなっていない画像投映装置104A〜104Dの影響を充分に排除することができるため、撮影の対象となってはいない画像投映装置104A〜104Dからは、前述の黒画像データを投映する。なお、第一の画像の撮影処理(S201)の際と同様に、撮影の対象となってはいない画像投映装置104A〜104Dの投映光がスクリーン106に投映されないようにしてもよい。   In this regard, during the first image shooting process (S201), the projection light of the image projection apparatuses 104A to 104D that are not the shooting target is not projected on the screen 106. In the second image shooting process (S202) using a high-level image, it is possible to sufficiently eliminate the influence of the image projection devices 104A to 104D that are not the shooting target by setting the threshold value. Therefore, the above-described black image data is projected from the image projecting devices 104A to 104D that are not to be photographed. Note that, similarly to the first image shooting process (S201), the projection light of the image projection apparatuses 104A to 104D that are not the shooting target may not be projected on the screen 106.

また、撮影装置107で撮影を行う際には、図2で示した、有効画像領域111A〜111Dが明確に撮影され、無効画像領域112A〜112Dが明確に撮影されないようにするため、即ち、閾値の設定で、有効画像領域111A〜111Dを切り出すことができるように、撮影装置107の絞りや露光時間を調整する。例えば、絞りを絞って、露光時間を短めにすることで、有効画像領域111A〜111Dのみを明確に撮影することができる。   Further, when photographing with the photographing apparatus 107, the effective image areas 111A to 111D shown in FIG. 2 are clearly photographed, and the invalid image areas 112A to 112D are not clearly photographed, that is, a threshold value. With this setting, the aperture and exposure time of the photographing apparatus 107 are adjusted so that the effective image areas 111A to 111D can be cut out. For example, only the effective image areas 111 </ b> A to 111 </ b> D can be clearly photographed by reducing the aperture and shortening the exposure time.

このようにした撮影した撮影データの例を図5に示す。図5(A)は、画像投映装置104Aから投映した画像を画像撮影装置107で撮影した撮影データであり、同様に、図5(B)、図5(C)及び図5(D)は、それぞれ、画像投映装置104B、104C及び104Dから投映した画像を画像撮影装置107で撮影した撮影データである。   FIG. 5 shows an example of the shooting data thus shot. FIG. 5A shows photographing data obtained by photographing an image projected from the image projecting device 104A by the image photographing device 107. Similarly, FIGS. 5B, 5C, and 5D are as follows. These are the shooting data obtained by shooting the images projected from the image projection devices 104B, 104C, and 104D by the image shooting device 107, respectively.

また、このようにして撮影された撮影データは、撮像装置107から演算処理装置108に送られ、第二の画像データとして演算処理装置108に記憶される。   Further, the shooting data shot in this way is sent from the imaging device 107 to the arithmetic processing unit 108 and stored in the arithmetic processing unit 108 as second image data.

次に、第三の画像の撮影処理を行う(S203)。   Next, a third image photographing process is performed (S203).

ここでは、各画像投映装置104A〜104Dから投映する画像の各画素がスクリーン106においてどのような座標に表示されるかを算出するための座標算出用画像データを画像再生装置101A〜101Dから出力し、画像切替装置102で各画像投映装置104A〜104Dに出力する座標算出用画像データを切り替えて、スクリーン106に各画像投映装置104A〜104Dが単独で座標算出用画像データを投映するようにした画像をそれぞれ画像撮影装置107で撮影する。   Here, the image reproducing devices 101A to 101D output coordinate calculation image data for calculating the coordinates at which the pixels of the images projected from the image projecting devices 104A to 104D are displayed on the screen 106. The image switching device 102 switches the coordinate calculation image data to be output to each of the image projection devices 104A to 104D so that each of the image projection devices 104A to 104D independently projects the coordinate calculation image data on the screen 106. Are respectively photographed by the image photographing device 107.

この座標の算出方法については、既知の方法で行うことが可能であり、ここで説明する本実施形態の方法に限定されない。   This coordinate calculation method can be performed by a known method, and is not limited to the method of this embodiment described here.

なお、本実施形態においては、図6に示されているように、白などの輝度レベルの高い正方形の領域120aと黒などの輝度レベルの低い正方形の領域120bとが、上下左右に交互に並べられたいわゆる市松模様と、座標算出時の基準座標とする基準マーキングパターン120cと、を備える座標算出用画像データ120を用いているが、このようなものに限定されるわけではない。   In the present embodiment, as shown in FIG. 6, square regions 120 a with a high luminance level such as white and square regions 120 b with a low luminance level such as black are alternately arranged vertically and horizontally. The coordinate calculation image data 120 including the so-called checkered pattern and the reference marking pattern 120c used as the reference coordinate at the time of coordinate calculation is used. However, the present invention is not limited to this.

また、このような座標算出用画像データ120の撮影は、第二の画像の撮影処理(S202)での撮影と同様に行えばよい。   Further, such shooting of the coordinate calculation image data 120 may be performed in the same manner as the shooting in the second image shooting process (S202).

即ち、撮影の対象となってはいない画像投映装置104A〜104Dからは、前述の黒画像を投映して撮影を行い、また、絞りを絞って、露光時間を短めにすることで、いわゆる市松模様を明確に撮影することができる。   In other words, the image projection devices 104A to 104D that are not subject to photography project the above-described black image and perform photography, and by reducing the aperture and shortening the exposure time, a so-called checkered pattern is obtained. Can be taken clearly.

このようにした撮影した撮影データの例を図7に示す。図7(A)は、画像投映装置104Aから投映した座標算出用画像データ120を画像撮影装置107で撮影した撮影データであり、同様に、図7(B)、図7(C)及び図7(D)は、それぞれ、画像投映装置104B、104C及び104Dから投映した座標算出用画像データ120を画像撮影装置107で撮影した撮影データである。   FIG. 7 shows an example of shooting data thus shot. FIG. 7A shows shooting data obtained by shooting the image data 120 for coordinate calculation projected from the image projection device 104A with the image shooting device 107. Similarly, FIG. 7B, FIG. 7C, and FIG. (D) is shooting data obtained by shooting the image data 120 for coordinate calculation projected from the image projection devices 104B, 104C, and 104D by the image shooting device 107, respectively.

また、このようにして撮影された撮影データは、撮像装置107から演算処理装置108に送られ、第三の画像データとして演算処理装置108に記憶される。   Further, the photographing data photographed in this way is sent from the imaging device 107 to the arithmetic processing device 108 and stored in the arithmetic processing device 108 as third image data.

次に、第四の画像の撮影処理を行う(S204)。   Next, a fourth image photographing process is performed (S204).

ここでは、画像再生装置101A〜101Dから画素値が(0、0、0)の黒画像データを出力し、画像切替装置102で全ての画像投映装置104A〜104Dにこの黒画像データを出力するようにして、スクリーン106に全ての画像投映装置104A〜104Dから投映した黒画像を画像撮影装置107で撮影する。   Here, black image data having pixel values (0, 0, 0) is output from the image reproducing devices 101A to 101D, and the black image data is output to all the image projection devices 104A to 104D by the image switching device 102. Then, the black images projected from all the image projection devices 104 </ b> A to 104 </ b> D on the screen 106 are photographed by the image photographing device 107.

この場合にも、第一の画像の撮影処理(S201)の場合と同様に、図2で示した有効画像領域111と無効画像領域112とが撮影されるように、撮影装置107の絞りや露光時間を調整する。例えば、絞りを解放し、露光時間を長めにすることで、有効画像領域111と無効画像領域112とを撮影することができる。   Also in this case, as in the case of the first image capturing process (S201), the aperture and exposure of the image capturing apparatus 107 so that the effective image area 111 and the invalid image area 112 shown in FIG. Adjust the time. For example, the effective image area 111 and the invalid image area 112 can be photographed by releasing the aperture and extending the exposure time.

図8に示されているように、このようにして撮影された撮影データでは、画像撮像装置107で撮像した撮像領域130内に、全ての画像投映装置104A〜104Dから投映した有効画像領域111A〜111Dと無効画像領域112A〜112Dとがそれぞれ一部において重複している。   As shown in FIG. 8, in the shooting data shot in this way, the effective image areas 111A to 111A projected from all the image projection apparatuses 104A to 104D in the imaging area 130 imaged by the image pickup apparatus 107. 111D and invalid image areas 112A to 112D partially overlap each other.

また、このようにして撮影された撮影データは、撮像装置107から演算処理装置108に送られ、第四の画像データとして演算処理装置108に記憶される。   Further, the shooting data shot in this way is sent from the imaging device 107 to the arithmetic processing unit 108 and stored in the arithmetic processing unit 108 as fourth image data.

次に、有効画像領域111A〜111Dの抽出処理を行う(S205)。   Next, extraction processing of the effective image areas 111A to 111D is performed (S205).

これは、演算処理装置108において、第二の画像の撮影処理(S202)で得られた第二の画像データ(画像投映装置104A〜104Dから個別に投映した白画像の撮影データ)のそれぞれから、有効画像領域111A〜111Dを抽出する処理である。   This is because each of the second image data (white image shooting data individually projected from the image projection devices 104A to 104D) obtained in the second image shooting processing (S202) in the arithmetic processing unit 108 is obtained. This is processing for extracting the effective image areas 111A to 111D.

具体的には、第二の画像データのそれぞれを所定の閾値を用いて2値化処理を施すことで有効画素領域111A〜111Dとその他の領域とを区別することができる。   Specifically, the effective pixel regions 111A to 111D can be distinguished from other regions by performing binarization processing on each of the second image data using a predetermined threshold value.

なお、第二の画像データには、有効画像領域111A〜111Dの周囲に無効画像領域112A〜112Dも撮影される場合もあるが、2値化を施す際の閾値として適切なものを用いることで有効画像領域111A〜111Dを抽出することができる。   Note that the invalid image areas 112A to 112D may be photographed around the effective image areas 111A to 111D as the second image data, but by using an appropriate threshold value when binarization is performed. The effective image areas 111A to 111D can be extracted.

また、2値化を施す前処理として、第二の画像データにフィルタをかけてノイズ等を除去することが望ましい。   Further, as preprocessing for performing binarization, it is desirable to remove noise and the like by filtering the second image data.

このようにして、2値化処理が施された第二の画像データは、有効画像領域抽出データとして演算処理装置108に記憶される。   The second image data that has been binarized in this way is stored in the arithmetic processing unit 108 as effective image area extraction data.

次に、無効画像領域の抽出処理を行う(S206)。   Next, an invalid image region extraction process is performed (S206).

これは、演算処理装置108において、第一の画像の撮影処理(S201)で得られた第一の画像データ(画像投映装置104A〜104Dから個別に投映した黒画像の撮影データ)のそれぞれから、無効画像領域112A〜112Dを抽出する処理である。   This is because each of the first image data (black image shooting data individually projected from the image projection devices 104A to 104D) obtained in the first image shooting processing (S201) in the arithmetic processing unit 108 is obtained. This is processing for extracting invalid image areas 112A to 112D.

具体的には、第一の画像データのそれぞれから有効画像領域111A〜111Dと無効画像領域112A〜112Dとを抽出することができる所定の閾値を用いて2値化処理を施した後に、有効画像領域抽出処理(S205)で算出された有効画像領域抽出データを対応する画素位置から減算することで、無効画像領域112A〜112Dとその他の領域とを区別することができる。なお、減算する際には、同じ画像投映装置104A〜104Dから投映されたもの同士で行う。   Specifically, after performing binarization processing using a predetermined threshold that can extract the effective image regions 111A to 111D and the invalid image regions 112A to 112D from each of the first image data, the effective image By subtracting the effective image area extraction data calculated in the area extraction process (S205) from the corresponding pixel position, the invalid image areas 112A to 112D can be distinguished from other areas. In addition, when subtracting, it carries out by what was projected from the same image projection apparatus 104A-104D.

また、2値化を施す前処理として、第一の画像データにフィルタをかけてノイズ等を除去することが望ましい。   Further, as preprocessing for performing binarization, it is desirable to remove noise and the like by filtering the first image data.

このようにして、2値化処理が施された第一の画像データは、無効画像領域抽出データとして演算処理装置108に記憶される。   In this way, the first image data that has been binarized is stored in the arithmetic processing unit 108 as invalid image area extraction data.

次に、撮影データの画素毎の座標を算出する(S207)。   Next, coordinates for each pixel of the photographing data are calculated (S207).

これは、演算処理装置108において、第三の画像の撮影処理(S203)で得られた第三の画像データ(画像投映装置104A〜104Dから個別に投映した座標算出用画像の撮影データ)のそれぞれから、撮像装置107の撮像データの各画素の画素位置を特定の座標で表す画像データを生成する処理である。   This is because each of the third image data obtained by the third image shooting process (S203) in the arithmetic processing unit 108 (shooting data of the coordinate calculation images individually projected from the image projection devices 104A to 104D). From this, the image data representing the pixel position of each pixel of the imaging data of the imaging device 107 with specific coordinates is generated.

具体的には、有効画像領域抽出処理(S205)で得られた有効画像領域画像データを第三の画像の撮影処理(S203)で得られた第三の画像データに加算することにより、第三の画像データから有効画像領域に対応する部分を抽出した画像データを生成する。   Specifically, the effective image area image data obtained in the effective image area extraction process (S205) is added to the third image data obtained in the third image shooting process (S203), thereby obtaining the third image data. Image data obtained by extracting a portion corresponding to the effective image area from the image data is generated.

そして、第三の画像データから有効画像領域に対応する部分を抽出した画像データに対してエッジ検出処理を行い、図6に示されているように、縦横の格子線120d、120eを検出し、格子線120d,120eの交点の座標を求める。   Then, edge detection processing is performed on the image data obtained by extracting the portion corresponding to the effective image area from the third image data, and the vertical and horizontal grid lines 120d and 120e are detected as shown in FIG. The coordinates of the intersection of the grid lines 120d and 120e are obtained.

次に、第三の画像データから有効画像領域に対応する部分を抽出した画像データから基準マーキングパターン120cの座標を求め、基準座標とする。   Next, the coordinates of the reference marking pattern 120c are obtained from the image data obtained by extracting the portion corresponding to the effective image area from the third image data, and set as the reference coordinates.

先に求めた格子線120d、120eの交点の座標が、基準座標から縦横何格子離れた座標であるかを求め、相対座標とする。   It is determined how many grids the intersection point of the previously obtained grid lines 120d and 120e is at a distance from the reference coordinate in the vertical and horizontal directions, and set as a relative coordinate.

このようにして求めた基準座標と相対座標とを、第四の画像の撮影処理(S204)で得られた第四の画像データ(全ての画像投映装置104A〜104Dから黒画像を投映した撮影データ)に対応させることで、撮影データの各画素の画素位置を座標上に特定することができる。   The reference coordinates and relative coordinates thus obtained are used as fourth image data (shooting data obtained by projecting a black image from all the image projection devices 104A to 104D) obtained in the fourth image shooting process (S204). ), The pixel position of each pixel of the shooting data can be specified on the coordinates.

なお、格子線120d、120eの交点以外の画素の画素位置については、この交点の座標からの距離で補間することにより特定することができる。   Note that the pixel positions of the pixels other than the intersections of the grid lines 120d and 120e can be specified by interpolation with the distance from the coordinates of the intersections.

このようにして算出された各画素の画素位置については、座標データとして演算処理装置108に記憶される。   The pixel position of each pixel calculated in this manner is stored in the arithmetic processing unit 108 as coordinate data.

次に、補正単位画像領域の区切り処理を行う(S208)。   Next, a correction unit image area separation process is performed (S208).

ここで、補正単位画像領域とは、後述するように、本発明において輝度レベルの低い領域用の補正データを作成する際に、補正データを作成する単位となる画像領域である。具体的には、有効画像領域111A〜111Dの境界線と無効画像領域112A〜112Dの境界線により区切られるそれぞれの領域のことである。   Here, as will be described later, the correction unit image region is an image region that is a unit for generating correction data when generating correction data for a region having a low luminance level in the present invention. Specifically, these are the areas delimited by the boundary lines of the effective image areas 111A to 111D and the boundary lines of the invalid image areas 112A to 112D.

本実施形態では、それぞれの画像投映装置104A〜104Dが投映する画像領域の内有効画像領域111A〜111Dと無効画像領域112A〜112Dとに、それぞれ異なるビット位置に識別子となる「1」を入力した符号を設定することで区切りを行うようにしているが、このような態様に限定されるわけではない。   In the present embodiment, “1” serving as an identifier is input to each of the valid image areas 111A to 111D and the invalid image areas 112A to 112D in the image areas projected by the image projection apparatuses 104A to 104D. Although the division is performed by setting the code, it is not limited to such a mode.

即ち、有効画像領域抽出処理(S205)で抽出された有効画像領域111A〜111Dと無効画像領域抽出処理(S206)で抽出された無効画像領域112A〜112Dのそれぞれに、異なるビット位置に識別子となる「1」を入力した値を設定し、その他の領域には「0」の値を入力して全て加算することで区切りを行うようにしている。   That is, the valid image areas 111A to 111D extracted by the effective image area extraction process (S205) and the invalid image areas 112A to 112D extracted by the invalid image area extraction process (S206) are identifiers at different bit positions. A value in which “1” is input is set, and a value of “0” is input to the other areas, and all are added to perform separation.

具体的には、無効画像領域112Aには「1」の値を、有効画像領域111Aには「10000」の値を、その他の領域には「0」の値を、設定し、無効画像領域112Bには「10」の値を、有効画像領域111Bには「100000」の値を、その他の領域には「0」の値を、設定し、無効画像領域112Cには「100」の値を、有効画像領域111Bには「1000000」の値を、その他の領域には「0」の値を、設定し、無効画像領域112Dには「1000」の値を、有効画像領域111Bには「10000000」の値を、その他の領域には「0」の値を、設定して、全て加算することにより、対応する画素がどの領域に属するものであるかを区切ることができるようになる。   Specifically, a value of “1” is set in the invalid image area 112A, a value of “10000” is set in the valid image area 111A, and a value of “0” is set in the other areas, and the invalid image area 112B is set. Is set to “10”, the effective image area 111B is set to “100000”, the other areas are set to “0”, and the invalid image area 112C is set to “100”. A value of “1000000” is set in the effective image area 111B, a value of “0” is set in the other areas, a value of “1000” is set in the invalid image area 112D, and “10000000” is set in the effective image area 111B. By setting the value of “0” in other areas and adding all the values, it becomes possible to delimit which area the corresponding pixel belongs to.

例えば、図9に示す補正単位領域141〜144は、無効画像領域のみの非重複領域であり、それぞれ「1」、「10」、「100」、「1000」の値となっている。   For example, the correction unit areas 141 to 144 shown in FIG. 9 are non-overlapping areas including only invalid image areas, and have values of “1”, “10”, “100”, and “1000”, respectively.

図10に示す補正単位領域145〜148は、無効画像領域の二重の重複領域であり、それぞれ「11」、「101」、「1010」、「1100」の値となっている。   The correction unit areas 145 to 148 shown in FIG. 10 are double overlapping areas of invalid image areas, and have values of “11”, “101”, “1010”, and “1100”, respectively.

図11に示す補正単位領域149〜152は、有効画像領域のみの非重複領域であり、それぞれ「10000」、「100000」、「1000000」、「10000000」の値となっている。   The correction unit areas 149 to 152 shown in FIG. 11 are non-overlapping areas that are only effective image areas, and have values of “10000”, “100000”, “1000000”, and “10000000”, respectively.

図12に示す補正単位領域153〜161は、有効画像領域と無効画像領域との二重の重複領域であり、それぞれ「10010」、「11000」、「10100」、「1000001」、「1001000」、「10000100」、「10000010」、「101000」、「100001」の値となっている。   The correction unit areas 153 to 161 shown in FIG. 12 are double overlapping areas of an effective image area and an invalid image area, which are “10010”, “11000”, “10100”, “1000001”, “1001000”, The values are “10000100”, “10000010”, “101000”, and “100001”.

図13に示す補正単位領域162〜168は、二重の無効画像領域と一重の有効画像領域との三重の重複領域であり、それぞれ「11010」、「11100」、「1001001」、「1001010」、「10000110」、「101100」、「101001」の値となっている。   The correction unit areas 162 to 168 shown in FIG. 13 are triple overlapping areas of a double invalid image area and a single effective image area, which are “11010”, “11100”, “1001001”, “1001010”, The values are “10000101”, “101100”, and “101001”.

図14に示す補正単位領域169〜172は、三重の無効画像領域と一重の有効画像領域との四重の重複領域であり、それぞれ「11110」、「1001011」、「10000111」、「101101」の値となっている。   The correction unit regions 169 to 172 shown in FIG. 14 are quadruple overlapping regions of a triple invalid image region and a single effective image region, and are “11110”, “1001011”, “10000111”, and “101101”, respectively. It is a value.

図15に示す補正単位領域173〜176は、有効画像領域同士の二重の重複領域であり、それぞれ「110000」、「1010000」、「11000000」、「10100000」の値となっている。   The correction unit areas 173 to 176 shown in FIG. 15 are double overlapping areas of the effective image areas, and have values of “110000”, “1010000”, “11000000”, and “10100000”, respectively.

図16に示す補正単位領域177〜180は、一重の無効画像領域と二重の有効画像領域の三重の重複領域であり、それぞれ「111000」、「1011000」、「11000010」、「10100100」の値となっている。   The correction unit areas 177 to 180 shown in FIG. 16 are triple overlapping areas of a single invalid image area and a double effective image area, and values of “111000”, “1011000”, “11000010”, and “10100100”, respectively. It has become.

図17に示す補正単位領域181〜185は、二重の無効画像領域と二重の有効画像領域の四重の重複領域であり、それぞれ「111100」、「10010110」、「1011010」、「11000011」、「10100101」の値となっている。   The correction unit areas 181 to 185 shown in FIG. 17 are quadruple overlapping areas of a double invalid image area and a double valid image area, which are “111100”, “10010110”, “10101010”, and “11000011”, respectively. , “10100101”.

図18に示す補正単位領域186〜188は、一重の無効画像領域と三重の有効画像領域の四重の重複領域であり、それぞれ「10110100」、「11010010」、「11100001」の値となっている。   The correction unit areas 186 to 188 shown in FIG. 18 are quadruple overlapping areas of a single invalid image area and a triple effective image area, and have values of “10110100”, “11010010”, and “11100001”, respectively. .

図19に示す補正単位領域189は、有効画像領域のみの四重の重複領域であり、「11110000」の値となっている。   The correction unit area 189 shown in FIG. 19 is a quadruple overlapping area of only the effective image area, and has a value of “11110000”.

以上のように、無効画像領域112A〜112D毎及び有効画像領域111A〜111D毎にそれぞれビット数の異なる値を対応させることにより、これらの領域の境界線により囲まれる補正単位画像領域を区切ることができる。   As described above, the correction unit image areas surrounded by the boundary lines of these areas can be divided by associating the invalid image areas 112A to 112D and the valid image areas 111A to 111D with values having different numbers of bits. it can.

次に、補正単位画像領域毎の黒画像の平均輝度を算出する(S209)。   Next, the average luminance of the black image for each correction unit image area is calculated (S209).

これは、第四の画像の撮影処理(S204)で撮影された第四の画像データ(全ての画像投映装置104A〜104Dから投映した黒画像の撮影データ)と、補正単位画像領域の区切り処理(S208)で区切られた各補正単位画像領域と、を対応させることにより、この補正単位画像領域毎の平均輝度を算出する処理である。   This is because the fourth image data (black image shooting data projected from all the image projection devices 104A to 104D) shot in the fourth image shooting process (S204) and the correction unit image area separation process ( This is a process of calculating the average luminance for each correction unit image area by associating the correction unit image areas divided in S208).

平均輝度は、この補正単位画像領域内に位置する画素の画素値の平均値を算出することにより求められる。   The average luminance is obtained by calculating an average value of pixel values of pixels located in the correction unit image area.

なお、このような平均輝度を算出する前処理として、第四の画像データには、フィルタ処理を行いノイズ等の除去を行っておくことが望ましい。   As a pre-process for calculating such average luminance, it is desirable to filter the fourth image data to remove noise and the like.

次に、補正単位画像領域毎の黒画像におけるオフセット値を算出する(S210)。   Next, an offset value in the black image for each correction unit image area is calculated (S210).

これは、補正単位画像領域毎の黒画像の平均輝度算出処理(S209)において算出された補正単位画像領域毎の平均輝度を比較し、全ての補正単位画像領域毎の黒画像の平均輝度をそろえる目標値を決定し、この目標値と補正単位画像領域毎の平均輝度の差を補正単位領域毎のオフセット値とする処理である。   This compares the average luminance for each correction unit image area calculated in the average luminance calculation process (S209) of the black image for each correction unit image area, and aligns the average luminance of the black image for all correction unit image areas. In this process, a target value is determined, and the difference between the target value and the average luminance for each correction unit image area is used as an offset value for each correction unit area.

ここで、目標値は、補正単位画像領域毎の平均輝度の内、最も輝度の高いものを用いるのが一般的である。   Here, as the target value, it is general to use the highest brightness among the average brightness for each correction unit image area.

なお、補正単位画像領域毎の平均輝度の中から最も輝度の高いものを目標値とする場合には、最低輝度レベルである黒画像の輝度が高くなり、画像全体のコントラストが低下してしまうことがあるため、この目標値については上限を設けることも可能である。このような条件を設けた場合には、目標値よりも補正単位画像領域毎の平均輝度が高くなってしまう領域も発生し得るが、このときにはその領域のオフセット値を「0」として扱う。   In addition, when the highest brightness among the average brightness for each correction unit image area is set as the target value, the brightness of the black image, which is the lowest brightness level, is increased, and the contrast of the entire image is reduced. Therefore, it is possible to set an upper limit for this target value. When such a condition is provided, there may occur a region where the average luminance for each correction unit image region becomes higher than the target value. At this time, the offset value of that region is treated as “0”.

また、無効画像領域112A〜112Dのみで構成される補正単位画像領域141〜148については、画像補正装置103で補正することができるものではないため、補正単位画像領域毎の黒画像におけるオフセット値算出処理(S210)の対象から除外する。   Further, since the correction unit image areas 141 to 148 including only the invalid image areas 112A to 112D cannot be corrected by the image correction apparatus 103, the offset value calculation in the black image for each correction unit image area is calculated. It excludes from the object of a process (S210).

次に、補正データ生成処理を行う(S211)。   Next, correction data generation processing is performed (S211).

これは、補正単位画像領域毎の黒画像におけるオフセット値算出処理(S210)により算出されたオフセット値を別途算出された黒画像以外の輝度レベルにおける補正データに結合することで補正データを生成する処理である。   This is a process of generating correction data by combining the offset value calculated by the offset value calculation process (S210) in the black image for each correction unit image area with correction data at a luminance level other than the black image calculated separately. It is.

例えば、図20に示されているように、補正単位画像領域毎の黒画像におけるオフセット値算出処理(S210)により算出されたオフセット値に基づいて特定される特定の画素における黒画像の補正データをグラフ191に示し、別途算出されたこの画素における黒画像以外の輝度レベルにおける補正データをグラフ192に示す。そして、補正データの結合処理としては、スプライン曲線やベジュ曲線を用いる方法もあるが、本実施形態では、入力画像の輝度レベルが「0」の場合のオフセット値を黒画像以外の輝度レベルで算出された補正データのうち有効なもの(補正ムラのあまり現れていないもの)の最小の輝度レベル(グラフ192では入力値「32」)の補正値との間を直線で補間することにより、補正データを結合するようにしている。このようにして算出された補正データをグラフ193に示す。   For example, as shown in FIG. 20, the correction data of the black image in the specific pixel specified based on the offset value calculated by the offset value calculation process (S210) in the black image for each correction unit image area is obtained. The correction data at the luminance level other than the black image in this pixel calculated separately shown in the graph 191 is shown in the graph 192. As a process for combining correction data, there is a method using a spline curve or a beige curve. In this embodiment, the offset value when the luminance level of the input image is “0” is calculated at a luminance level other than the black image. The correction data is obtained by interpolating between the correction values of the minimum brightness level (input value “32” in the graph 192) of the valid correction data (those that do not show much correction unevenness). To join. The correction data calculated in this way is shown in a graph 193.

このようにして、映像投映システム100において補正データを作成する際の処理を終了する。   In this way, the processing for creating correction data in the video projection system 100 is completed.

なお、このようにして算出されたオフセット値については、補正単位画像領域毎にフィードバック調整を行うことにより、適宜変更することもできる。このようなフィードバック調整処理は、補正単位画像領域毎の黒画像におけるオフセット値算出処理(S210)で算出されたオフセット値のみを補正データとして演算処理装置108から画像補正装置103に送り、画像補正装置103に登録して、新たにオフセット値を算出するという処理を所定の評価値や回数に達するまで繰り返す処理である。   Note that the offset value calculated in this way can be changed as appropriate by performing feedback adjustment for each correction unit image region. In such a feedback adjustment process, only the offset value calculated in the offset value calculation process (S210) in the black image for each correction unit image area is sent as correction data from the arithmetic processing unit 108 to the image correction apparatus 103, and the image correction apparatus The process of registering in 103 and calculating a new offset value is repeated until a predetermined evaluation value or number of times is reached.

以上のようにして算出された補正データを画素毎に算出して、画像補正装置103に登録することで、画像再生装置101A〜101Dから出力され、画像切替装置103で選択された画像データが、画像補正装置103を介して補正され、画像投映装置104A〜104Dからスクリーン106に投映され、図21に示されたようなシームレスな画像として表示されるようになる。   The correction data calculated as described above is calculated for each pixel and registered in the image correction apparatus 103, so that the image data output from the image reproduction apparatuses 101A to 101D and selected by the image switching apparatus 103 is The image is corrected via the image correction device 103, projected from the image projection devices 104A to 104D onto the screen 106, and displayed as a seamless image as shown in FIG.

以上に記載した実施形態においては、画像投映装置104A〜104D及び画像再生装置101A〜101Dを四つ用いているが、このような数に限定されるわけではなく、スクリーンに映し出す画像を分割する数に応じて、これらを設ければよい。   In the embodiment described above, four image projection devices 104A to 104D and image reproduction devices 101A to 101D are used. However, the number is not limited to this number, and the number of images to be displayed on the screen is divided. These may be provided depending on the situation.

また、画像投映装置104A〜104D及び画像再生装置101A〜101Dの数は必ずしも一致している必要はなく、例えば、一つの画像再生装置に読み込まれた画像データを所定のフレームに分割する画像分割装置を用いて、四つの画像投映装置104A〜104Dに画像データを出力してもよい。   Further, the numbers of the image projection apparatuses 104A to 104D and the image reproduction apparatuses 101A to 101D do not necessarily match. For example, an image division apparatus that divides image data read into one image reproduction apparatus into predetermined frames. May be used to output image data to the four image projection devices 104A to 104D.

また、本実施形態においては、画像補正装置103と演算処理装置108とを別個の装置として構成しているが、このような態様に限定さえず、例えば、演算処理装置108とコンピュータシステムにより構成し、画像補正装置103をこのコンピュータシステムに接続することができる拡張ボード、例えば、PCIボード等により構成し、これらの装置を同じ筐体内に設けることもできる。   In the present embodiment, the image correction apparatus 103 and the arithmetic processing apparatus 108 are configured as separate apparatuses. However, the present invention is not limited to such an embodiment. For example, the image correction apparatus 103 and the arithmetic processing apparatus 108 are configured by the arithmetic processing apparatus 108 and a computer system. The image correction apparatus 103 may be configured by an expansion board that can be connected to the computer system, such as a PCI board, and these apparatuses may be provided in the same casing.

さらに、本実施形態においては、第一の画像の撮影処理(S201)と第四の画像の撮影処理(S204)において、画像再生装置101A〜101Dから出力する黒画像データは、画素値が(0、0、0)の黒画像データを出力しているが、このような態様に限定されず、本実施形態における黒画像データの画素値は、0〜255の下位10%(端数は切り上げ)の範囲、具体的には、(0、0、0)〜(25、25、25)の範囲内であれば、どの画像データを用いてもよい。   Further, in the present embodiment, in the first image shooting process (S201) and the fourth image shooting process (S204), the black image data output from the image reproducing devices 101A to 101D has a pixel value of (0). , 0, 0) is output, but the present invention is not limited to this mode, and the pixel value of the black image data in this embodiment is the lower 10% of 0-255 (rounded up). Any image data may be used within the range, specifically, within the range of (0, 0, 0) to (25, 25, 25).

また、本実施形態では、画素値が(0、0、0)の黒画像データを一つ用いて補正データを作成したが、輝度レベルの低い範囲で複数の画素値の画像データから補正データを作成して、輝度レベルの低い範囲の補正データとすることもできる。   In this embodiment, correction data is created using one black image data with a pixel value of (0, 0, 0). However, correction data is obtained from image data with a plurality of pixel values within a low luminance level range. It is also possible to create correction data in a low luminance level range.

さらに、輝度レベルの比較的高い範囲の補正データと輝度レベルの低い範囲の補正データの結合方法としては、輝度レベルの低い範囲の補正データを少なくとも一つの輝度で作成し、この補正データと輝度レベルの比較的高い範囲の補正データとの間を補間するようにしてもよく、また、輝度レベルの低い範囲の補正データを少なくとも一つの輝度で作成し、輝度レベルの低い範囲について既に算出されている補正データに置き換えるようにしてもよい。   Furthermore, as a method of combining correction data in a relatively high luminance range and correction data in a low luminance level range, correction data in a low luminance level range is created with at least one luminance, and the correction data and the luminance level are created. It is also possible to interpolate between correction data in a relatively high range, and correction data in a low luminance level range is created with at least one luminance, and has already been calculated for a low luminance level range. It may be replaced with correction data.

なお、画素毎に算出された補正データに補正単位画像領域毎に算出された補正データを結合する際における、画素毎に算出された補正データの最小値については、本実施形態では輝度レベル「32」としているが、このような態様に限定されず、補正単位画像領域毎に補正データを算出する際の画素値よりも輝度レベルの高い範囲で任意の画素値を採用することができる。この点、通常、画素値の下位20%以上の範囲については、画素単位で補正データを算出することにより良好な補正データを得ることができる。従って、画素値の下位20%以下の特定の画素値よりも低い範囲につき、面(補正単位画像領域)単位で作成した補正データで補間や置き換えを行うことで、全体として良好な補正データを得ることができる。   Note that the minimum value of the correction data calculated for each pixel when combining the correction data calculated for each correction unit image area with the correction data calculated for each pixel is the luminance level “32” in the present embodiment. However, the present invention is not limited to such an embodiment, and any pixel value can be adopted in a range where the luminance level is higher than the pixel value when calculating correction data for each correction unit image area. In this regard, normally, for the range of the lower 20% or more of the pixel value, good correction data can be obtained by calculating the correction data in pixel units. Accordingly, by performing interpolation or replacement with correction data created in units of planes (correction unit image areas) for a range lower than a specific pixel value of the lower 20% or less of the pixel value, good correction data as a whole is obtained. be able to.

なお、本実施形態においては、画像投映システム100として構成したが、このような態様に限定されず、例えば、撮像装置107と演算処理装置108とにより、補正データ作成装置を構成することも可能である。   In the present embodiment, the image projection system 100 is configured. However, the present invention is not limited to such an aspect. For example, the correction data creation device can be configured by the imaging device 107 and the arithmetic processing device 108. is there.

画像投映システム100の概略構成図。1 is a schematic configuration diagram of an image projection system 100. FIG. 各画像投映装置104A〜104Dから投映する投映画像の説明図。Explanatory drawing of the projection image projected from each image projection apparatus 104A-104D. 映像投映システム100において補正データを作成する際の処理の流れを示すフローチャート。5 is a flowchart showing a flow of processing when creating correction data in the video projection system. 各画像投映装置104A〜104Dから投映した黒画像を画像撮影装置107で撮影した撮影データの概略図。FIG. 3 is a schematic diagram of shooting data obtained by shooting a black image projected from each of the image projection devices 104A to 104D by an image shooting device 107; 各画像投映装置104A〜104Dから投映した白画像を画像撮影装置107で撮影した撮影データの概略図。FIG. 4 is a schematic diagram of shooting data obtained by shooting a white image projected from each of the image projection devices 104A to 104D with the image shooting device 107; 座標算出用画像データ120の概略図。Schematic of the image data 120 for coordinate calculation. 各画像投映装置104A〜104Dから投映した座標算出用画像を画像撮影装置107で撮影した撮影データの概略図。FIG. 3 is a schematic diagram of shooting data obtained by shooting an image for coordinate calculation projected from each of the image projection devices 104A to 104D with an image shooting device 107; 全ての画像投映装置104A〜104Dから投映した黒画像を画像撮影装置107で撮影した撮影データの概略図。FIG. 3 is a schematic diagram of shooting data obtained by shooting a black image projected from all the image projection apparatuses 104A to 104D by the image shooting apparatus 107; 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正単位画像領域の区切り方を説明する概略図。Schematic explaining how to divide the correction unit image area. 補正データの結合処理を説明する概略図。Schematic explaining the correction data combining process. 映像投映システム100において補正された後の表示例を表す概略図。Schematic showing the example of a display after correct | amending in the video projection system 100. FIG.

符号の説明Explanation of symbols

100 映像投映システム
101 画像再生装置
102 画像切替装置
103 画像補正装置
104 画像投映装置
105 遮光部材
106 スクリーン
107 撮像装置
108 演算処理装置
DESCRIPTION OF SYMBOLS 100 Video projection system 101 Image reproduction apparatus 102 Image switching apparatus 103 Image correction apparatus 104 Image projection apparatus 105 Light-shielding member 106 Screen 107 Imaging apparatus 108 Arithmetic processing apparatus

Claims (14)

画像再生部から出力された画像データを複数の画像投映部から投映し、複数の該画像投映部から投映した複数の画像を連結して所望の画像を映し出すことができるようにした画像投映システムにおいて、前記画像投映部から投映された画像を撮影した撮影データに基づいて前記画像データの画素値の補正を行うための補正データを作成する補正データ作成方法であって、
第一の輝度レベル以下の画素値の補正データは補正単位画像領域毎に算出し、前記第一の輝度レベルよりも高い第二の輝度レベル以上の画素値の補正データは画素毎に算出し、それぞれの補正データを結合させること、
を特徴とする補正データ作成方法。
In an image projection system in which image data output from an image reproduction unit is projected from a plurality of image projection units, and a plurality of images projected from the plurality of image projection units are connected to project a desired image A correction data creation method for creating correction data for correcting pixel values of the image data based on shooting data obtained by shooting an image projected from the image projection unit,
Correction data for pixel values equal to or lower than the first luminance level is calculated for each correction unit image area, correction data for pixel values equal to or higher than the second luminance level higher than the first luminance level is calculated for each pixel, Combining each correction data,
The correction data creation method characterized by this.
請求項1に記載の補正データ作成方法であって、
前記第一の輝度レベル以下の画素値は、画素値の下位10%の範囲内のものであること、
を特徴とする補正データ作成方法。
The correction data creation method according to claim 1,
The pixel value below the first luminance level is within the lower 10% of the pixel value;
The correction data creation method characterized by this.
請求項2に記載の補正データ作成方法であって、
前記補正単位画像領域は、個々の前記画像投映部からの投映領域のうち、有効画像領域の境界線と、無効画像領域の境界線と、により区切られた領域であること、
を特徴とする補正データ作成方法。
The correction data creation method according to claim 2,
The correction unit image region is a region divided by a boundary line of an effective image region and a boundary line of an invalid image region among projection regions from the individual image projection units,
The correction data creation method characterized by this.
請求項3に記載の補正データ作成方法であって、
前記第一の輝度レベル以下の画素値の補正データは、前記補正単位画像領域毎に算出された輝度が均一となるように画素値を補正するものであること、
を特徴とする補正データ作成方法。
The correction data creation method according to claim 3,
Correction data of pixel values equal to or lower than the first luminance level is to correct the pixel values so that the luminance calculated for each correction unit image region is uniform;
The correction data creation method characterized by this.
画像データを出力する画像再生部と、
前記画像データの画素値を補正データに基づいて補正する画像補正部と、
前記画像補正部から出力された補正後の画像データを投映する画像投映部と、を備える画像投映システムで用いられる前記補正データを作成する補正データ作成装置あって、
前記画像投映部から投映された画像を撮像する撮像装置と、
前記撮像手段により撮像された撮像データに基づいて、前記補正データを作成する演算処理装置と、を備え、
前記演算処理装置は、第一の輝度レベル以下の画素値の補正データを補正単位画像領域毎に算出し、前記第一の輝度レベルよりも高い第二の輝度レベル以上の画素値の補正データは画素毎に算出し、それぞれの補正データを結合することで、補正データを算出するものであること、
を特徴とする補正データ作成装置。
An image playback unit for outputting image data;
An image correction unit that corrects pixel values of the image data based on correction data;
An image projection unit that projects the corrected image data output from the image correction unit; and a correction data creation device that creates the correction data used in an image projection system,
An imaging device that captures an image projected from the image projection unit;
An arithmetic processing unit that creates the correction data based on the imaging data imaged by the imaging means,
The arithmetic processing unit calculates correction data of pixel values equal to or lower than the first luminance level for each correction unit image area, and correction data of pixel values equal to or higher than the second luminance level higher than the first luminance level is calculated. Calculate for each pixel and calculate the correction data by combining the correction data.
The correction data creation device characterized by this.
請求項5に記載の補正データ作成装置であって、
前記第一の輝度レベル以下の画素値は、画素値の下位10%の範囲内のものであること、
を特徴とする補正データ作成装置。
The correction data creation device according to claim 5,
The pixel value below the first luminance level is within the lower 10% of the pixel value;
The correction data creation device characterized by this.
請求項6に記載の補正データ作成装置であって、
前記補正単位画像領域は、個々の前記画像投映部からの投映領域のうち、有効画像領域の境界線と、無効画像領域の境界線と、により区切られた領域であること、
を特徴とする補正データ作成装置。
The correction data creation device according to claim 6,
The correction unit image region is a region divided by a boundary line of an effective image region and a boundary line of an invalid image region among projection regions from the individual image projection units,
The correction data creation device characterized by this.
請求項7に記載の補正データ作成装置であって、
前記第一の輝度レベル以下の画素値に対する補正データは、前記補正単位画像領域毎に算出された輝度が均一となるように画素値を補正するものであること、
を特徴とする補正データ作成装置。
The correction data creation device according to claim 7,
The correction data for the pixel value below the first luminance level is to correct the pixel value so that the luminance calculated for each correction unit image region is uniform.
The correction data creation device characterized by this.
画像データを出力する画像再生部と、
前記画像データの画素値を補正データに基づいて補正する画像補正部と、
前記画像補正部から出力された補正後の前記画像データを投映する画像投映部と、
前記画像投映部から投映された画像を撮像する撮像部と、
前記撮像部で撮像された撮像データに基づいて、前記補正データを作成する演算処理部と、を備え、
前記演算処理部は、第一の輝度レベル以下の画素値の補正データを補正単位画像領域毎に算出し、前記第一の輝度レベルよりも高い第二の輝度レベル以上の画素値の補正データは画素毎に算出し、それぞれの補正データを結合することで、補正データを算出するものであること、
を特徴とする画像投映システム。
An image playback unit for outputting image data;
An image correction unit that corrects pixel values of the image data based on correction data;
An image projection unit that projects the corrected image data output from the image correction unit;
An imaging unit that captures an image projected from the image projection unit;
An arithmetic processing unit that creates the correction data based on the imaging data captured by the imaging unit;
The arithmetic processing unit calculates correction data of pixel values equal to or lower than the first luminance level for each correction unit image region, and correction data of pixel values equal to or higher than the second luminance level higher than the first luminance level is calculated. It is calculated for each pixel, and the correction data is calculated by combining the correction data.
An image projection system characterized by
請求項9に記載の画像投映システムであって、
前記第一の輝度レベル以下の画素値は、画素値の下位10%の範囲内のものであること、
を特徴とする画像投映システム。
The image projection system according to claim 9,
The pixel value below the first luminance level is within the lower 10% of the pixel value;
An image projection system characterized by
請求項10に記載の演算処理装置であって、
前記補正単位画像領域は、個々の前記画像投映部からの投映領域のうち、有効画像領域の境界線と、無効画像領域の境界線と、により区切られた領域であること、
を特徴とする画像投映システム。
The arithmetic processing device according to claim 10,
The correction unit image region is a region divided by a boundary line of an effective image region and a boundary line of an invalid image region among projection regions from the individual image projection units,
An image projection system characterized by
請求項11に記載の画像投映システムであって、
前記第一の輝度レベル以下の画素値に対する補正データは、前記補正単位画像領域毎に算出された輝度が均一となるように画素値を補正するものであること、
を特徴とする画像投映システム。
The image projection system according to claim 11,
The correction data for the pixel value below the first luminance level is to correct the pixel value so that the luminance calculated for each correction unit image region is uniform.
An image projection system characterized by
請求項9乃至12の何れか一項に記載の画像投映システムであって、
前記有効画像領域以外の領域への投映光を遮蔽する遮蔽部材をさらに備えること、
を特徴とする画像投映システム。
The image projection system according to any one of claims 9 to 12,
Further comprising a shielding member that shields projection light to an area other than the effective image area;
An image projection system characterized by
請求項13に記載の画像投映システムであって、
前記遮蔽部材は、前記有効画像領域の周囲を囲むように形成されていること、
を特徴とする画像投映システム。
The image projection system according to claim 13,
The shielding member is formed so as to surround the effective image area;
An image projection system characterized by
JP2005281810A 2005-09-28 2005-09-28 Correction data creation method, correction data creation apparatus and image projection system Pending JP2007096622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005281810A JP2007096622A (en) 2005-09-28 2005-09-28 Correction data creation method, correction data creation apparatus and image projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005281810A JP2007096622A (en) 2005-09-28 2005-09-28 Correction data creation method, correction data creation apparatus and image projection system

Publications (1)

Publication Number Publication Date
JP2007096622A true JP2007096622A (en) 2007-04-12

Family

ID=37981806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005281810A Pending JP2007096622A (en) 2005-09-28 2005-09-28 Correction data creation method, correction data creation apparatus and image projection system

Country Status (1)

Country Link
JP (1) JP2007096622A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311898A (en) * 2007-06-14 2008-12-25 Seiko Epson Corp Multi-projection system
JP2010039160A (en) * 2008-08-05 2010-02-18 Seiko Epson Corp Image processing device, image display, image processing method, image display method and program
JP2011048364A (en) * 2009-08-27 2011-03-10 Seiko Epson Corp Method and device for generating projector mask, and computer-readable storage medium
JP2012234072A (en) * 2011-05-02 2012-11-29 Canon Inc Projection type image display system
JP2015118336A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Video display device, control method of the same, and system
CN111402827A (en) * 2020-04-01 2020-07-10 浙江宇视科技有限公司 A kind of LCD splicing screen calibration method, device and system and control system
CN113483667A (en) * 2021-09-03 2021-10-08 上海智殷自动化科技有限公司 Device for automatically calibrating brightness of image measuring instrument with high precision

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161589A (en) * 1996-11-29 1998-06-19 Sanyo Electric Co Ltd Driving method of flat display device
JP2001268476A (en) * 2000-03-17 2001-09-28 Olympus Optical Co Ltd Multi-display device, multi-display system and adjustment method for multi-display device
JP2002072359A (en) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd Image projection display device
JP2003522497A (en) * 2000-02-09 2003-07-22 クヌット クロッグスタッド Digital correction module for video projector
JP2003274319A (en) * 2002-03-13 2003-09-26 Astro Design Inc System and method for video correction, program, and recording medium
JP2004507954A (en) * 2000-06-13 2004-03-11 パノラム テクノロジーズ,インコーポレイテッド. Method and apparatus for seamless integration of multiple video projectors
JP2004350115A (en) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd Gamma correction device and gamma correction method
JP2005150779A (en) * 2003-11-11 2005-06-09 Olympus Corp Method for calculating display characteristics correction data of image display apparatus, display characteristic correction data program, and apparatus for calculating display characteristics correction data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161589A (en) * 1996-11-29 1998-06-19 Sanyo Electric Co Ltd Driving method of flat display device
JP2003522497A (en) * 2000-02-09 2003-07-22 クヌット クロッグスタッド Digital correction module for video projector
JP2001268476A (en) * 2000-03-17 2001-09-28 Olympus Optical Co Ltd Multi-display device, multi-display system and adjustment method for multi-display device
JP2004507954A (en) * 2000-06-13 2004-03-11 パノラム テクノロジーズ,インコーポレイテッド. Method and apparatus for seamless integration of multiple video projectors
JP2002072359A (en) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd Image projection display device
JP2003274319A (en) * 2002-03-13 2003-09-26 Astro Design Inc System and method for video correction, program, and recording medium
JP2004350115A (en) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd Gamma correction device and gamma correction method
JP2005150779A (en) * 2003-11-11 2005-06-09 Olympus Corp Method for calculating display characteristics correction data of image display apparatus, display characteristic correction data program, and apparatus for calculating display characteristics correction data

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311898A (en) * 2007-06-14 2008-12-25 Seiko Epson Corp Multi-projection system
JP2010039160A (en) * 2008-08-05 2010-02-18 Seiko Epson Corp Image processing device, image display, image processing method, image display method and program
JP2011048364A (en) * 2009-08-27 2011-03-10 Seiko Epson Corp Method and device for generating projector mask, and computer-readable storage medium
JP2012234072A (en) * 2011-05-02 2012-11-29 Canon Inc Projection type image display system
JP2015118336A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Video display device, control method of the same, and system
CN111402827A (en) * 2020-04-01 2020-07-10 浙江宇视科技有限公司 A kind of LCD splicing screen calibration method, device and system and control system
CN111402827B (en) * 2020-04-01 2022-06-14 浙江宇视科技有限公司 A kind of LCD splicing screen calibration method, device and system and control system
CN113483667A (en) * 2021-09-03 2021-10-08 上海智殷自动化科技有限公司 Device for automatically calibrating brightness of image measuring instrument with high precision

Similar Documents

Publication Publication Date Title
US10298864B2 (en) Mismatched foreign light detection and mitigation in the image fusion of a two-camera system
TWI662842B (en) Image sensor, pixel information output method of the image sensor, phase focusing method, imaging device, and mobile device
US8944610B2 (en) Image projection apparatus, control method, control program, and storage medium
RU2528590C2 (en) Image capturing device, method of controlling same and storage medium
KR101941801B1 (en) Image processing method and device for led display screen
JP6006543B2 (en) Image processing apparatus and image processing method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP6046927B2 (en) Image processing apparatus and control method thereof
JPWO2018163843A1 (en) Imaging device, imaging method, image processing device, and image processing method
KR101204888B1 (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP5084366B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2018152782A (en) Image processing system, imaging apparatus, image processing method, and program
EP4343678A1 (en) Method and apparatus for processing array image
CN112929617A (en) Projector control method, projector and display system
JP2021097347A (en) Imaging apparatus, control method of the same, and program
US11032463B2 (en) Image capture apparatus and control method thereof
JP2007096622A (en) Correction data creation method, correction data creation apparatus and image projection system
JP2019102867A (en) Video projection system, video adjustment method, and program
US20180278905A1 (en) Projection apparatus that reduces misalignment between printed image and projected image projected on the printed image, control method therefor, and storage medium
JP7459644B2 (en) Projection system, projection method, program
JP5691290B2 (en) Display system setting method, display system setting device, and computer-readable storage medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2017182668A (en) Data processing apparatus, imaging apparatus, and data processing method
JP6725105B2 (en) Imaging device and image processing method
JP2016091376A (en) Image processor and control method thereof, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308