JP2020123867A - Image projection system and projection area detection method - Google Patents
Image projection system and projection area detection method Download PDFInfo
- Publication number
- JP2020123867A JP2020123867A JP2019014951A JP2019014951A JP2020123867A JP 2020123867 A JP2020123867 A JP 2020123867A JP 2019014951 A JP2019014951 A JP 2019014951A JP 2019014951 A JP2019014951 A JP 2019014951A JP 2020123867 A JP2020123867 A JP 2020123867A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- image
- unit
- lens
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
Abstract
【課題】 外乱が存在する場合に、テストチャートなどの特殊な投射パターンを用いることなく、投射装置の設定値に基づいてより正確に投射領域を検出することができる画像投射システムおよび投射領域の検出方法を提供すること。【解決手段】 入力部から入力された画像信号に応じて画像情報を表示する画像表示素子を含む画像表示手段と、該画像表示手段で表示される画像情報を被投射面に投射する投射手段と、該投射手段によって投射された投射画像を撮像する撮像手段と、該撮像手段で得られた画像情報の一部を使用して投射領域の検出を行う制御手段と、を有することを特徴とする【選択図】 図1PROBLEM TO BE SOLVED: To detect an image projection system and a projection area capable of more accurately detecting a projection area based on a set value of a projection device without using a special projection pattern such as a test chart when a disturbance is present. To provide a method. An image display means including an image display element that displays image information according to an image signal input from an input unit, and a projection means that projects the image information displayed by the image display means onto a projected surface. It is characterized by having an imaging means for capturing a projected image projected by the projection means, and a control means for detecting a projection region using a part of the image information obtained by the imaging means. [Selection diagram] Fig. 1
Description
本発明は、液晶プロジェクタなどに用いられる画像投射システム及び投射領域の検出方法に関し、投射装置の設定値に基づいてより正確に投射領域を検出することができるようにした画像投射システムに関する。 The present invention relates to an image projection system used in a liquid crystal projector or the like and a projection area detection method, and more particularly to an image projection system capable of detecting a projection area more accurately based on a setting value of a projection device.
液晶プロジェクタなどの画像投射装置を用いて画像を投射する場合、オートフォーカス・キーストーン補正・経時劣化補正などの各種自動補正が行われている。自動補正では多くの場合、投射画像をカメラ(撮像装置)で撮影し、そこから得られる画素値等の情報を元に自動補正を行う。従来、得られた撮影画像から投射画像の領域を検出する手法が提案されている。 When an image is projected using an image projection device such as a liquid crystal projector, various automatic corrections such as autofocus, keystone correction, and deterioration over time are performed. In the automatic correction, in many cases, a projected image is photographed by a camera (imaging device), and the automatic correction is performed based on information such as a pixel value obtained from the captured image. Conventionally, a method of detecting a region of a projection image from an obtained captured image has been proposed.
特許文献1には、複数のテストチャートをマトリクス上に投射画面に配置し、それを撮像装置で撮影することで各投射画面の投射領域を正確に判定する画像投射システムが開示されている。 Patent Document 1 discloses an image projection system in which a plurality of test charts are arranged on a matrix on a projection screen and the projection area of each projection screen is accurately determined by photographing the test chart with an imaging device.
また、特許文献2には、ホワイトボード上に投射された投射領域を輪郭抽出によって判定する。その後、得られた複数の輪郭情報から二つの輪郭のモーメント特徴量を計算し、遮蔽物の有無を判定する。そして、遮蔽物が存在する場合にはその旨を使用者に警告する画像投射システムが提案されている。 Further, in Patent Document 2, the projection area projected on the whiteboard is determined by contour extraction. After that, the moment feature amounts of the two contours are calculated from the obtained plurality of contour information, and the presence or absence of a shield is determined. An image projection system has been proposed that warns the user of the presence of a shielding object.
特許文献1の画像投射システムでは、投射領域の検出のためにテストチャートを投射しなければならず、被投射面であるスクリーンや壁に模様があった場合や、投射光が反射して投射領域外に光が照射された場合など、外乱が存在するとその検出精度は大きく低下する。また、カメラが搭載された投射装置の場合、一般的に投射装置のレンズシフトやズームで移動した後の投射領域まで包括した画角にする必要があるため、テストチャートの判別が困難になるおそれがある。 In the image projection system of Patent Document 1, a test chart must be projected in order to detect the projection area, and when there is a pattern on the screen or wall that is the projection surface, or when the projection light is reflected and the projection area is present. If there is a disturbance such as the case where light is radiated to the outside, the detection accuracy of the disturbance greatly decreases. Further, in the case of a projection device equipped with a camera, it is generally necessary to set an angle of view that covers the projection area after the lens shift or zoom of the projection device, which may make it difficult to determine the test chart. There is.
特許文献2の画像投射システムでは、投射領域の判定のために複数回の撮影が必要であり、遮蔽物が常に同一の位置に存在する場合投射領域の抽出は不可能である。また特許文献1の場合と同様、外乱が存在するとその検出精度は大きく低下する。 In the image projection system of Patent Document 2, it is necessary to shoot a plurality of times to determine the projection area, and it is impossible to extract the projection area when the shield is always present at the same position. Further, as in the case of Patent Document 1, if there is a disturbance, the detection accuracy of the disturbance greatly decreases.
本発明は、外乱が存在する場合に、テストチャートなどの特殊な投射パターンを用いることなく、投射装置の設定値に基づいてより正確に投射領域を検出することができる画像投射システムおよび投射領域の検出方法を提供することを目的とする。 The present invention provides an image projection system and a projection area that can detect a projection area more accurately based on a set value of a projection device without using a special projection pattern such as a test chart when a disturbance exists. It is intended to provide a detection method.
上記の目的を達成するために、本発明に係る画像投射システムは、
入力部から入力された画像信号に応じて画像情報を表示する画像表示素子を含む画像表示手段と、
該画像表示手段で表示される画像情報を被投射面に投射する投射手段と、
該投射手段によって投射された投射画像を撮像する撮像手段と、
該撮像手段で得られた画像情報の一部を使用して投射領域の検出を行う制御手段と、
を有することを特徴とする。
In order to achieve the above object, the image projection system according to the present invention,
An image display unit including an image display element that displays image information according to an image signal input from the input unit,
Projection means for projecting image information displayed by the image display means onto a projection surface,
Image pickup means for picking up a projection image projected by the projection means;
Control means for detecting a projection area by using a part of the image information obtained by the image pickup means;
It is characterized by having.
本発明によれば、る効果は、外乱が存在する場合に、テストチャートなどの特殊な投射パターンを用いることなく、投射装置の設定値に基づいてより正確に投射領域を検出することができる画像投射システムおよび投射領域の検出方法の提供を実現できる。 Advantageous Effects of Invention According to the present invention, an image capable of more accurately detecting a projection area based on a set value of a projection device without using a special projection pattern such as a test chart when a disturbance exists is provided. The projection system and the detection method of the projection area can be provided.
以下、本発明を実施するための形態について、図面を参照しながら詳細に説明する。 Hereinafter, modes for carrying out the present invention will be described in detail with reference to the drawings.
本発明は、液晶プロジェクタ、DLP(Digital Light Processing)プロジェクタ等の画像投射装置に適用可能である。 The present invention is applicable to image projection devices such as liquid crystal projectors and DLP (Digital Light Processing) projectors.
本発明の画像投射システムでは、入力部より入力された画像信号に応じて画像情報を表示する画像表示素子を含む画像表示手段を有する。画像表示手段で表示される画像情報を被投射面に投射する投射手段(投射レンズ)と、投射手段によって投射された投射画像を撮像する撮像手段を有する。そして、撮像手段で得られた画像情報に基づいて被投射面に投射された投射画像の位置の設定値(シフト設定値)、及び投射画像の大きさの設定値(ズーム設定値)、及び投射レンズの機種(レンズ機種情報)のうち少なくとも一方を使用して投射領域を推測し、得られた推測投射領域(以下、推測領域)から投射領域を検出するよう制御する制御手段を有する。また、本発明の投射領域の検出方法では次の各ステップを有する。 The image projection system of the present invention has an image display unit including an image display element that displays image information according to an image signal input from the input unit. It has a projection means (projection lens) for projecting the image information displayed by the image display means onto the projection surface, and an imaging means for picking up the projection image projected by the projection means. Then, based on the image information obtained by the image pickup means, a position setting value (shift setting value) of the projection image projected on the projection surface, a setting value of the size of the projection image (zoom setting value), and projection It has a control unit that estimates a projection area by using at least one of the lens models (lens model information) and controls so as to detect the projection area from the obtained estimated projection area (hereinafter, estimated area). Further, the projection area detecting method of the present invention has the following steps.
入力部よりユーザより入力される画像信号に応じて画像表示素子に表示される画像情報を投射手段で被投射面に投射する画像投射ステップと、被投射面に投射される投射画像を撮像手段で撮像する投射画像撮像ステップを有する。そして、投射画像の位置の設定値(シフト設定値)、及び投射画像の大きさの設定値(ズーム設定値)、及びレンズの機種(レンズ機種情報)のうち少なくとも一方を使用して、撮像手段で得られる画像情報から投射画像が撮像される位置を推測する投射領域推測ステップを有する。更に、投射領域推測ステップで得られた推測領域から投射領域の検出を行う投射領域検出ステップを有する。 An image projection step of projecting the image information displayed on the image display element on the projection surface by the projection means in accordance with the image signal input by the user from the input section, and the projection image projected on the projection surface by the imaging means. The projection image capturing step of capturing an image is included. Then, using at least one of the set value of the position of the projected image (shift set value), the set value of the size of the projected image (zoom set value), and the model of the lens (lens model information), the imaging unit The projection area estimation step of estimating the position at which the projection image is captured is obtained from the image information obtained in (1). Furthermore, it has a projection area detection step of detecting a projection area from the estimation area obtained in the projection area estimation step.
以下、各図を参照して、本発明の画像投射システム及び投射領域の検出方法の実施例について説明する。 Embodiments of an image projection system and a projection area detecting method according to the present invention will be described below with reference to the drawings.
図1は本発明の実施例1の画像投射システムの配置説明図である。 First Embodiment FIG. 1 is a layout explanatory diagram of an image projection system according to a first embodiment of the present invention.
図1に示す画像投射システム100は、スクリーン等の被投射面2に画像を投射する投射手段1、被投射面2上に投射する投射画像を撮影する撮像手段3を有する。更に撮像画像から投射領域を検出するよう制御する制御手段4(マイクロコンピュータ)を有する。 The image projection system 100 shown in FIG. 1 has a projection means 1 for projecting an image on a projection surface 2 such as a screen, and an imaging means 3 for photographing a projection image projected on the projection surface 2. Further, it has a control unit 4 (microcomputer) for controlling so as to detect the projection area from the captured image.
図1に示す実施例では、被投射面2上に外乱21が存在する状態を示している。 The embodiment shown in FIG. 1 shows a state in which the disturbance 21 exists on the projection surface 2.
ここで外乱とはスクリーン上にある模様や何らかの物体、及び投射光が反射したり外光が入射したりすることにより投射領域外に輝度や色度の変化が激しい場所が存在する状態のことを表す。 Here, the disturbance refers to a pattern or some object on the screen, and a state where there is a significant change in luminance or chromaticity outside the projection area due to reflection of projection light or incidence of outside light. Represent
図2は本実施例に係る画像投射システム100の概略構成を示すブロック図である。 FIG. 2 is a block diagram showing a schematic configuration of the image projection system 100 according to this embodiment.
画像投射システム100の構成を説明する。 The configuration of the image projection system 100 will be described.
投射手段1は液晶パネル(画像表示素子)102を含む画像表示系110と投射レンズ103を含む投射光学系111を有する。この他、投射手段1は光源101を有する。画像表示系110は液晶パネル102、画像信号入力部104、画像処理部105、制御部106を有する。更に各種の動作を操作する操作手段としての操作部109を有する。 The projection unit 1 has an image display system 110 including a liquid crystal panel (image display element) 102 and a projection optical system 111 including a projection lens 103. In addition, the projection means 1 has a light source 101. The image display system 110 includes a liquid crystal panel 102, an image signal input unit 104, an image processing unit 105, and a control unit 106. Further, it has an operation unit 109 as an operation means for operating various operations.
液晶パネル102を構成する画像表示素子は、光源101から射出される光を、入力される画像信号に応じて変調する。液晶パネル102よりなる画像表示素子により変調された光は投射画像として投射レンズ103に入射する。投射画像は投射レンズ103によってスクリーン等の被投射面2に投射される。 The image display element forming the liquid crystal panel 102 modulates the light emitted from the light source 101 according to the input image signal. The light modulated by the image display element including the liquid crystal panel 102 enters the projection lens 103 as a projection image. The projection image is projected onto the projection surface 2 such as a screen by the projection lens 103.
画像信号入力部104には、VGA信号、DVI信号、HDMI(登録商標)信号等の各種の画像信号を入力するための端子と、それらの端子を通じて入力された画像信号を受信するためのレシーバIC等が設けられている。 The image signal input unit 104 has terminals for inputting various image signals such as VGA signals, DVI signals, and HDMI (registered trademark) signals, and a receiver IC for receiving the image signals input through these terminals. Etc. are provided.
画像処理部105は、画像信号入力部104より入力した画像信号に対して、色むら補正、ガンマ補正、コントラスト補正、色変換、アスペクト変換等の画像処理を施した画像信号を生成する。また、制御部106からの命令に応じて、生成された画像信号に対して、OSD(On Screen Display)画像の重畳を行う。OSD画像は、あらかじめ用意されたビットマップ画像等の画像データだけでなく、直線、矩形、文字、もしくは画素単位の描画指示に基づいて生成された各種画像を含む。 The image processing unit 105 generates an image signal obtained by performing image processing such as color unevenness correction, gamma correction, contrast correction, color conversion, and aspect conversion on the image signal input from the image signal input unit 104. Further, according to an instruction from the control unit 106, an OSD (On Screen Display) image is superimposed on the generated image signal. The OSD image includes not only image data such as a bitmap image prepared in advance, but also various images generated based on a drawing instruction in units of straight lines, rectangles, characters, or pixels.
投射光学系111は投射レンズ103とレンズ駆動部107とレンズ交換部108を有する。レンズ駆動部107は被投射面2に投射する投射画像の位置を変更するシフト部107aと、投射画像の大きさを変更するズーム部107bを有する。 The projection optical system 111 has a projection lens 103, a lens drive unit 107, and a lens exchange unit 108. The lens driving unit 107 has a shift unit 107a that changes the position of the projection image projected on the projection surface 2 and a zoom unit 107b that changes the size of the projection image.
制御部106は、画像処理部105、レンズ駆動部107、操作部109に接続されている。制御部106は、画像投射システム100の各部の電源や状態の制御等を行うマイクロコンピュータより構成されている。制御部106は、例えば、操作部109を介して外部からの制御信号に応じてレンズ駆動部107にシフト調整やズーム調整の命令を出したり、操作部109からの操作に応じて画像処理部105にメニュー画面重畳の命令を出したりする。 The control unit 106 is connected to the image processing unit 105, the lens driving unit 107, and the operation unit 109. The control unit 106 is composed of a microcomputer that controls the power supply and state of each unit of the image projection system 100. The control unit 106 issues a command for shift adjustment or zoom adjustment to the lens driving unit 107 in response to a control signal from the outside via the operation unit 109, or the image processing unit 105 in response to an operation from the operation unit 109, for example. The command to superimpose the menu screen is issued to.
レンズ駆動部107は、投射レンズ103を構成する一部のレンズの位置を駆動することにより、スクリーン上における投射画像の上下左右方向への移動をするシフト部107a、投射画像の大きさを調整するズーム部107bを制御する。また、レンズ駆動部は設定値を保持する記憶領域を持ち、シフト部107aの上下左右方向へのシフト設定値、及びズーム部107bのズーム設定値、及びレンズ交換部108のレンズ機種情報を保持しており、制御部106によりこの値を参照することが可能である。 The lens driving unit 107 drives the positions of some of the lenses that form the projection lens 103 to adjust the size of the projection image and the shift unit 107a that moves the projection image on the screen in the vertical and horizontal directions. The zoom unit 107b is controlled. In addition, the lens driving unit has a storage area for holding the set values, and holds the shift set values of the shift unit 107a in the vertical and horizontal directions, the zoom set values of the zoom unit 107b, and the lens model information of the lens replacement unit 108. Therefore, the control unit 106 can refer to this value.
レンズ交換部108は、ユーザがレンズを着脱する際の機構であり、広角レンズや望遠レンズ等、別のレンズに付け替えることが可能である。レンズ交換部108は現在使用しているレンズ機種情報をレンズ駆動部107の記憶領域に設定する。 The lens exchange unit 108 is a mechanism when the user attaches and detaches the lens, and can be replaced with another lens such as a wide-angle lens or a telephoto lens. The lens replacement unit 108 sets the currently used lens model information in the storage area of the lens driving unit 107.
操作部109は、ユーザが操作入力するためのボタンや、リモコンからの赤外線を受信するための赤外線受光部等を備え、入力された操作を制御部106に通知する。入力される操作の種類には、例えば電源のオン/オフ、決定やキャンセル、各種設定や情報確認を行うためのメニューの呼び出し、上下左右の方向指示等がある。 The operation unit 109 includes a button for a user to input an operation, an infrared light receiving unit for receiving infrared rays from a remote controller, and the like, and notifies the control unit 106 of the input operation. The types of operations to be input include, for example, turning the power on/off, deciding and canceling, calling up a menu for various settings and information confirmation, and pointing up/down/left/right.
また、図1に示す撮像手段3は、撮像光学系とCCD(Charge Coupled Device)やCMOS(Complementary MOS)等のセンサ(撮像素子)を有する。撮像手段3は、投射手段1により投射される被投射面2上の投射画像を撮像する。 The image pickup means 3 shown in FIG. 1 has an image pickup optical system and a sensor (image pickup element) such as a CCD (Charge Coupled Device) or a CMOS (Complementary MOS). The image pickup means 3 picks up a projection image on the projection surface 2 projected by the projection means 1.
制御手段4は、投射手段1で得られるシフト部107aのシフト設定値と、ズーム部107bのズーム設定値と、レンズ交換部108のレンズ機種情報のうち少なくとも一方を使用して、撮像手段3で得られる画像情報より投射手段1で被投射面2に投射される投射領域の検出を行うように制御する。 The control unit 4 uses the shift setting value of the shift unit 107a, the zoom setting value of the zoom unit 107b, and the lens model information of the lens exchanging unit 108, which are obtained by the projection unit 1, to cause the image capturing unit 3 to perform the operation. Control is performed so that the projection area projected by the projection unit 1 on the projection surface 2 is detected from the obtained image information.
本実施例では、制御手段4に対して投射手段1と撮像手段3が接続される構成としているが、投射手段1や撮像手段3や制御手段4等が内蔵されている一つの画像投射装置より構成してもよい。その際、撮像手段3は制御部106に接続され、制御手段4の機能は制御部106の中に内蔵される。 In the present embodiment, the projection means 1 and the image pickup means 3 are connected to the control means 4, but one image projection apparatus in which the projection means 1, the image pickup means 3, the control means 4, etc. are built-in. You may comprise. At that time, the imaging unit 3 is connected to the control unit 106, and the function of the control unit 4 is built in the control unit 106.
図3乃至図5は、本実施例の制御手段4によって制御される、投射領域の検出の動作を説明するためのフローチャートである。 3 to 5 are flowcharts for explaining the operation of detecting the projection area, which is controlled by the control means 4 of the present embodiment.
図3乃至図5に示されるフローチャートは、電源オン時、または操作部109によって呼び出されるメニューの投射領域検出項目の選択時、またはシフト部107aのシフト設定値と、ズーム部107bのズーム設定値と、レンズ交換部108のレンズ機種情報のうち少なくとも一方の設定値が変更された時に開始される。 The flowcharts shown in FIG. 3 to FIG. 5 show the setting values of the shift unit 107a and the zoom setting value of the zoom unit 107b when the power is turned on or when the projection area detection item of the menu called by the operation unit 109 is selected. The process is started when the setting value of at least one of the lens model information of the lens exchanging unit 108 is changed.
図3において投射領域の検出の処理が開始されると、ステップS100において、投射レンズ103から検査画像が被投射面2上に投射される(画像投射ステップ)。この時、検査画像は全面輝度最大の白色画像である。 When the process of detecting the projection area is started in FIG. 3, the inspection image is projected from the projection lens 103 onto the projection surface 2 in step S100 (image projection step). At this time, the inspection image is a white image with the maximum overall brightness.
ステップS101では、撮像手段3を用いて、ステップS100にて投射された投射画像を撮影する(投射画像撮像ステップ)。 In step S101, the projection image projected in step S100 is photographed using the image pickup means 3 (projection image pickup step).
ステップS102では、ステップS100と同様に、投射レンズ103から検査画像が被投射面2上に投射される(画像投射ステップ)。この時、検査画像は全面輝度最小の黒色画像である。 In step S102, as in step S100, the inspection image is projected from the projection lens 103 onto the projection surface 2 (image projection step). At this time, the inspection image is a black image with the minimum overall brightness.
ステップS103では、ステップS101と同様に、撮像手段3を用いて、ステップS102にて投射された投射画像を撮影する(投射画像撮像ステップ)。 In step S103, the projection image projected in step S102 is photographed using the imaging unit 3 as in step S101 (projection image capturing step).
ステップS104では、ステップS101で得られた白色画像の撮像画像とステップS103で得られた黒色画像の撮像画像を用いて、背景差分が行われる。背景差分とは、白色画像の撮像画像の画素値と黒色画像の撮像画像の画素値とを同一箇所で差分することを意味する。これにより、投射画像に起因しないノイズの除去を行うことが可能である。なお、このステップS102からステップS104の処理は省略することもできる。 In step S104, a background difference is performed using the captured image of the white image obtained in step S101 and the captured image of the black image obtained in step S103. The background difference means that the pixel value of the captured image of the white image and the pixel value of the captured image of the black image are differentiated at the same location. This makes it possible to remove noise that is not caused by the projected image. The processes of steps S102 to S104 can be omitted.
ステップS105では、レンズ駆動部107からシフト部107aのシフト設定値と、ズーム部107bのズーム設定値と、レンズ交換部108のレンズ機種情報のうち少なくとも一方の値を参照する。なお、本実施例ではこれら三つの情報全てを用いて投射領域の検出を行うこととする。 In step S105, the lens driving unit 107 refers to at least one of the shift setting value of the shift unit 107a, the zoom setting value of the zoom unit 107b, and the lens model information of the lens exchanging unit 108. In this embodiment, the projection area is detected by using all of these three pieces of information.
続いて、ステップS110では、シフト設定値及びズーム設定値及びレンズ機種情報のうち少なくとも一方を使用して投射領域の推測を行う(投射領域推測ステップ)。図4は、ステップS110における内部の詳細なフローチャートを示している。 Subsequently, in step S110, the projection area is estimated using at least one of the shift setting value, the zoom setting value, and the lens model information (projection area estimating step). FIG. 4 shows a detailed internal flowchart in step S110.
図4においてステップS111では、あらかじめ計算されたレンズ機種情報によるキャリブレーションデータを読み込む。図6にキャリブレーションデータの説明図を示す。これらの図は投射画像を撮影した際の撮像画像を表しており、実線の矩形が投射画像、点線の矩形が撮像画像、そして円が投射画像の中心座標を表している。 In FIG. 4, in step S111, calibration data based on lens model information calculated in advance is read. FIG. 6 shows an explanatory diagram of the calibration data. These figures show the captured image when the projected image is captured, where the solid rectangle represents the projected image, the dotted rectangle represents the captured image, and the circle represents the center coordinates of the projected image.
図6の(a)はシフトに関するキャリブレーションデータの説明図である。 FIG. 6A is an explanatory diagram of calibration data regarding shift.
矩形500はシフトが上下左右の中心となる際の投射画像、矩形501はシフトが左右の中心で上端となる際の投射画像、矩形502はシフトが左右の中心で下端となる際の投射画像、矩形503はシフトが上下の中心で左端となる際の投射画像、矩形504はシフトが上下の中心で右端となる際の投射画像を表している。また、矩形500、501、502、503、504の中心座標がそれぞれ円510、511、512、513、514である。この時シフトのキャリブレーションデータとは、円510、511、512、513、514で表わされる投射画像の中心座標を表す。 A rectangle 500 is a projected image when the shift is at the center of the left, right, up and down, a rectangle 501 is a projected image when the shift is at the top of the left and right center, and a rectangle 502 is a projected image when the shift is at the bottom of the left and right center. A rectangle 503 represents a projected image when the shift is the center of the up and down at the left end, and a rectangle 504 represents a projected image when the shift is the center of the up and down at the right end. Further, the center coordinates of the rectangles 500, 501, 502, 503, 504 are circles 510, 511, 512, 513, 514, respectively. At this time, the shift calibration data represents the center coordinates of the projected image represented by circles 510, 511, 512, 513, and 514.
図6の(b)はズームに関するキャリブレーションデータの説明図である。 FIG. 6B is an explanatory diagram of calibration data regarding zoom.
矩形520はズームがテレ端となる際の投射画像、矩形521はズームが中心となる際の投射画像、矩形522はズームがワイド端となる際の投射画像を表している。また矩形520、521、522の中心座標が円530である。この時ズームのキャリブレーションデータとは、円530から矩形520、522の4隅までの撮像画像上での距離を表す。 A rectangle 520 represents a projection image when the zoom is at the tele end, a rectangle 521 represents a projection image when the zoom is at the center, and a rectangle 522 represents a projection image when the zoom is at the wide end. The center coordinates of the rectangles 520, 521 and 522 are the circle 530. At this time, the zoom calibration data represents the distance on the captured image from the circle 530 to the four corners of the rectangles 520 and 522.
ここで、シフト及びズームのキャリブレーションデータはレンズ機種情報に応じて変化するのに注意する必要がある。すなわち、レンズの機種が変われば、異なるキャリブレーションデータを用いなければならない。なお、キャリブレーションデータはレンズ機種毎に持っていてもよいし、一つのキャリブレーションデータからそれぞれのレンズ機種に合わせて変換してもよい。 Here, it should be noted that the shift and zoom calibration data change according to the lens model information. That is, if the model of the lens changes, different calibration data must be used. Note that the calibration data may be held for each lens model, or one calibration data may be converted according to each lens model.
更に、撮像手段3が投射手段1に内蔵されていなければ相対的な位置関係が保たれないため、これらのキャリブレーションデータはその都度計算しなければならない。よって、撮像手段3が投射手段1に内蔵されている状態、もしくは相対的な位置関係が保たれる状態が好ましい。そうでない場合は、投射領域を検出するステップを開始する前に、キャリブレーションデータを再計算する。 Further, since the relative positional relationship cannot be maintained unless the image pickup means 3 is built in the projection means 1, these calibration data must be calculated each time. Therefore, it is preferable that the image pickup means 3 is built in the projection means 1 or the relative positional relationship is maintained. Otherwise, the calibration data is recalculated before starting the step of detecting the projected area.
続いてステップS112では、シフト設定値による投射領域の中心座標の推測を行う。ステップS111で読み込んだキャリブレーションデータ、及び参照したシフト設定値を用いて投射画像の中心位置を推測する。ここで、横方向のシフト設定値を Then, in step S112, the center coordinates of the projection area are estimated based on the shift setting value. The center position of the projection image is estimated using the calibration data read in step S111 and the referenced shift setting value. Here, the horizontal shift setting value
、左端のシフト設定値を , The left shift setting value
、右端のシフト設定値を , Right end shift setting value
、左端のシフトのキャリブレーションデータを , The calibration data for the leftmost shift
、右端のシフトのキャリブレーションデータを , The calibration data for the rightmost shift
とおくと、推測領域の中心座標 The center coordinates of the guess region
は以下のように計算できる。 Can be calculated as follows.
同様に、縦方向のシフト設定値を Similarly, the vertical shift setting value
、下端のシフト設定値を , The lower shift setting value
、上端のシフト設定値を , The upper shift setting value
、下端のシフトのキャリブレーションデータを , The calibration data of the bottom shift
、上端のシフトのキャリブレーションデータを , The calibration data for the top shift
とおくと、推測領域の中心座標 The center coordinates of the guess region
は以下のように計算できる。 Can be calculated as follows.
さらに横方向のシフト設定値 Further horizontal shift setting value
と縦方向のシフト設定値 And vertical shift setting
の組み合わせの場合、中心のシフトのキャリブレーションデータを In the case of the combination of
とおくと、推測領域の中心座標 The center coordinates of the guess region
は以下のように計算できる。 Can be calculated as follows.
ステップS113では、ズーム設定値による投射領域の大きさの推測を行う。ステップS111で読み込んだキャリブレーションデータ、及び参照したズーム設定値を用いて投射画像の大きさを推測する。ここで、ズーム設定値を In step S113, the size of the projection area is estimated based on the zoom setting value. The size of the projection image is estimated by using the calibration data read in step S111 and the referred zoom setting value. Here, set the zoom setting value
、テレ端のズーム設定値を , The zoom setting value of the tele end
、ワイド端のズーム設定値を , Wide end zoom setting
、テレ端のズームのキャリブレーションデータを , Tele end zoom calibration data
、ワイド端のズームのキャリブレーションデータを , Wide end zoom calibration data
、定数を , Constant
とおくと、推測領域の大きさ The size of the guess region
は以下のように計算できる。 Can be calculated as follows.
なお、投射手段1と被投射面2の距離に応じて、投射領域の位置・大きさは撮像画像内で微少に変動する。これは投射装置の光学中心と撮像装置の光学中心が離れれば離れるほど大きくなる。よって、この変動を考慮するため定数 The position/size of the projection area slightly changes in the captured image according to the distance between the projection unit 1 and the projection surface 2. This increases as the optical center of the projection device and the optical center of the imaging device are separated from each other. Therefore, the constant
を導入する。すなわち、推測領域の大きさを大きくすることで、投射領域を包括するように推測領域を計算することが可能である。この定数 To introduce. That is, by increasing the size of the estimation area, the estimation area can be calculated so as to cover the projection area. This constant
は投射装置と撮像装置の光学中心の距離に応じて事前に設定しておいてもよいし、ステップS124で妥当な投射領域が得られなかった際に再設定してもよい。 May be set in advance according to the distance between the optical center of the projection device and the imaging device, or may be reset when a proper projection region is not obtained in step S124.
ステップS114では、ステップS112とステップS113で求めた投射領域の中心座標及び大きさから投射領域の推測を行う。図7に推測領域の実例を示す。これらの図は投射画像を撮影した際の撮像画像を表しており、実線の矩形540が投射画像、点線の矩形が撮像画像、そして二重線541、542が推測領域を表している。推測領域は図7(a)のように矩形であってもよいし、図7(b)のように円形であってもよい。推測領域内に投射領域が包括可能ならば、それ以外の任意の形でもよい。 In step S114, the projection area is estimated from the center coordinates and the size of the projection area obtained in steps S112 and S113. FIG. 7 shows an actual example of the estimation area. In these figures, a captured image when a projected image is captured is represented. A solid line rectangle 540 represents the projected image, a dotted line rectangle represents the captured image, and double lines 541 and 542 represent the estimated region. The estimated region may be rectangular as shown in FIG. 7A or circular as shown in FIG. 7B. Any other shape may be used as long as the projection area can be included in the estimation area.
以上説明したステップS110により、投射領域を推測することが可能である。 By the step S110 described above, it is possible to estimate the projection area.
続いてステップS120では、推測領域の中から投射領域を検出する(投射領域検出ステップ)。図5は、ステップS120における内部の詳細なフローチャートを示している。 Subsequently, in step S120, a projection area is detected from the estimated area (projection area detection step). FIG. 5 shows a detailed internal flowchart in step S120.
図5においてステップS121では、特徴点の検出を行う。特徴点の検出では、一般的にラプラス作用素、ハリス作用素等が知られているが、これらを用いることにより画像上で輝度や色度の変化が激しい点を検出する。 In FIG. 5, in step S121, feature points are detected. Laplace operators, Harris operators, etc. are generally known for the detection of feature points, but by using these, points where the brightness and chromaticity change drastically are detected on the image.
続いてステップS122では、得られた複数の特徴点からノイズ除去を行う。ノイズ除去では、ホワイトノイズのように不規則に発生する点や、投射画像のコーナー点以外の特徴点を排除する。これには投射画像のコーナー点の性質を使用する。一般的に投射画像の場合、検出したいコーナー点の周囲の領域を見てみると、約1/4が明るい点、そして約3/4が暗い点となる。よって、明らかにこの性質を満たさないものをここで排除することで、投射領域の検出誤りを防止する。 Then, in step S122, noise removal is performed from the obtained plurality of feature points. In noise removal, points such as white noise that occur irregularly and feature points other than corner points of the projected image are excluded. This uses the nature of the corner points of the projected image. Generally, in the case of a projected image, looking at the area around the corner point to be detected, about 1/4 is a bright point and about 3/4 is a dark point. Therefore, it is possible to prevent the detection error of the projection area by excluding those that do not satisfy this property.
ステップS123では、ステップS122でノイズ除去した複数の特徴点から投射領域のコーナー点4点を決定する。コーナー点の決定では、縦・横方向の微分値の正負を用いて4つのエリアに分け、各エリアの代表値をコーナー点とする。ここで、画像の座標を In step S123, four corner points in the projection area are determined from the plurality of feature points from which noise has been removed in step S122. In determining a corner point, the positive and negative differential values in the vertical and horizontal directions are used to divide into four areas, and the representative value of each area is used as the corner point. Where the image coordinates
、横方向の微分値を , The differential value in the horizontal direction
、縦方向の微分値を , The vertical derivative
、閾値を , The threshold
とおくと、エリア分けした値 The value divided into areas
は以下のように計算できる。 Can be calculated as follows.
の場合コーナー点ではない点、 If is not a corner point,
の場合いずれかのコーナー点となる点というようにエリア分けがなされる。本実施例では、 In the case of, the area is divided into points that are either corner points. In this example,
において、 At
の最大値を代表値、すなわちコーナー点とする。 The maximum value of is the representative value, that is, the corner point.
ステップS124では、ステップS123で得られたコーナー点4点から投射領域の妥当性を検証する。例えば、それぞれの辺の長さの絶対値、向かい合う辺の長さの誤差量、隣接する辺との角度、投射領域のアスペクト比等が考えられる。これらを検証した結果、投射領域が妥当であると判断されればステップS125へ進み、そうでなければS126へ進む。 In step S124, the validity of the projection area is verified from the four corner points obtained in step S123. For example, the absolute value of the length of each side, the error amount of the length of the facing side, the angle with the adjacent side, the aspect ratio of the projection area, and the like can be considered. As a result of verifying these, if it is determined that the projection area is appropriate, the process proceeds to step S125, and if not, the process proceeds to step S126.
ステップS125では、ステップS123で得られたコーナー点4点で囲まれた領域を投射領域とする。得られた投射領域はフラグ等で記憶領域に保存し、他の処理(例えば、オートフォーカス・キーストーン補正・経時劣化補正などの各種自動補正)で使用できるようにする。 In step S125, the area surrounded by the four corner points obtained in step S123 is set as the projection area. The obtained projection area is saved in a storage area with a flag or the like so that it can be used in other processing (for example, various automatic corrections such as autofocus, keystone correction, and deterioration over time).
ステップS126では、投射領域が得られなかった際のエラー処理を行う。この際、ユーザが確認できるように警告を表示してもよいし、ステップS113に戻り定数 In step S126, error processing is performed when the projection area is not obtained. At this time, a warning may be displayed so that the user can confirm it, and the procedure returns to step S113.
を再設定して再度計算を行ってもよい。 May be reset and the calculation performed again.
以上説明したステップS120により、投射領域を決定することが可能である。 The projection area can be determined by step S120 described above.
図8に推測領域を使用することで外乱が排除できることの説明図を示す。これらの図は投射画像を撮影した際の撮像画像を表しており、実線の矩形550が投射画像、点線の矩形が撮像画像、黒色の矩形551が外乱、二重線554が推測領域、そして太線552、553、555が検出された投射領域を表している。 FIG. 8 shows an explanatory diagram that the disturbance can be eliminated by using the estimation region. These figures show a captured image when a projected image is captured. A solid line rectangle 550 is a projected image, a dotted line rectangle is a captured image, a black rectangle 551 is a disturbance, a double line 554 is an estimated region, and a thick line. Reference numerals 552, 553, and 555 represent the detected projection areas.
図8の(a)は左下のコーナー点を外乱によって誤って検出してしまい、ステップS124の妥当性検証でエラーとなる例である。また図8の(b)は全てのコーナー点を外乱によって誤って検出してしまい、外乱の部分を投射領域としてしまった例である。一方、推測領域を使用した図8の(c)は投射領域を正確に検出できている。これは推測領域によって外乱の要因を排除できたためである。 FIG. 8A is an example in which the lower left corner point is erroneously detected due to disturbance and an error occurs in the validity verification in step S124. Further, FIG. 8B is an example in which all the corner points are erroneously detected by the disturbance and the disturbance portion is set as the projection area. On the other hand, in (c) of FIG. 8 in which the estimated area is used, the projection area can be accurately detected. This is because the factors of disturbance could be eliminated by the estimation region.
本実施例によれば、外乱が存在する場合に、テストチャートなどの特殊な投射パターンを用いることなく、投射装置の設定値に基づいてより正確に投射領域を検出することができる。 According to the present embodiment, when there is a disturbance, the projection area can be detected more accurately based on the set value of the projection device without using a special projection pattern such as a test chart.
100 画像投射システム、1 投射手段、2 被投射面、21,551 外乱、
3 撮像手段、4 制御手段、101 光源、102 液晶パネル、
103 投射レンズ、104 画像信号入力部、105 画像処理部、
106 制御部、107 レンズ駆動部、107a シフト部、
107b ズーム部、108 レンズ交換部、109 操作部、
110 画像表示系、111 投射光学系、
500,501,502,503,504,520,521,522,540,550 投射画像、
510,511,512,513,514,530 投射画像の中心座標、
541,542,554 推測領域、552,553,555 投射領域
100 image projection system, 1 projection means, 2 projection surface, 21,551 disturbance,
3 image pickup means, 4 control means, 101 light source, 102 liquid crystal panel,
103 projection lens, 104 image signal input unit, 105 image processing unit,
106 control unit, 107 lens drive unit, 107a shift unit,
107b zoom unit, 108 lens replacement unit, 109 operation unit,
110 image display system, 111 projection optical system,
500, 501, 502, 503, 504, 520, 521, 522, 540, 550 Projection image,
510, 511, 512, 513, 514, 530 central coordinates of the projected image,
541, 542, 554 guess area, 552, 553, 555 projection area
Claims (4)
該画像表示手段で表示される画像情報を被投射面に投射する投射手段と、
該投射手段によって投射された投射画像を撮像する撮像手段と、
該撮像手段で得られた画像情報の一部を使用して投射領域の検出を行う制御手段と、
を有することを特徴とする画像投射システム。 An image display unit including an image display element that displays image information according to an image signal input from the input unit,
Projection means for projecting image information displayed by the image display means onto a projection surface,
Image pickup means for picking up a projection image projected by the projection means;
Control means for detecting a projection area by using a part of the image information obtained by the image pickup means;
An image projection system comprising:
投射画像の大きさを変更するズーム部と、レンズの着脱を行うレンズ交換部の少なくとも一方を有することを特徴とする請求項1に記載画像投射システム。 The projection unit, a shift unit for changing the position of the projection image projected on the projection surface,
The image projection system according to claim 1, further comprising at least one of a zoom unit that changes a size of a projected image and a lens replacement unit that attaches and detaches a lens.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019014951A JP2020123867A (en) | 2019-01-31 | 2019-01-31 | Image projection system and projection area detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019014951A JP2020123867A (en) | 2019-01-31 | 2019-01-31 | Image projection system and projection area detection method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020123867A true JP2020123867A (en) | 2020-08-13 |
Family
ID=71993025
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019014951A Pending JP2020123867A (en) | 2019-01-31 | 2019-01-31 | Image projection system and projection area detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2020123867A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025135580A1 (en) * | 2023-12-18 | 2025-06-26 | 삼성전자주식회사 | Electronic apparatus and control method thereof |
-
2019
- 2019-01-31 JP JP2019014951A patent/JP2020123867A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025135580A1 (en) * | 2023-12-18 | 2025-06-26 | 삼성전자주식회사 | Electronic apparatus and control method thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100571175B1 (en) | Image processing system, projector, information storage medium and image processing method | |
| US7175285B2 (en) | Projection system that adjusts for keystoning | |
| US7125122B2 (en) | Projection system with corrective image transformation | |
| US8272748B2 (en) | Projection-type display apparatus and method for performing projection adjustment | |
| US9621861B2 (en) | Projection image display system, projection image display method, and projection-type display apparatus | |
| CN100388118C (en) | Image processing system, projector and image processing method | |
| CN100418371C (en) | Image processing system, projector and image processing method | |
| CN108989777B (en) | Projection apparatus, control method of projection apparatus, and non-transitory storage medium | |
| US20050231691A1 (en) | Projection system | |
| CN106605195B (en) | Communication apparatus and control method of communication apparatus | |
| TW201338535A (en) | Projector and control method for the projector | |
| JP2016197768A (en) | Image projection system and projection image control method | |
| US8870385B2 (en) | Display system | |
| JP2015159524A5 (en) | ||
| US10582171B2 (en) | Display system and information processing method | |
| CN110324593B (en) | Projector and control method of projector | |
| US20060176377A1 (en) | Projector and exposure adjustment method | |
| US10812764B2 (en) | Display apparatus, display system, and method for controlling display apparatus | |
| JP2020123867A (en) | Image projection system and projection area detection method | |
| US20240129423A1 (en) | Image processing method, image processing system, and non-transitory computer-readable storage medium storing program | |
| JP2011199717A (en) | Projection type display device and image display method | |
| JP2005091665A (en) | Projector and obstacle detecting method | |
| CN114979600B (en) | Laser projection apparatus and correction method of projection image | |
| CN114979599B (en) | Laser projection apparatus and correction method of projection image | |
| JP2005249946A (en) | Defect inspecting apparatus for display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |