[go: up one dir, main page]

JP2019169913A - Projection control device, projection device, correction image projection method, and program - Google Patents

Projection control device, projection device, correction image projection method, and program Download PDF

Info

Publication number
JP2019169913A
JP2019169913A JP2018057992A JP2018057992A JP2019169913A JP 2019169913 A JP2019169913 A JP 2019169913A JP 2018057992 A JP2018057992 A JP 2018057992A JP 2018057992 A JP2018057992 A JP 2018057992A JP 2019169913 A JP2019169913 A JP 2019169913A
Authority
JP
Japan
Prior art keywords
image
correction
projection
marker
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018057992A
Other languages
Japanese (ja)
Inventor
小林 正樹
Masaki Kobayashi
正樹 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018057992A priority Critical patent/JP2019169913A/en
Publication of JP2019169913A publication Critical patent/JP2019169913A/en
Priority to JP2022191155A priority patent/JP7371753B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)

Abstract

【課題】専用のスクリーン以外の投影対象に画像を投影させる場合であっても、初期設定をできる限り簡易に実行することが可能な投影制御装置、撮影装置、補正用画像投影方法及びプログラムを提供すること。【解決手段】投影制御装置(投影装置10)は、位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像とマーカ画像とを含む第二の補正用画像を取得する取得手段(処理部12)と、第一の補正用画像及び第二の補正用画像を投影対象に投影可能な投影手段(投影部13)を制御する投影制御手段(処理部12)と、投影手段により投影された第一の補正用画像及び第二の補正用画像の撮影画像からマーカ画像を検出可能な検出手段と、検出手段により検出された第一の補正用画像のマーカ画像の検出結果に基づいて、第二の補正用画像におけるマーカ画像の検出条件を設定する検出条件設定手段と、を備える。【選択図】 図2[PROBLEMS] To provide a projection control device, a photographing device, a correction image projection method, and a program that can execute initial settings as easily as possible even when an image is projected on a projection target other than a dedicated screen. To do. A projection control device (projection device) includes a first correction image including a marker image for position detection and a non-marker image, and a first image including a measurement image and a marker image for image correction. An acquisition unit (processing unit 12) for acquiring a second correction image, and a projection control unit for controlling a projection unit (projection unit 13) capable of projecting the first correction image and the second correction image onto a projection target. (Processing unit 12), detection means capable of detecting a marker image from the captured image of the first correction image and the second correction image projected by the projection means, and the first correction detected by the detection means Detection condition setting means for setting a detection condition of the marker image in the second correction image based on a detection result of the marker image of the image for correction. [Selection] Figure 2

Description

本発明は、投影制御装置、投影装置、補正用画像投影方法及びプログラムに関する。   The present invention relates to a projection control device, a projection device, a correction image projection method, and a program.

画像を投影する投影装置において、壁等の投影面に色、柄、歪み等が有る場合に、投影装置が投影した画像を正しい色や形状で表示するための技術が提案されている(例えば、特許文献1)。   In a projection apparatus that projects an image, a technique for displaying an image projected by the projection apparatus in a correct color or shape when a projection surface such as a wall has color, pattern, distortion, or the like has been proposed (for example, Patent Document 1).

特開2007−259472号公報JP 2007-259472 A

上記特許文献に記載された技術を含め、投影装置の投影範囲における色の再現状態を正確に把握して投影画像を補正するためには、投影装置が投影面上に投影した画像の色情報を取得するための手段(上記特許文献1であればカラーセンサ)を備える必要がある。この場合、投影装置の位置と投影画像の鑑賞者の位置とが異なると、撮影部を有する投影装置が、投影画像を撮影しても鑑賞者の位置を反映して画像を補正することが困難な場合がある。   In order to correct the projection image by accurately grasping the color reproduction state in the projection range of the projection apparatus, including the technique described in the above-mentioned patent document, the color information of the image projected on the projection plane by the projection apparatus is used. It is necessary to provide means for obtaining (a color sensor in the case of Patent Document 1). In this case, if the position of the projection device is different from the position of the viewer of the projection image, it is difficult for the projection device having the photographing unit to correct the image reflecting the position of the viewer even if the projection image is captured. There are cases.

そこで、画像の色情報を正確に取得する手段として、当該投影装置のユーザが使用するデジタルカメラ等、別体の撮影装置が考えられる。一般的なデジタルカメラにより投影画像を撮影することで投影装置の色補正が実行できれば、簡易で正確に投影装置の初期設定が実現できる。   Therefore, as a means for accurately obtaining the color information of the image, a separate photographing device such as a digital camera used by the user of the projection device can be considered. If the color correction of the projection apparatus can be executed by taking a projection image with a general digital camera, the initial setting of the projection apparatus can be realized easily and accurately.

しかしながら、画像の補正をより正確に行うには複数枚の補正用の画像パターンを投影装置により連続して投影させ、その複数の画像パターンをデジタルカメラにより撮影する必要がある。これらの投影画像をデジタルカメラで手持ちの状態で撮影すると、デジタルカメラ自体の撮影位置が安定しておらず、手ぶれの発生も懸念される。   However, in order to correct an image more accurately, it is necessary to continuously project a plurality of correction image patterns by a projection device and to photograph the plurality of image patterns with a digital camera. If these projected images are photographed with a digital camera in a handheld state, the photographing position of the digital camera itself is not stable, and there is a concern about the occurrence of camera shake.

そのため、連続して得られる撮影画像中における投影装置が投影した範囲を正確に検出することが難しくなる。投影画像の正確な撮影を実施するために、デジタルカメラを三脚等で固定する方法もあるが初期設定に要する手間等がそれだけ煩雑なものとなる。   Therefore, it becomes difficult to accurately detect a range projected by the projection device in continuously obtained captured images. There is a method of fixing the digital camera with a tripod or the like in order to accurately capture the projected image, but the labor and time required for the initial setting becomes much more complicated.

本発明は、上記のような実情に鑑みてなされたもので、その目的とするところは、専用のスクリーン以外の投影対象に画像を投影させる場合であっても、初期設定をできる限り簡易に実行することが可能な投影制御装置、投影装置、投影制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and the object of the present invention is to perform initial setting as easily as possible even when an image is projected onto a projection target other than a dedicated screen. It is an object of the present invention to provide a projection control device, a projection device, a projection control method, and a program that can be used.

本発明の投影制御装置は、位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得する取得手段と、前記第一の補正用画像及び前記第二の補正用画像を投影対象に投影可能な投影手段を制御する投影制御手段と、前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像の撮影画像から前記マーカ画像を検出可能な検出手段と、前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段と、を備えることを特徴とする。   The projection control device of the present invention includes a first correction image including a marker image for position detection and a non-marker image, and a second correction image including a measurement image for image correction and the marker image. Acquisition means for acquiring the first correction image, projection control means for controlling the projection means capable of projecting the second correction image and the second correction image onto the projection target, and the first image projected by the projection means Based on a detection unit capable of detecting the marker image from a captured image of the correction image and the second correction image, and based on the detection result of the marker image of the first correction image detected by the detection unit And a detection condition setting means for setting a detection condition for the marker image in the second correction image.

本発明の投影装置は、上記の投影制御装置と、前記投影手段と、を備えることを特徴とする。   A projection apparatus according to the present invention includes the above projection control apparatus and the projection unit.

本発明の補正用画像投影方法は、位置検出用のマーカ画像と、非マーカ画像を含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得工程と、前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御工程と、前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出工程と、前記検出工程で検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定工程と、を含むことを特徴とする。   The correction image projection method of the present invention includes a marker image for position detection, a first correction image including a non-marker image, and a second correction image including a measurement image for image correction and the marker image. An acquisition step of acquiring an image by an acquisition unit; a projection control step of projecting the first correction image and the second correction image onto a projection target by a projection unit; and the first image projected by the projection unit A detection step of detecting the marker image from the correction image and the second correction image, and a detection result of the marker image of the first correction image detected in the detection step. And a detection condition setting step of setting a detection condition for the marker image in the second correction image.

本発明のプログラムは、コンピュータが実行するプログラムであって、前記コンピュータを、位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得手段、前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御手段、前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出手段、及び前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段、として機能させることを特徴とする。   The program of the present invention is a program executed by a computer, and the computer includes a first correction image including a marker image for position detection and a non-marker image, a measurement image for image correction, and the measurement image. An acquisition unit that acquires a second correction image including a marker image by an acquisition unit, a projection control unit that projects the first correction image and the second correction image onto a projection target by a projection unit, and the projection Detection means for detecting the marker image from the first correction image and the second correction image projected by the means, and the marker image of the first correction image detected by the detection means. Based on the detection result, the detection function setting means for setting the detection condition of the marker image in the second correction image is used.

本発明によれば、専用のスクリーン以外の投影対象に画像を投影させる場合であっても、初期設定をできる限り簡易に実行することが可能な投影制御装置、補正用画像投影方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide a projection control device, a correction image projection method, and a program capable of executing initial settings as easily as possible even when an image is projected onto a projection target other than a dedicated screen. can do.

本発明の実施形態に係る投影システムの概要を示す図である。It is a figure which shows the outline | summary of the projection system which concerns on embodiment of this invention. 本発明の実施形態に係る投影システムの構成を示す図である。It is a figure which shows the structure of the projection system which concerns on embodiment of this invention. 本発明の実施形態に係る補正用画像を示す図であり、(a)〜(c)は被測定物の色補正用の補正画像であり、(d)〜(f)は被測定物の歪み補正用の補正画像である。It is a figure which shows the image for correction | amendment which concerns on embodiment of this invention, (a)-(c) is a correction image for color correction of a to-be-measured object, (d)-(f) is distortion of to-be-measured object. It is a correction image for correction. 本発明の実施形態に係るマーカの構成を示す図である。It is a figure which shows the structure of the marker which concerns on embodiment of this invention. 本発明の実施形態に係る輪郭情報テーブルの構成を示す図である。It is a figure which shows the structure of the outline information table which concerns on embodiment of this invention. 本発明の実施形態に係る投影装置のフローチャート図である。It is a flowchart figure of the projection apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る撮影装置のフローチャート図である。It is a flowchart figure of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係るマーカ検出プログラムのフローチャート図である。It is a flowchart figure of the marker detection program which concerns on embodiment of this invention. 本発明の実施形態に係る撮影装置の処理する画像を示し、(a)は撮影装置が撮影した第1の補正用画像を示し、(b)は第1の補正用画像の輪郭抽出を行った後の画像を示し、(c)は抽出したマーカ部分の輪郭の拡大図である。The image which the imaging device which concerns on embodiment of this invention processes is shown, (a) shows the 1st image for correction | amendment image | photographed with the imaging device, (b) extracted the outline of the image for 1st correction | amendment. The latter image is shown, and (c) is an enlarged view of the contour of the extracted marker portion.

以下、本発明を実施するための形態について述べる。図1は投影システム1の概要を示す図である。投影システム1は、カーテンや壁等の投影対象物30の投影面31に画像を投影する投影装置10(投影制御装置)と、投影面31に投影された画像を撮影するデジタルカメラやカメラ付き携帯電話、等の撮影装置20とを有する。なお、撮影装置20としては、携帯用の画像入力機能付きデジタル機器であれば良く、ビデオカメラ、スマートフォン(高機能携帯電話)、タブレット端末等でも良い。本実施形態では投影対象物30としてカーテンを示している。投影対象物30は図示しないレール等に吊支され、主として横方向に沿った表面に波状のうねりを有している。また投影面31には色や模様が形成されている。   Hereinafter, modes for carrying out the present invention will be described. FIG. 1 is a diagram showing an outline of the projection system 1. The projection system 1 includes a projection device 10 (projection control device) that projects an image on a projection surface 31 of a projection target 30 such as a curtain or a wall, a digital camera that captures an image projected on the projection surface 31, and a camera-equipped mobile phone. And a photographing device 20 such as a telephone. The photographing device 20 may be any digital device with a portable image input function, and may be a video camera, a smartphone (high-function mobile phone), a tablet terminal, or the like. In the present embodiment, a curtain is shown as the projection object 30. The projection object 30 is suspended by a rail or the like (not shown), and has a wavy undulation mainly on the surface along the lateral direction. Further, colors and patterns are formed on the projection surface 31.

投影装置10は、撮影装置20と異なる位置に配置される。図1の投影装置10は、投影面31に対して左側に配置され、画像を斜めの方向から投影している。撮影装置20は、投影面31に対して略正面等、投影面31に投影された画像を鑑賞するユーザの位置に配置される。従って、撮影装置20が撮影した画像とユーザが視認する画像とは、画角が略一致するように構成することができる。撮影装置20はユーザによって把持されてもよい。   The projection device 10 is arranged at a different position from the imaging device 20. The projection apparatus 10 in FIG. 1 is disposed on the left side with respect to the projection surface 31 and projects an image from an oblique direction. The imaging device 20 is arranged at the position of the user who views the image projected on the projection surface 31 such as substantially in front of the projection surface 31. Therefore, the image captured by the image capturing device 20 and the image visually recognized by the user can be configured so that the angle of view substantially matches. The imaging device 20 may be held by a user.

投影システム1の動作の概要について説明する。投影装置10により投影される投影画像は、投影されたままの状態では、投影面31の形状・模様等の影響や、投影装置10の投影方向とユーザの視線方向の差との影響により、ユーザの視点からは元の画像データとは異なる色や形状で観測される。そこで、本実施形態では、ユーザが、ユーザの視点から好適に投影画像を視認可能なように、処理部12が画像データの補正を行う。投影装置10が後述する補正用画像111を投影面31に投影すると、撮影装置20は投影された補正用画像を撮影する。撮影装置20は、投影装置10が投影した補正用画像111と、撮影装置20が撮影した撮影画像60における補正用画像111と、のずれに基づいて、画像補正情報を求めて、投影装置10に対して有線又は無線の通信を介して送信する。上述の処理により、投影装置10は、画像補正情報に基づいて基の画像データが、観測者であるユーザにとって意図された態様で視認されるように、画像を投影することができる。   An outline of the operation of the projection system 1 will be described. When the projection image projected by the projection device 10 remains projected, the projection image 31 is affected by the shape and pattern of the projection surface 31 and the difference between the projection direction of the projection device 10 and the user's line-of-sight direction. From this viewpoint, it is observed in a color and shape different from the original image data. Therefore, in the present embodiment, the processing unit 12 corrects the image data so that the user can suitably view the projected image from the user's viewpoint. When the projection device 10 projects a correction image 111 (to be described later) onto the projection surface 31, the imaging device 20 captures the projected correction image. The imaging device 20 obtains image correction information based on the difference between the correction image 111 projected by the projection device 10 and the correction image 111 in the captured image 60 captured by the imaging device 20, and sends the image correction information to the projection device 10. The data is transmitted via wired or wireless communication. Through the processing described above, the projection apparatus 10 can project an image based on the image correction information so that the basic image data is visually recognized in a manner intended for the user who is an observer.

図2は投影システム1の構成を示す図である。投影装置10は、記憶部11、処理部12(取得手段,投影制御手段)、投影部13(投影手段)、操作部14、通信部15、音声処理部16を備え、各々内部バスにより接続されている。記憶部11は、例えば、SSD(Solid State Drive)やSRAM(Static Randam Access Memory)で構成される。記憶部11は、図示しない鑑賞用の画像データ、この画像データを補正するための補正用画像111、及び投影装置10の制御プログラム112等を記憶する。   FIG. 2 is a diagram showing a configuration of the projection system 1. The projection apparatus 10 includes a storage unit 11, a processing unit 12 (acquisition unit, projection control unit), a projection unit 13 (projection unit), an operation unit 14, a communication unit 15, and an audio processing unit 16, each connected by an internal bus. ing. The storage unit 11 includes, for example, an SSD (Solid State Drive) or an SRAM (Static Random Access Memory). The storage unit 11 stores image data for viewing (not shown), a correction image 111 for correcting the image data, a control program 112 for the projection apparatus 10, and the like.

処理部12は、記憶部11に記憶される制御プログラム112を読み出し、投影装置10を統括して制御する。また、処理部12には画像補正処理部121が含まれる。画像補正処理部121は、記憶部11から補正用画像111を取得して投影部13に送信する。また画像補正処理部121は、撮影装置20から受信した画像補正情報25aに基づいて記憶部11に記憶された鑑賞用の画像データを補正し、補正後の変換された画像を投影部13に送信する。また、画像補正処理部121は上述のように撮影装置20から取得した撮影画像60における補正用画像111と記憶部11に記憶される補正用画像111とを比較することで、画像補正情報25aを算出するようにしてもよい。   The processing unit 12 reads the control program 112 stored in the storage unit 11 and controls the projection apparatus 10 in an integrated manner. The processing unit 12 includes an image correction processing unit 121. The image correction processing unit 121 acquires the correction image 111 from the storage unit 11 and transmits it to the projection unit 13. Further, the image correction processing unit 121 corrects the image data for viewing stored in the storage unit 11 based on the image correction information 25 a received from the imaging device 20, and transmits the converted image after correction to the projection unit 13. To do. Further, the image correction processing unit 121 compares the correction image 111 in the captured image 60 acquired from the imaging device 20 as described above with the correction image 111 stored in the storage unit 11, thereby obtaining the image correction information 25 a. You may make it calculate.

投影部13は、画像補正処理部121を含む処理部12から送られてきた補正用画像111のデータ或いは鑑賞用の画像データを、予め設定した画像フォーマットに従ったフレームレートで画像投影する。投影部13は、一つのフレーム内で画素毎に異なる色の光を出射することにより画像を形成する。画素毎の色は、複数の異なる波長帯域の光を時分割で出射することにより表現することができる。本実施形態の投影装置10は、投影部13をDLP(登録商標)(Digital Light Processing)プロジェクタの投影部として構成しているが、液晶プロジェクタ等の他の方式としてもよい。投影部13から出射された画像は、図1の投影面31に投影される。   The projection unit 13 projects the image of the correction image 111 or the image data for viewing sent from the processing unit 12 including the image correction processing unit 121 at a frame rate according to a preset image format. The projection unit 13 forms an image by emitting light of different colors for each pixel within one frame. The color for each pixel can be expressed by emitting light in a plurality of different wavelength bands in a time division manner. In the projection apparatus 10 of the present embodiment, the projection unit 13 is configured as a projection unit of a DLP (registered trademark) (Digital Light Processing) projector, but may be other types such as a liquid crystal projector. The image emitted from the projection unit 13 is projected onto the projection plane 31 in FIG.

操作部14は、投影装置10の筐体に備える操作キー等から操作信号を受け付けて、その操作信号を、バスを介して処理部12に送信する。処理部12は、操作部14からの操作信号に応じて投影処理等の各種の機能を実行する。   The operation unit 14 receives an operation signal from an operation key or the like provided in the housing of the projection device 10 and transmits the operation signal to the processing unit 12 via the bus. The processing unit 12 executes various functions such as projection processing in accordance with operation signals from the operation unit 14.

通信部15は、図示しないリモートコントローラからの赤外線変調信号等による操作信号を受信し、その操作信号を処理部12に送信する。また、通信部15は撮影装置20の通信部25とデータの送受信を行うことができる。また、通信部15は、外部入力端子を備えることができ、外部機器から鑑賞用の画像データを入力させることができる。通信部15による通信部25との通信は、有線又は無線により行うことができる。   The communication unit 15 receives an operation signal such as an infrared modulation signal from a remote controller (not shown) and transmits the operation signal to the processing unit 12. Further, the communication unit 15 can transmit and receive data to and from the communication unit 25 of the photographing apparatus 20. In addition, the communication unit 15 can include an external input terminal, and can receive image data for viewing from an external device. Communication with the communication unit 25 by the communication unit 15 can be performed by wire or wireless.

音声処理部16は、PCM音源などの音源回路を備え、スピーカ17を駆動して音を拡散放音させる。音声処理部16は、投影する画像データに音声信号が含まれていた場合、投影動作時にその音声信号をアナログ変換してスピーカ17を介して音を出力する。   The sound processing unit 16 includes a sound source circuit such as a PCM sound source, and drives the speaker 17 to diffuse and emit sound. When the image data to be projected includes an audio signal, the audio processing unit 16 converts the audio signal into an analog signal and outputs a sound through the speaker 17 during the projection operation.

撮影装置20は、撮影部21、処理部22(検出手段,検出条件設定手段)、入出力制御部23、記憶部24、通信部25を備え、各々内部バスにより接続される。撮影部21は、図1の投影面31に投影される画像を撮影する。   The imaging device 20 includes an imaging unit 21, a processing unit 22 (detection unit, detection condition setting unit), an input / output control unit 23, a storage unit 24, and a communication unit 25, which are connected by an internal bus. The imaging unit 21 captures an image projected on the projection surface 31 of FIG.

処理部22は、撮影装置20を制御する機能を有する。処理部22には測定処理部221が含まれる。測定処理部221は、撮影部21により撮影された補正用画像111を含む撮影画像60を解析する。測定処理部221は、補正用画像111の解析結果を画像補正情報25aとして通信部25を介して投影装置10に送信する。また、測定処理部221は、撮影画像60の解析結果に応じ、通信部25を介して投影装置10に投影指示25bを送信する。   The processing unit 22 has a function of controlling the imaging device 20. The processing unit 22 includes a measurement processing unit 221. The measurement processing unit 221 analyzes the captured image 60 including the correction image 111 captured by the capturing unit 21. The measurement processing unit 221 transmits the analysis result of the correction image 111 as the image correction information 25a to the projection device 10 via the communication unit 25. In addition, the measurement processing unit 221 transmits a projection instruction 25 b to the projection device 10 via the communication unit 25 according to the analysis result of the captured image 60.

入出力制御部23は、ユーザが操作ボタン231から入力した操作指示に対応する情報を処理部22へ送信する。表示装置232は、入出力制御部23から出力された画像を表示させる画面や表示灯等である。   The input / output control unit 23 transmits information corresponding to the operation instruction input from the operation button 231 by the user to the processing unit 22. The display device 232 is a screen or an indicator lamp that displays an image output from the input / output control unit 23.

記憶部24は、輪郭情報テーブル241や撮影装置20の制御プログラムを記憶する。制御プログラムにはマーカ検出プログラム242(検出手段,検出条件設定手段)が含まれる。また、記憶部24は、撮影部21が撮影した撮影画像60や、撮影画像60内の投影面画像から検出したマーカ41(図3等で後述)の画像の検出位置情報243を記憶する。   The storage unit 24 stores a contour information table 241 and a control program for the photographing apparatus 20. The control program includes a marker detection program 242 (detection means, detection condition setting means). Further, the storage unit 24 stores the detected position information 243 of the image of the marker 41 (described later in FIG. 3 and the like) detected from the captured image 60 captured by the capturing unit 21 and the projection plane image in the captured image 60.

次に、図3(a)乃至図3(f)に基づいて、投影装置10の記憶部11に記憶される補正用画像111について説明する。補正用画像111a〜111fは、投影モードに応じたアスペクト比の画像とすることができ、本図では全体を横長の矩形形状としている。各補正用画像111a〜111fは画像全体の四隅に画像位置識別用のマーカ41を有し、その他の大部分の領域を画像補正のための測定画像42としている。この画像補正には色補正又は画像の形状補正が含まれる。   Next, the correction image 111 stored in the storage unit 11 of the projection apparatus 10 will be described with reference to FIGS. 3 (a) to 3 (f). The correction images 111a to 111f can be images having an aspect ratio corresponding to the projection mode, and the entire image has a horizontally long rectangular shape in FIG. Each of the correction images 111a to 111f has image position identification markers 41 at the four corners of the entire image, and most other regions are used as measurement images 42 for image correction. This image correction includes color correction or image shape correction.

図4は、各補正用画像111a〜111fの位置検出用のマーカ41の構成を示す図である。マーカ41は、第1の多角形43と、この第1の多角形43の内側に配置される第2の多角形44とにより構成される。第1の多角形43は、対向する辺が各々平行且つ同一長さで各内角が90度である正四角形に形成される。第1の多角形43の各辺は、外側の縁辺431a〜431dと内側の縁辺432a〜432dとにより黒に彩色された所定の幅を有し、縁辺432a〜432dに囲われる第1の多角形43の内側は白に彩色される。外側の縁辺431a〜431dで区切られる第1の多角形43の外側は、補正用画像111の測定画像42(図3参照)に応じた色で彩色される。第2の多角形44は、第1の多角形43の内側の縁辺432a〜432dに囲われた領域に形成される。第2の多角形44は、各縁辺441a〜441cが同一長さの正三角形に形成される。第2の多角形44の各縁辺441a〜441cに囲われる内部は、第1の多角形と同色の黒に彩色される。本実施形態では、第1の多角形43の縁辺432a〜432dと、第2の多角形44の縁辺441a〜441cを撮影装置20に検出させて、マーカ41を特定する。   FIG. 4 is a diagram showing the configuration of the marker 41 for position detection of the correction images 111a to 111f. The marker 41 is configured by a first polygon 43 and a second polygon 44 arranged inside the first polygon 43. The first polygon 43 is formed in a regular quadrangle in which the opposite sides are parallel and have the same length, and each interior angle is 90 degrees. Each side of the first polygon 43 has a predetermined width colored black by the outer edges 431a to 431d and the inner edges 432a to 432d, and is surrounded by the edges 432a to 432d. The inside of 43 is colored white. The outside of the first polygon 43 divided by the outer edges 431a to 431d is colored with a color corresponding to the measurement image 42 (see FIG. 3) of the correction image 111. The second polygon 44 is formed in a region surrounded by the inner edges 432 a to 432 d of the first polygon 43. The second polygon 44 is formed in an equilateral triangle with each edge 441a to 441c having the same length. The interior surrounded by the respective edges 441a to 441c of the second polygon 44 is colored black with the same color as the first polygon. In the present embodiment, the imaging device 20 detects the edges 432a to 432d of the first polygon 43 and the edges 441a to 441c of the second polygon 44 to identify the marker 41.

第1の多角形43の上下の縁辺431a,431b,432a,432bは、第2の多角形44の下側の縁辺441cと平行に配置される。また、第1の多角形43の各縁辺431a〜431d,432a〜432dは、第2の多角形44の左右の縁辺441a,441bと非平行となるように形成される。このように、マーカ41は、第1の多角形43と第2の多角形44とが異なる頂点数を有しながら、第1の多角形43の少なくとも一つの辺が、第2の多角形44の各辺と非平行となるように形成され、第1の多角形43の上記一つの辺と異なる他の辺が、第2の多角形44の何れかの辺と平行に形成される。   Upper and lower edges 431 a, 431 b, 432 a, 432 b of the first polygon 43 are arranged in parallel with the lower edge 441 c of the second polygon 44. Further, the respective edges 431 a to 431 d and 432 a to 432 d of the first polygon 43 are formed so as to be non-parallel to the left and right edges 441 a and 441 b of the second polygon 44. As described above, in the marker 41, the first polygon 43 and the second polygon 44 have different numbers of vertices, but at least one side of the first polygon 43 has the second polygon 44. The other side different from the one side of the first polygon 43 is formed in parallel with any side of the second polygon 44.

図3(a)〜(c)は投影面31の色補正用の補正用画像111a〜111cである。補正用画像111a、補正用画像111b及び補正用画像111cは、略全面の測定画像42を各々黒色、灰色及び白色としている。投影装置10は、補正用画像111a〜111cを投影面31に投影して撮影装置20に撮影させ、撮影装置20に投影面31に形成される模様や投影面31の歪みに起因した色の変化を検出させる。   3A to 3C are correction images 111a to 111c for color correction of the projection plane 31. FIG. In the correction image 111a, the correction image 111b, and the correction image 111c, the measurement image 42 on substantially the entire surface is black, gray, and white, respectively. The projection device 10 projects the correction images 111 a to 111 c onto the projection surface 31 to cause the photographing device 20 to photograph, and changes in color due to the pattern formed on the projection surface 31 and distortion of the projection surface 31. Is detected.

図3(d)〜(f)は投影対象物30に投影された画像の歪み補正用の補正用画像111d〜111fである。補正用画像111d、補正用画像111e及び補正用画像111fは、略全面の測定画像42に略正方形の白の四角形及び黒の四角形を縦方向及び横方向に交互に配置した市松模様を有する。補正用画像111d〜111fは、市松模様の大きさによる異なる分解能で投影面31の歪みを検出することができる。投影装置10は、補正用画像111d〜111fを投影面31に投影して撮影装置20に撮影させる。撮影装置20は、複数の補正用画像111d〜111fを組み合わせて投影面31全体の歪みを検出することができる。   3D to 3F are correction images 111d to 111f for correcting distortion of the image projected on the projection target 30. FIG. The correction image 111d, the correction image 111e, and the correction image 111f have a checkered pattern in which substantially square white squares and black squares are alternately arranged in the vertical direction and the horizontal direction on the measurement image 42 on the substantially entire surface. The correction images 111d to 111f can detect the distortion of the projection surface 31 with different resolutions depending on the checkered pattern size. The projection device 10 projects the correction images 111d to 111f on the projection surface 31 and causes the photographing device 20 to photograph. The imaging device 20 can detect distortion of the entire projection surface 31 by combining a plurality of correction images 111d to 111f.

図5は輪郭情報テーブル241の構成を示す図である。輪郭情報テーブル241は、輪郭番号51と、下位階層輪郭個数52と、下位階層輪郭番号53とを対応して記憶する。各データの取得方法については図8のフローチャート図で後述する。輪郭番号51は、輪郭抽出処理(図8のステップS302)で抽出される輪郭毎に設定される識別番号である。下位階層輪郭個数52は、輪郭番号51に対応する輪郭が閉領域であった場合に、その輪郭の一つ内側の階層に、いくつの輪郭が包含されるかを示している。下位階層輪郭番号53は、下位階層輪郭個数52でカウントされる各輪郭に設定された識別番号である。このように、輪郭情報テーブル241は、各輪郭の階層構成を記憶することができる。   FIG. 5 is a diagram showing the configuration of the contour information table 241. The contour information table 241 stores a contour number 51, a lower layer contour number 52, and a lower layer contour number 53 in association with each other. The method for acquiring each data will be described later with reference to the flowchart of FIG. The contour number 51 is an identification number set for each contour extracted in the contour extraction process (step S302 in FIG. 8). The lower-layer contour number 52 indicates how many contours are included in a layer inside one contour when the contour corresponding to the contour number 51 is a closed region. The lower layer contour number 53 is an identification number set for each contour counted by the number 52 of lower layer contours. Thus, the contour information table 241 can store the hierarchical structure of each contour.

次に、投影装置10及び撮影装置20による補正用画像111a〜111fを使用した補正用画像111の投影方法について説明する。概略を説明すると、本実施形態では、投影装置10は、合計で6枚の補正用画像111を、黒色の補正用画像111a、灰色の補正用画像111b、白色の補正用画像111c、大型の市松模様の補正用画像111d、中型の市松模様の補正用画像111e、及び小型の市松模様の補正用画像111fの順で、投影面31に投影する。この際、サイズの異なる市松模様の各補正用画像111d,111e,111fの四角形の角部は、投影時に互いに重ならない位置になっている。投影された補正用画像111(111a〜111f)は、撮影装置20により撮影される。投影装置10は、撮影装置20から撮影画像60(60a〜60f)内のマーカ41の位置の検出結果に応じて次の補正用画像111の投影指示25bを受け、補正用画像111を順次投影する。具体的処理について以下に説明する。   Next, a method for projecting the correction image 111 using the correction images 111a to 111f by the projection device 10 and the photographing device 20 will be described. In brief, in the present embodiment, the projection apparatus 10 includes a total of six correction images 111, a black correction image 111a, a gray correction image 111b, a white correction image 111c, and a large checkered image. The pattern correction image 111d, the medium checkered pattern correction image 111e, and the small checkered pattern correction image 111f are projected onto the projection surface 31 in this order. In this case, the square corners of the checkered images 111d, 111e, and 111f having different sizes are positioned so as not to overlap each other during projection. The projected correction image 111 (111a to 111f) is captured by the imaging device 20. The projection apparatus 10 receives the projection instruction 25b for the next correction image 111 in accordance with the detection result of the position of the marker 41 in the captured image 60 (60a to 60f) from the imaging apparatus 20, and sequentially projects the correction image 111. . Specific processing will be described below.

図6は、取得工程、投影制御工程等を含む投影装置10のフローチャート図である。ステップS101で、画像補正処理部121(処理部12)は、1枚目の補正用画像111aを第一の補正用画像として記憶部11から取得し、投影部13により投影面31に投影させる。第一の補正用画像は、一連の補正用画像111の投影で、撮影装置20に初めにマーカ41を検出させる画像である。本実施形態では、第一の補正用画像である補正用画像111aの測定画像42は、図9のステップS303,S306,S308,S311,S313の一部又は全部のマーカ判定条件に適合しないダミー画像(非マーカ画像)として機能する。従って、撮影装置20がマーカ41と異なる画像をマーカ候補として抽出して処理負荷が増加することを低減することができる。なおマーカ判定条件には、ステップ302の輪郭抽出処理において輪郭抽出がされることを含めてもよい。   FIG. 6 is a flowchart of the projection apparatus 10 including an acquisition process, a projection control process, and the like. In step S <b> 101, the image correction processing unit 121 (processing unit 12) acquires the first correction image 111 a from the storage unit 11 as the first correction image, and causes the projection unit 13 to project the image on the projection surface 31. The first correction image is an image that first causes the photographing apparatus 20 to detect the marker 41 by projecting a series of correction images 111. In the present embodiment, the measurement image 42 of the correction image 111a that is the first correction image is a dummy image that does not meet some or all of the marker determination conditions in steps S303, S306, S308, S311, and S313 of FIG. Functions as (non-marker image). Therefore, it is possible to reduce an increase in processing load caused by the imaging device 20 extracting an image different from the marker 41 as a marker candidate. The marker determination condition may include that contour extraction is performed in the contour extraction process in step 302.

ステップS102で、処理部12は、撮影装置20から次の補正用画像111の投影指示25bを受信したか判定する。処理部12は、次の補正用画像111の投影指示25bを受信した場合(S102,YES)ステップS103の処理に進み、次の補正用画像111の投影指示25bを受信しない場合(S102,NO)ステップS102の判定処理を繰り返す。   In step S <b> 102, the processing unit 12 determines whether the projection instruction 25 b for the next correction image 111 has been received from the imaging device 20. When the processing unit 12 receives the projection instruction 25b for the next correction image 111 (S102, YES), the processing unit 12 proceeds to the process of step S103, and does not receive the projection instruction 25b for the next correction image 111 (S102, NO). The determination process in step S102 is repeated.

ステップS103で、処理部12は、投影指示25bが前回投影した補正用画像111の再投影指示であるか判定する。処理部12は、投影指示25bが再投影指示である場合(S103,YES)ステップS101の処理に戻り、投影指示25bが再投影指示でない場合(S103,NO)ステップS104の処理に進む。   In step S103, the processing unit 12 determines whether the projection instruction 25b is a reprojection instruction for the correction image 111 projected last time. When the projection instruction 25b is a reprojection instruction (S103, YES), the processing unit 12 returns to the process of step S101. When the projection instruction 25b is not a reprojection instruction (S103, NO), the processing unit 12 proceeds to the process of step S104.

ステップS104で、画像補正処理部121(処理部12)は、次の補正用画像111として、前回投影した補正用画像111aの次の補正用画像111b(第二の補正用画像)を記憶部11から取得し、投影部13により投影面31に投影させる。   In step S <b> 104, the image correction processing unit 121 (processing unit 12) stores the next correction image 111 b (second correction image) of the correction image 111 a previously projected as the next correction image 111. And projected onto the projection plane 31 by the projection unit 13.

ステップST1で、画像補正処理部121(処理部12)は、次の補正用画像111として、前回投影した補正用画像111bの次の補正用画像111c(第二の補正用画像)を記憶部11から取得し、投影部13により投影面31に投影させる。   In step ST1, the image correction processing unit 121 (processing unit 12) stores, as the next correction image 111, the next correction image 111c (second correction image) of the correction image 111b projected last time. And projected onto the projection plane 31 by the projection unit 13.

以降、処理部12は、ステップST1の処理を繰り返し、予め定めた順番で、順次補正用画像111d〜111fを第二の補正用画像として記憶部11から取得し、投影部13により投影面31に投影させる。処理部12は、予め定めた各補正用画像111a〜111fを投影すると処理を終了する。   Thereafter, the processing unit 12 repeats the process of step ST1, sequentially acquires the correction images 111d to 111f as second correction images from the storage unit 11 in a predetermined order, and the projection unit 13 causes the projection surface 31 to acquire the correction images. Project. When the processing unit 12 projects the predetermined correction images 111a to 111f, the processing ends.

図7は、検出工程、検出条件設定工程等を含む撮影装置20のフローチャート図である。ステップS201で、処理部22は、撮影部21に補正用画像111a(第一の補正用画像)を撮影させ、補正用画像111aを撮影画像60aとして取得して記憶部24に記憶する。図9(a)に示す撮影画像60aは、補正用画像111aを撮影したときの画像であり、補正用画像111aと、補正用画像111aの周囲の外部領域60a1とを含む。なお撮影画像60aの例では、周辺環境を比較的暗くしているため、外部領域60a1は測定画像42と略同等の黒色の領域として取得される。また、補正用画像111aが投影された2点鎖線で示す領域には、投影面31に形成された模様31aがマーカ41とともに撮影されている。   FIG. 7 is a flowchart of the photographing apparatus 20 including a detection process, a detection condition setting process, and the like. In step S <b> 201, the processing unit 22 causes the photographing unit 21 to photograph the correction image 111 a (first correction image), acquires the correction image 111 a as the photographed image 60 a, and stores it in the storage unit 24. A captured image 60a illustrated in FIG. 9A is an image obtained when the correction image 111a is captured, and includes the correction image 111a and an external region 60a1 around the correction image 111a. In the example of the photographed image 60a, since the surrounding environment is relatively dark, the external region 60a1 is acquired as a black region substantially equivalent to the measurement image 42. In addition, the pattern 31 a formed on the projection surface 31 is photographed together with the marker 41 in the region indicated by the two-dot chain line on which the correction image 111 a is projected.

ステップST21(ST2)で、測定処理部221(処理部22)は、図8で後述のマーカ検出処理を行い、前回取得した補正用画像111aのマーカ41を検出する。本実施形態では、撮影画像60に対し二値化を行ってマーカ41の位置を検出する。そのため、測定画像42を略全面が黒色のダミー画像として投影し、補正用画像111aを第一の補正用画像として投影させると、ステップST21のマーカ検出処理で抽出される輪郭の数を低減させることができ、マーカ検出プログラム242を実行する際の処理負荷を低減させることができる。ステップST21(ST2)では、マーカ検出処理でマーカ41が検出された場合、マーカ41の位置は検出位置情報243として記憶部24に記憶される。   In step ST21 (ST2), the measurement processing unit 221 (processing unit 22) performs a marker detection process described later with reference to FIG. 8, and detects the marker 41 of the correction image 111a acquired last time. In the present embodiment, binarization is performed on the captured image 60 to detect the position of the marker 41. Therefore, when the measurement image 42 is projected as a dummy image having a substantially black surface and the correction image 111a is projected as the first correction image, the number of contours extracted in the marker detection process of step ST21 is reduced. And the processing load when the marker detection program 242 is executed can be reduced. In step ST21 (ST2), when the marker 41 is detected by the marker detection process, the position of the marker 41 is stored in the storage unit 24 as the detection position information 243.

ステップS202で、処理部22は、ステップST21でマーカ41の検出ができたか判定する。処理部22は、マーカ41の検出ができた場合(S202,YES)ステップS203の処理に進み、マーカ41の検出ができない場合(S202,NO)ステップS207の処理に進む。   In step S202, the processing unit 22 determines whether the marker 41 has been detected in step ST21. When the marker 41 can be detected (S202, YES), the processing unit 22 proceeds to the process of step S203, and when the marker 41 cannot be detected (S202, NO), the process proceeds to the process of step S207.

ステップS207で、処理部22は、通信部25を介して補正用画像111aを再投影させるための投影指示25bを投影装置10に送信する。   In step S <b> 207, the processing unit 22 transmits a projection instruction 25 b for reprojecting the correction image 111 a to the projection device 10 via the communication unit 25.

ステップS203で、処理部22は、通信部25を介して次の補正用画像111bを投影させるための投影指示25bを投影装置10に指示する。   In step S203, the processing unit 22 instructs the projection apparatus 10 through the communication unit 25 to provide a projection instruction 25b for projecting the next correction image 111b.

ステップS204で、処理部22は、撮影部21に次の補正用画像111である補正用画像111b(第二の補正用画像)を撮影させ、補正用画像111bを撮影した撮影画像60bを取得して記憶部24に記憶する。   In step S204, the processing unit 22 causes the photographing unit 21 to photograph the correction image 111b (second correction image), which is the next correction image 111, and obtains a photographed image 60b obtained by photographing the correction image 111b. And stored in the storage unit 24.

ステップS205で、測定処理部221(処理部22)は、記憶部24に記憶された補正用画像111aのマーカ41の検出位置情報243を記憶部24から取得する。そして、測定処理部221は、検出位置情報243に基づいて前回のマーカ検出処理でマーカ41が検出された領域周辺を次の補正用画像111bのマーカ検出処理の対象として決定する。   In step S <b> 205, the measurement processing unit 221 (processing unit 22) acquires the detection position information 243 of the marker 41 of the correction image 111 a stored in the storage unit 24 from the storage unit 24. Then, the measurement processing unit 221 determines, based on the detection position information 243, a region around which the marker 41 is detected in the previous marker detection process as a target for the marker detection process of the next correction image 111b.

ステップST22(ST2)で、測定処理部221(処理部22)は、前回取得した補正用画像111bについてステップS205で決定した領域に対して図8で後述のマーカ検出処理を行い、補正用画像111bのマーカ41を検出する。   In step ST22 (ST2), the measurement processing unit 221 (processing unit 22) performs marker detection processing, which will be described later with reference to FIG. 8, on the region determined in step S205 for the correction image 111b acquired last time, and the correction image 111b. The marker 41 is detected.

ステップS206で、処理部22は、ステップST22でマーカ41の検出ができたか判定する。処理部22は、マーカ41の検出ができた場合(S206,YES)ステップST3の処理に進み、マーカ41の検出ができない場合(S206,NO)ステップS208の処理に進む。   In step S206, the processing unit 22 determines whether the marker 41 has been detected in step ST22. When the marker 41 can be detected (S206, YES), the processing unit 22 proceeds to the process of step ST3, and when the marker 41 cannot be detected (S206, NO), the process proceeds to the process of step S208.

ステップS208で、測定処理部221(処理部22)は、前回マーカ検出処理を行った撮影画像60(60b)中の領域を変更する。例えば、測定処理部221は、前回マーカ検出処理を行った撮影画像60b中の対象領域を拡大させることができる。   In step S208, the measurement processing unit 221 (processing unit 22) changes the area in the captured image 60 (60b) on which the previous marker detection processing has been performed. For example, the measurement processing unit 221 can enlarge the target area in the captured image 60b on which the previous marker detection process has been performed.

ステップST3で、処理部22は、ステップS203〜S206,S208の処理を繰り返して、順次撮影される補正用画像111c〜111fを撮影した撮影画像60c〜60fの各マーカ41を検出する。   In step ST <b> 3, the processing unit 22 repeats the processes of steps S <b> 203 to S <b> 206 and S <b> 208 to detect each marker 41 of the captured images 60 c to 60 f obtained by sequentially capturing the correction images 111 c to 111 f.

ステップS209で、測定処理部221は、各撮影画像60a〜60fから検出したマーカ41位置から各撮影画像60a〜60f中の補正用画像111a〜111fの位置を特定する。具体的に、本実施形態では図3に示した補正用画像111a〜111fは、いずれも画像の四隅の同じ位置にマーカ41が配置されているため、測定処理部221は、各補正用画像111a〜111f間のマーカ41の位置ずれを検出することにより補正用画像111a〜111fの平行成分及び回転成分の位置ずれを検出する。撮影装置20は複数の補正用画像111a〜111fの位置ずれを検出してオフセット補正する。これにより、手振れ等によって起こる撮影画像60a〜60f間の補正用画像111a〜111fの位置ずれを補正することができる。測定処理部221は、各撮影画像60a〜60fのマーカ41位置を検出した後、撮影画像60d〜60fにより、市松模様の交点(角部)の座標を検出して、投影装置10が投影した補正用画像111a〜111fの歪み度合いを求めることができる。また、撮影装置20は、撮影画像60a〜60cにより、撮影画像60d〜60fと組み合わせて、投影面31の位置毎の色の変化を求めることができる。測定処理部221は、これらの情報を画像補正情報25aとして生成する。   In step S209, the measurement processing unit 221 specifies the positions of the correction images 111a to 111f in the captured images 60a to 60f from the positions of the markers 41 detected from the captured images 60a to 60f. Specifically, in the present embodiment, the correction images 111a to 111f shown in FIG. 3 are all provided with the markers 41 at the same positions at the four corners of the image. Therefore, the measurement processing unit 221 uses the correction images 111a. By detecting the position shift of the marker 41 between .about.111f, the position shift of the parallel component and the rotation component of the correction images 111a to 111f is detected. The photographing apparatus 20 detects a positional shift between the plurality of correction images 111a to 111f and corrects the offset. As a result, it is possible to correct the misalignment of the correction images 111a to 111f between the captured images 60a to 60f caused by camera shake or the like. After the measurement processing unit 221 detects the position of the marker 41 of each of the captured images 60a to 60f, the measurement processing unit 221 detects the coordinates of the intersection (corner) of the checkered pattern from the captured images 60d to 60f, and the correction that the projection device 10 has projected. The degree of distortion of the work images 111a to 111f can be obtained. Moreover, the imaging device 20 can obtain the color change for each position of the projection surface 31 by combining the captured images 60 d to 60 f with the captured images 60 a to 60 c. The measurement processing unit 221 generates these pieces of information as image correction information 25a.

そして、ステップS210で、測定処理部221は、画像補正情報25aを、通信部25を介して投影装置10へ送信する。これにより、投影装置10は、鑑賞用の画像データを画像補正情報25aに基づき画像補正処理部121で補正して、意図された画像がユーザに視認できるように画像投影することができる。次に、マーカ41の検出処理について説明する。   In step S210, the measurement processing unit 221 transmits the image correction information 25a to the projection device 10 via the communication unit 25. Thereby, the projection apparatus 10 can correct the image data for viewing by the image correction processing unit 121 based on the image correction information 25a, and project the image so that the intended image can be visually recognized by the user. Next, the detection process of the marker 41 will be described.

図8は測定処理部221(処理部22)が実行するマーカ検出プログラムのフローチャート図である。本図では図9(a)の撮影画像60aを処理する例について説明するが、補正用画像111b〜111fを撮影した撮影画像60b〜60fについても図7のステップS205で決定した領域に対して同様に処理することができる。測定処理部221は、まず、記憶部24に記憶された撮影画像60aを読み込む。ステップS301で、測定処理部221は、撮影画像60aを適宜の方法により2値化する撮影画像変換処理を行う。   FIG. 8 is a flowchart of a marker detection program executed by the measurement processing unit 221 (processing unit 22). In this figure, an example in which the captured image 60a in FIG. 9A is processed will be described. However, the captured images 60b to 60f obtained by capturing the correction images 111b to 111f are similar to the region determined in step S205 in FIG. Can be processed. First, the measurement processing unit 221 reads the captured image 60 a stored in the storage unit 24. In step S301, the measurement processing unit 221 performs a captured image conversion process that binarizes the captured image 60a by an appropriate method.

ステップS302で、測定処理部221は、ステップS201で変換した2値化画像から階層情報を持った輪郭抽出処理を行う。輪郭抽出処理は、例えば、OpenCVライブラリのfindContours関数を用いて行うことができる。具体例として、測定処理部221は、2値化画像の黒画素と白画素の境界を輪郭として検出する。図9(b)は、輪郭抽出処理の結果を視覚化した輪郭抽出画像61aを示している。本図の例ではマーカ41に対応する8個の輪郭711〜718と、模様31aに対応する5個の輪郭721〜725が抽出される様子を示している。測定処理部221は、検出した輪郭に、例えば輪郭抽出画像61aの外側から順に識別情報として輪郭番号を設定する。本図では、撮影範囲710内の輪郭711〜714に対し順に輪郭番号a1〜a4が設定される。輪郭711〜714の各内側に抽出された輪郭715〜718に対しても順に輪郭番号a6〜a9が設定される。また、輪郭721に対して輪郭番号a5が設定され、輪郭722〜725に対しては輪郭番号a10〜a13が設定される。   In step S302, the measurement processing unit 221 performs contour extraction processing having hierarchical information from the binarized image converted in step S201. The contour extraction process can be performed using, for example, the findContours function of the OpenCV library. As a specific example, the measurement processing unit 221 detects a boundary between a black pixel and a white pixel of a binarized image as an outline. FIG. 9B shows a contour extraction image 61a obtained by visualizing the result of the contour extraction processing. In the example shown in the figure, eight contours 711 to 718 corresponding to the marker 41 and five contours 721 to 725 corresponding to the pattern 31a are extracted. The measurement processing unit 221 sets contour numbers as identification information in order from the outside of the contour extraction image 61a, for example, to the detected contour. In this figure, contour numbers a1 to a4 are set in order for the contours 711 to 714 in the imaging range 710. Contour numbers a6 to a9 are set in order for the contours 715 to 718 extracted inside the contours 711 to 714, respectively. The contour number a5 is set for the contour 721, and the contour numbers a10 to a13 are set for the contours 722 to 725.

また、測定処理部221は、各輪郭711〜718,721〜725が属する階層の情報として、下位階層輪郭の個数と、下位階層の輪郭番号を、輪郭情報テーブル241の下位階層輪郭個数52及び下位階層輪郭番号53として対応して記憶する。これにより、ある輪郭が他の輪郭による閉じられた領域内に入れ子状に配置される場合の内外の位置関係を把握することができる。   In addition, the measurement processing unit 221 uses the number of lower layer contours and the lower layer contour number as the information of the layers to which the respective contours 711 to 718 and 721 to 725 belong, the lower layer contour number 52 of the contour information table 241, and the lower layer contour numbers. Correspondingly stored as hierarchical contour number 53. As a result, it is possible to grasp the internal / external positional relationship when a certain contour is nested in a closed region of another contour.

ステップS303で、測定処理部221は、マーカ検出のための処理がされていない未処理の輪郭が有るか判定する。測定処理部221は、未処理の輪郭が有る場合(S303,YES)ステップS304の処理に進み、未処理の輪郭が無い場合(S303,NO)処理を終了する。測定処理部221は、初期状態では輪郭711〜718,721〜725の処理が行われていないため(S303,YES)、ステップS304の処理に進む。   In step S303, the measurement processing unit 221 determines whether there is an unprocessed contour that has not been processed for marker detection. When there is an unprocessed contour (S303, YES), the measurement processing unit 221 proceeds to the process of step S304, and when there is no unprocessed contour (S303, NO), the process ends. The measurement processing unit 221 proceeds to the process of step S304 because the processes of the contours 711 to 718 and 721 to 725 are not performed in the initial state (S303, YES).

ステップS304で、測定処理部221は、処理対象の輪郭C0を決定する。測定処理部221は、例えば、輪郭情報テーブル241から輪郭番号51のうち最も数字の値の小さい輪郭番号の輪郭を処理対象の輪郭C0として決定する。輪郭抽出画像61aの例では、初期状態の場合、測定処理部221により、輪郭番号51の中から最も数字の小さい輪郭番号51「a1」の輪郭711が、処理対象の輪郭C0として抽出される。   In step S304, the measurement processing unit 221 determines the contour C0 to be processed. For example, the measurement processing unit 221 determines the contour of the contour number having the smallest numerical value from the contour information table 241 as the contour C0 to be processed. In the example of the contour extraction image 61a, in the initial state, the measurement processing unit 221 extracts the contour 711 having the smallest contour number 51 “a1” from the contour numbers 51 as the contour C0 to be processed.

ステップS305で、測定処理部221は、抽出された輪郭C0に対して、閉領域の設定が可能な直線近似処理を行う。直線近似処理は、例えばOpenCVライブラリのapproxPolyDP関数を用いて行うことができる。図9(c)は、ステップS301〜S304で抽出した輪郭711及び輪郭715の拡大図である。処理対象の輪郭C0が輪郭711の場合、4つの線分711a〜711dで閉じられた四角形状に直線近似される。   In step S <b> 305, the measurement processing unit 221 performs linear approximation processing that can set a closed region on the extracted contour C <b> 0. The straight line approximation process can be performed by using, for example, an approPolyDP function of the OpenCV library. FIG. 9C is an enlarged view of the contour 711 and the contour 715 extracted in steps S301 to S304. When the contour C0 to be processed is a contour 711, it is linearly approximated to a quadrangle closed by four line segments 711a to 711d.

ステップS306で、測定処理部221は、輪郭C0が頂点数「4」の閉じた線分であるか判定する。測定処理部221は、輪郭C0が頂点数「4」であると判定した場合(S306,YES)ステップS307の処理に進み、輪郭C0が頂点数「4」であると判定しない場合(S306,NO)ステップS303の処理に戻る。処理対象の輪郭C0が輪郭711である場合、頂点数は「4」であるため(S306,YES)処理はステップS70へ進む。   In step S306, the measurement processing unit 221 determines whether the contour C0 is a closed line segment having the number of vertices “4”. When the measurement processing unit 221 determines that the contour C0 has the number of vertices “4” (S306, YES), the process proceeds to the process of step S307, and when the contour C0 does not determine that the number of vertices is “4” (S306, NO). ) Return to step S303. If the contour C0 to be processed is the contour 711, the number of vertices is “4” (S306, YES), and the process proceeds to step S70.

ステップS307で、測定処理部221は、処理対象である輪郭C0の内側の一つ下位の階層の輪郭を抽出する。例えば、処理対象の輪郭C0が輪郭711である場合、測定処理部221は、図5の輪郭情報テーブル241を参照し、輪郭番号51「a1」に対応する下位階層輪郭個数52が「1」以上あるか判定し、「1」以上であれば輪郭番号51「a1」に対応する下位階層輪郭番号53「a6」の輪郭715を抽出する。なお、輪郭番号51「a5」のように複数の下位階層輪郭番号53が記憶されている場合は、複数の下位階層輪郭番号が抽出される。また、下位階層輪郭個数52が「0」である場合は下位階層の輪郭番号は抽出されない。   In step S307, the measurement processing unit 221 extracts the contour of the next lower hierarchy inside the contour C0 to be processed. For example, when the contour C0 to be processed is the contour 711, the measurement processing unit 221 refers to the contour information table 241 in FIG. 5 and the number of lower layer contours 52 corresponding to the contour number 51 “a1” is “1” or more. If it is “1” or more, the contour 715 of the lower layer contour number 53 “a6” corresponding to the contour number 51 “a1” is extracted. When a plurality of lower layer contour numbers 53 are stored as in the contour number 51 “a5”, a plurality of lower layer contour numbers are extracted. When the lower layer contour number 52 is “0”, the contour number of the lower layer is not extracted.

ステップS308で、測定処理部221は、ステップS307で抽出した輪郭の中に未処理の輪郭が有るか判定する。測定処理部221は、未処理の輪郭が有ると判定した場合(S308,YES)ステップS309の処理に進み、未処理の輪郭が有ると判定しない場合(S308,NO)ステップS303の処理へ戻る。   In step S308, the measurement processing unit 221 determines whether there is an unprocessed contour in the contour extracted in step S307. If the measurement processing unit 221 determines that there is an unprocessed contour (S308, YES), the process proceeds to step S309, and if it is not determined that there is an unprocessed contour (S308, NO), the process returns to step S303.

ステップS309で、測定処理部221は、輪郭C0の内側にあるステップS307で抽出された輪郭のうち、未処理の輪郭の中から処理対象の輪郭C1を決定する。処理対象の輪郭C1として、未処理の輪郭から最も輪郭番号の小さい輪郭を選択することができる。例えば、ステップS307で輪郭711の内側にある下位階層輪郭番号53「a6」の輪郭715が抽出され、処理が行われていない場合は、輪郭715が処理対象の輪郭C1として決定される。   In step S309, the measurement processing unit 221 determines a processing target contour C1 from unprocessed contours among the contours extracted in step S307 inside the contour C0. As the contour C1 to be processed, the contour with the smallest contour number can be selected from the unprocessed contours. For example, when the contour 715 of the lower layer contour number 53 “a6” inside the contour 711 is extracted in step S307 and no processing is performed, the contour 715 is determined as the processing target contour C1.

ステップS310で、測定処理部221は、ステップS309で決定した輪郭C1に対して、閉領域の設定が可能な直線近似処理を行う。直線近似処理は、ステップS305と同様に、OpenCVライブラリのapproxPolyDP関数を用いて行うことができる。処理対象の輪郭C1が輪郭715であれば、図9(c)に示す3つの線分715a〜715cで閉じられた3角形に直線近似される。   In step S310, the measurement processing unit 221 performs a linear approximation process that can set a closed region on the contour C1 determined in step S309. The straight line approximation process can be performed using the approPolyDP function of the OpenCV library, as in step S305. If the contour C1 to be processed is the contour 715, it is linearly approximated to a triangle closed by three line segments 715a to 715c shown in FIG.

ステップS311で、測定処理部221は、輪郭C1が頂点数「3」の閉じた線分であるか判定する。測定処理部221は、輪郭C1が頂点数「3」であると判定した場合(S311,YES)ステップS312の処理に進み、輪郭C1が頂点数「3」であると判定しない場合(S311,NO)ステップS308の処理に戻る。処理対象の輪郭C1が輪郭715である場合、頂点数は「3」であるため(S311,YES)、処理はステップS312へ進む。   In step S311, the measurement processing unit 221 determines whether the contour C1 is a closed line segment having the number of vertices “3”. When the measurement processing unit 221 determines that the contour C1 has the number of vertices “3” (S311, YES), the process proceeds to the process of step S312 and when the contour C1 does not determine that the number of vertices is “3” (S311, NO) ) Return to the process of step S308. When the contour C1 to be processed is the contour 715, the number of vertices is “3” (S311, YES), and the process proceeds to step S312.

ステップS312で、測定処理部221は、輪郭C0の面積S0と輪郭C1の面積S1を各々算出する。輪郭C0が輪郭711であり、輪郭C1が輪郭715である例では、ステップS312で、頂点数「4」の輪郭711(輪郭C0)の面積S0と、頂点数「3」の輪郭715(輪郭C1)の面積S1が算出される。   In step S312, the measurement processing unit 221 calculates the area S0 of the contour C0 and the area S1 of the contour C1, respectively. In an example in which the contour C0 is the contour 711 and the contour C1 is the contour 715, in step S312, the area S0 of the contour 711 (contour C0) with the number of vertices “4” and the contour 715 (contour C1) with the number of vertices “3”. ) Is calculated.

ステップS313で、測定処理部221は、面積S0を面積S1で除算した値(面積S0と面積S1との比率)が、予め定めた最小面積比Rminより大きく且つ最大面積比Rmaxより小さいか判定する。測定処理部221は、面積S0を面積S1で除算した値が、最小面積比Rminより大きく且つ最大面積比Rmaxより小さい場合(S313,YES)ステップS314の処理に進む。一方、測定処理部221は、面積S0を面積S1で除算した値が、最小面積比Rmin以下又は最大面積比Rmax以上の場合(S313,NO)ステップS308の処理に戻る。最小面積比Rminと最大面積比Rmaxの範囲は、マーカデザイン上の四角形の面積と、三角形の面積を基に、撮影装置20による撮影能力や計測誤差を加味して定めることができる。   In step S313, the measurement processing unit 221 determines whether the value obtained by dividing the area S0 by the area S1 (the ratio between the area S0 and the area S1) is larger than a predetermined minimum area ratio Rmin and smaller than the maximum area ratio Rmax. . If the value obtained by dividing the area S0 by the area S1 is larger than the minimum area ratio Rmin and smaller than the maximum area ratio Rmax (S313, YES), the measurement processing unit 221 proceeds to the process of step S314. On the other hand, if the value obtained by dividing the area S0 by the area S1 is equal to or less than the minimum area ratio Rmin or the maximum area ratio Rmax (S313, NO), the measurement processing unit 221 returns to the process of step S308. The range of the minimum area ratio Rmin and the maximum area ratio Rmax can be determined based on the square area on the marker design and the area of the triangle in consideration of the imaging capability and measurement error of the imaging apparatus 20.

ステップS314で、測定処理部221は、現在選択されている輪郭C0と輪郭C1の組み合わせを、マーカ候補として抽出し、記憶部24に記憶する。   In step S <b> 314, the measurement processing unit 221 extracts the currently selected combination of the contour C <b> 0 and the contour C <b> 1 as a marker candidate and stores it in the storage unit 24.

なお、ステップS304〜S306において処理対象の輪郭C0が図9(b)に示すマーカ41とは無関係の輪郭721(輪郭番号「a5」)である場合、頂点数が「4」であることから、処理はステップS307に進む。ステップS307〜S309では輪郭情報テーブル241の輪郭番号51「a5」に対応する下位階層輪郭番号53から輪郭C1として輪郭番号「a10」又は「a11」に対応する輪郭722又は輪郭723が抽出されるが、輪郭722及び輪郭723はいずれも頂点数が「3」ではないため(S311,NO)、輪郭721と、輪郭722又は輪郭723との組み合わせはマーカ候補からは除かれることになる。   Note that if the contour C0 to be processed is the contour 721 (contour number “a5”) unrelated to the marker 41 shown in FIG. 9B in steps S304 to S306, the number of vertices is “4”. The process proceeds to step S307. In steps S307 to S309, the contour 722 or the contour 723 corresponding to the contour number “a10” or “a11” is extracted as the contour C1 from the lower layer contour number 53 corresponding to the contour number 51 “a5” of the contour information table 241. Since neither the contour 722 nor the contour 723 has the number of vertices “3” (S 311, NO), the combination of the contour 721 and the contour 722 or the contour 723 is excluded from the marker candidates.

同様に、ステップS304〜S306の処理対象の輪郭C0が輪郭722又は輪郭723であっても、それらの内側に配置された輪郭724及び輪郭725が頂点数「3」ではないため(S311,NO)、輪郭722と輪郭724との組み合わせ、及び輪郭723と輪郭725との組み合わせは、マーカ候補からは除かれることになる。   Similarly, even if the contour C0 to be processed in steps S304 to S306 is the contour 722 or the contour 723, the contour 724 and the contour 725 arranged inside them are not the number of vertices “3” (NO in S311). The combination of the contour 722 and the contour 724 and the combination of the contour 723 and the contour 725 are excluded from the marker candidates.

以上のステップS303〜S314により、図9(b)の輪郭抽出画像61aからは、マーカ候補として、輪郭711と輪郭715の組み合わせ、輪郭712と輪郭716の組み合わせ、輪郭713と輪郭717の組み合わせ、及び輪郭714と輪郭718の組み合わせがマーカ41の候補として抽出される。測定処理部221は、抽出された4つのマーカ候補を投影装置10が投影したマーカ41として判定することができる。   Through the above steps S303 to S314, from the contour extracted image 61a of FIG. 9B, as a marker candidate, a combination of a contour 711 and a contour 715, a combination of a contour 712 and a contour 716, a combination of a contour 713 and a contour 717, and A combination of the contour 714 and the contour 718 is extracted as a candidate for the marker 41. The measurement processing unit 221 can determine the extracted four marker candidates as the marker 41 projected by the projection apparatus 10.

測定処理部221は、補正用画像111b〜111fを撮影した残りの撮影画像60b〜60fについても同様にステップS301〜S314のマーカ検出処理を行う。   The measurement processing unit 221 similarly performs the marker detection processing in steps S301 to S314 for the remaining captured images 60b to 60f obtained by capturing the correction images 111b to 111f.

なお、図8の処理の後に、ステップS301〜S314で抽出したマーカ候補を、別途の判定手段により更に絞り込み、画像位置識別用のマーカ41と判定する構成としてもよい。例えば、測定処理部221は、ステップS314でマーカ候補として抽出された輪郭C0及び輪郭C1の組み合わせ(例えば輪郭711及び輪郭715)を最終的に補正用画像111a〜111f間の画像位置調整に使用するか判定することができる。判定方法としては、以下の(1)線分長さによる判定や、(2)線分の傾きによる判定を用いることができる。   In addition, after the process of FIG. 8, it is good also as a structure which further narrows down the marker candidate extracted by step S301-S314 by the separate determination means, and determines with the marker 41 for image position identification. For example, the measurement processing unit 221 finally uses the combination of the contour C0 and the contour C1 (for example, the contour 711 and the contour 715) extracted as the marker candidates in step S314 for image position adjustment between the correction images 111a to 111f. Can be determined. As a determination method, the following (1) determination by line segment length and (2) determination by inclination of a line segment can be used.

(1)線分長さによる判定
線分長さによる判定では、測定処理部221は、まず、輪郭711及び輪郭715の各線分711a〜711d,715a〜715cの長さを算出する。測定処理部221は、各線分711a〜711d,715a〜715cの長さが予め定めた閾値範囲である場合にマーカとして判定することができる。線分711a〜711dと線分715a〜715cとに適用される閾値範囲はそれぞれ異なる範囲に設定することができる。各線分711a〜711d,715a〜715cに適用される閾値範囲は、輪郭711や輪郭715で各々異なっていてもよい。なお、線分長さによる判定では、各線分711a〜711d,715a〜715cの相対的な長さに基づいて閾値範囲を定めてもよい。
(1) Determination by Line Segment Length In determination by line segment length, the measurement processing unit 221 first calculates the lengths of the line segments 711a to 711d and 715a to 715c of the contour 711 and the contour 715. The measurement processing unit 221 can determine as a marker when the lengths of the line segments 711a to 711d and 715a to 715c are within a predetermined threshold range. The threshold ranges applied to the line segments 711a to 711d and the line segments 715a to 715c can be set to different ranges. The threshold ranges applied to the line segments 711a to 711d and 715a to 715c may be different for the contour 711 and the contour 715, respectively. In the determination by the line segment length, the threshold range may be determined based on the relative length of each of the line segments 711a to 711d and 715a to 715c.

(2)線分の傾きによる判定
線分の傾きによる判定では、測定処理部221は、各線分711a〜711d,715a〜715cの傾きが予め定めた閾値範囲内である場合にマーカ41として判定することができる。各線分711a〜711d,715a〜715cに適用される閾値範囲は、各々異なっていてもよい。また、閾値範囲は、ある線分の特定の他の線分との相対的な傾きにより定めることができる。例えば、第1の多角形43の一つの線分は、少なくとも第2の多角形44の各線分と平行でない場合に、マーカであると判定することができる。図9(c)の例では、第1の多角形43の輪郭711の一つの線分711a,711bと、第2の多角形44の輪郭715の線分715cとは略平行であるが、第1の多角形43の輪郭711の一つの線分711c,711dと、第2の多角形44の輪郭715の線分715a〜715cとは平行な関係に無いため、輪郭711と輪郭715の組み合わせがマーカであると判定することができる。
(2) Determination by Line Segment Inclination In determination by line segment inclination, the measurement processing unit 221 determines the marker 41 when the inclination of each of the line segments 711a to 711d and 715a to 715c is within a predetermined threshold range. be able to. The threshold ranges applied to the line segments 711a to 711d and 715a to 715c may be different from each other. The threshold range can be determined by a relative inclination with respect to a specific other line segment. For example, if one line segment of the first polygon 43 is not parallel to at least each line segment of the second polygon 44, it can be determined that it is a marker. In the example of FIG. 9C, one line segment 711a, 711b of the outline 711 of the first polygon 43 and the line segment 715c of the outline 715 of the second polygon 44 are substantially parallel. Since one line segment 711c, 711d of the outline 711 of one polygon 43 and the line segments 715a to 715c of the outline 715 of the second polygon 44 are not in a parallel relationship, the combination of the outline 711 and the outline 715 is It can be determined that it is a marker.

また、上述した線分長さによる判定と線分の傾きによる判定を組み合わせて、画像位置調整用のマーカとして使用するか判定を行ってもよい。   Further, it may be determined whether to use as a marker for image position adjustment by combining the determination based on the line segment length and the determination based on the inclination of the line segment.

以上のように、マーカを抽出すれば、補正用画像111に配置した数と異なる数のマーカ候補が抽出された場合や、撮影画像のマーカ41が不鮮明な位置や形状で検出された場合、そのマーカ候補を取り除くことができる。このようにマーカ41の検出精度を高めて補正用画像111間の位置補正の精度を向上させることができる。   As described above, if a marker is extracted, a number of marker candidates different from the number arranged in the correction image 111 are extracted, or if the marker 41 of the captured image is detected in an unclear position or shape, Marker candidates can be removed. Thus, the detection accuracy of the marker 41 can be increased and the accuracy of position correction between the correction images 111 can be improved.

なお、ステップS207の投影指示25bは、前回投影した補正用画像111aを再度投影させるための指示であってもよいし、第一の補正用画像としてマーカ41を検出させるための異なる画像を投影させる指示であってもよい。例えば、処理部22は、投影指示25bとして、略全面が白色である測定画像42を有した補正用画像111cを投影させる指示を投影装置10に送信してもよい。補正用画像111cを撮影した撮影画像60にステップST2のマーカ検出処理を実施しても、抽出される輪郭の数を低減させることができ、マーカ検出プログラム242を実行する際の処理負荷を低減させることができる。   Note that the projection instruction 25b in step S207 may be an instruction for re-projecting the previously-corrected correction image 111a, or a different image for projecting the marker 41 is projected as the first correction image. It may be an instruction. For example, the processing unit 22 may transmit, as the projection instruction 25b, an instruction to project the correction image 111c having the measurement image 42 whose substantially entire surface is white to the projection apparatus 10. Even if the marker detection process of step ST2 is performed on the captured image 60 obtained by capturing the correction image 111c, the number of extracted contours can be reduced, and the processing load when the marker detection program 242 is executed is reduced. be able to.

また、本実施形態では、投影装置10が1枚目の補正用画像111aを投影した後の補正用画像111b〜111fを連続して投影する方法(図6のステップST1参照)について説明したが、補正用画像111b〜111cは投影装置10が投影指示25bを受信する毎に1枚ずつ投影される構成としてもよい。また、第一の補正用画像の略全面に配置させるマーカ検出条件に適合しないダミー画像としては、補正用画像111aの黒画像や補正用画像111cの白画像等の無地の単一色画像の他にブルーノイズ画像や、検出されるマーカの形状・サイズから大きく異なる模様のノイズ画像を配置させてもよい。   In the present embodiment, the method of continuously projecting the correction images 111b to 111f after the projection device 10 projects the first correction image 111a (see step ST1 in FIG. 6) has been described. The correction images 111b to 111c may be projected one by one every time the projection apparatus 10 receives the projection instruction 25b. In addition to the plain single color image such as the black image of the correction image 111a and the white image of the correction image 111c, the dummy image that does not conform to the marker detection condition arranged on the substantially entire surface of the first correction image. A blue noise image or a noise image having a pattern greatly different from the shape and size of the detected marker may be arranged.

また、本実施形態では、第一の補正用画像の略全面に配置させるマーカ検出条件に適合しないダミー画像としては、補正用画像111aの黒画像を用いるように例示したが、ノイズ画像と選択的に投影されるように構成しても良い。例えば、投影装置10の操作部14を介して検出されるユーザの入力操作に応じて選択されてもよく、通信手段を介して接続される外部装置からの入力操作によって選択されても良い。また、投影装置10が照度センサを備え、照度センサの検出結果から周囲の環境が暗いと判断される場合は補正用画像111aの黒画像とマーカ画像とを投影させ、周囲の環境が明るいと判断される場合は、ノイズ画像とマーカ画像とを投影させるように構成しても良い。   In the present embodiment, the black image of the correction image 111a is used as the dummy image that does not conform to the marker detection condition that is arranged on the substantially entire surface of the first correction image. You may comprise so that it may project on. For example, it may be selected according to a user input operation detected via the operation unit 14 of the projection apparatus 10 or may be selected by an input operation from an external device connected via a communication unit. In addition, when the projection apparatus 10 includes an illuminance sensor and it is determined that the surrounding environment is dark from the detection result of the illuminance sensor, the black image and the marker image of the correction image 111a are projected, and the surrounding environment is determined to be bright. In such a case, the noise image and the marker image may be projected.

このように構成することで、周囲が十分暗い場合は黒画像を投影することで投影面の模様の影響を抑えることが出来、周囲が明るい場合はノイズ画像を投影させることで投影面の模様を検出しづらくすることが出来る。   With this configuration, when the surroundings are sufficiently dark, the effect of the pattern on the projection surface can be suppressed by projecting a black image, and when the surroundings are bright, the noise image is projected to project the pattern on the projection surface. It can be difficult to detect.

また、抽出された第1の多角形43と第2の多角形44をマーカ41候補として絞り込む条件としては、面積S0と面積S1との比率による判定、線分長さによる判定、及び線分の傾きによる判定のいずれか一つ又は複数を組み合わせて行うことができる。   The conditions for narrowing down the extracted first polygon 43 and second polygon 44 as candidates for the marker 41 include determination based on the ratio between the area S0 and the area S1, determination based on the line segment length, and line segment Any one or more of the determinations based on the inclination can be performed in combination.

また、本実施形態では、撮影装置20がマーカ検出プログラム242を備えて図6のマーカ検出処理を実行する例について説明したが、マーカ検出プログラム242は、投影装置10に記憶されており、撮影装置20が撮影した撮影画像60を投影装置10に送信することで、投影装置10が図6のマーカ検出処理を実行してもよい。この場合、次の補正用画像111を投影するか否かは投影装置10が判定することができる。   Further, in the present embodiment, the example in which the imaging device 20 includes the marker detection program 242 and executes the marker detection processing of FIG. 6 has been described, but the marker detection program 242 is stored in the projection device 10 and the imaging device. The projection apparatus 10 may execute the marker detection process of FIG. 6 by transmitting the captured image 60 captured by the 20 to the projection apparatus 10. In this case, the projection apparatus 10 can determine whether or not to project the next correction image 111.

また、本実施形態では、マーカ41について、第1の多角形43を黒色の枠状で内部を白色に形成し第2の多角形44を黒色に形成したが、各色を白黒反転させて、第1の多角形43を白色の枠状で内部を黒色に形成し第2の多角形44を白色に形成してもよい。   Further, in the present embodiment, the first polygon 43 is formed in a black frame shape and the inside is formed in white and the second polygon 44 is formed in black for the marker 41. One polygon 43 may be formed in a white frame shape with a black interior, and the second polygon 44 may be formed in white.

また、投影装置10は、投影手段としての投影部13と、投影制御装置と、を備える構成とすることもできる。これにより、種々の態様で投影システム1を構成することができる。   Moreover, the projection apparatus 10 can also be configured to include a projection unit 13 as a projection unit and a projection control apparatus. Thereby, the projection system 1 can be comprised in various aspects.

以上説明したように、本実施形態の投影制御装置(投影装置10)は、位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像とマーカ画像とを含む第二の補正用画像を取得する取得手段と、第一の補正用画像及び第二の補正用画像を投影対象に投影可能な投影手段を制御する投影制御手段と、投影手段により投影された第一の補正用画像及び第二の補正用画像の撮影画像からマーカ画像を検出可能な検出手段と、検出手段により検出された第一の補正用画像のマーカ画像の検出結果に基づいて、第二の補正用画像におけるマーカ画像の検出条件を設定する検出条件設定手段と、を備える。これにより、第一の補正用画像で初めてマーカ41を検出する際の処理負荷を低減しながら各補正用画像111のマーカ41を確実に検出させることができ、専用のスクリーン以外の投影対象に画像を投影させる場合であっても、初期設定を簡易に実行することができる。   As described above, the projection control apparatus (projection apparatus 10) of the present embodiment includes the first correction image including the marker image for position detection and the non-marker image, and the measurement image for image correction. An acquisition unit that acquires a second correction image including a marker image, a projection control unit that controls a projection unit that can project the first correction image and the second correction image onto a projection target, and a projection unit A detection unit capable of detecting a marker image from the first correction image and the second correction image projected by the detection unit, and a detection result of the marker image of the first correction image detected by the detection unit. And a detection condition setting means for setting a detection condition for the marker image in the second correction image. This makes it possible to reliably detect the marker 41 of each correction image 111 while reducing the processing load when the marker 41 is detected for the first time in the first correction image, and to image the projection target other than the dedicated screen. Even when projecting, the initial setting can be easily executed.

また、非マーカ画像が色補正のための黒画像である投影装置10は、第一の補正用画像を撮影させることで、初回のマーカ41の検出を容易としながら、色補正も行うことができる。したがって、プログラムの処理負荷を軽減させることができる。   Further, the projection device 10 in which the non-marker image is a black image for color correction can perform color correction while facilitating the detection of the first marker 41 by capturing the first correction image. . Therefore, the processing load of the program can be reduced.

また、画像補正が色補正又は形状補正である投影装置10は、複数の補正用画像111を用いて鑑賞用の画像の補正を精度良く行うことができる。   In addition, the projection device 10 in which the image correction is color correction or shape correction can accurately correct an image for viewing using a plurality of correction images 111.

また、第一の補正用画像のマーカ画像と、第二の補正用画像のマーカ画像とが、同じ位置に配置され、検出手段が第一の補正用画像のマーカ画像を検出した領域を対象に第二の補正用画像のマーカ画像の検出処理を行う投影装置10は、予めマーカ41が存在する可能性の高い領域に絞ってマーカ検出処理を実行すればよいため、プログラムの処理負荷を低減させることができる。   Further, the marker image of the first correction image and the marker image of the second correction image are arranged at the same position, and the detection means detects the marker image of the first correction image. The projection apparatus 10 that performs the detection process of the marker image of the second correction image only needs to execute the marker detection process by narrowing down to a region where the marker 41 is likely to exist in advance, thereby reducing the processing load of the program. be able to.

また、検出手段が第二の補正用画像のマーカ画像が検出されない場合、第二の補正用画像のマーカ検出処理の対象領域を拡大してマーカ画像の検出処理を行う投影装置10は、投影装置10が再度第二の補正用画像を投影しなくとも第二の補正用画像からマーカを検出させることができる。   Further, when the detection unit does not detect the marker image of the second correction image, the projection device 10 that performs the marker image detection processing by enlarging the target region of the marker detection processing of the second correction image is the projection device The marker 10 can be detected from the second correction image without projecting the second correction image again.

また、投影制御手段が検出手段により第一の補正用画像のマーカ画像が検出されない場合、第一の補正用画像を白黒反転させた補正用画像を投影させるように投影手段を制御する投影制御装置は、初回のマーカ41の検出を容易としながら異なる配色により構成された補正用画像111を、同じ判定処理によりマーカ41の検出をさせることができる。   In addition, when the projection control unit does not detect the marker image of the first correction image by the detection unit, the projection control device controls the projection unit to project the correction image obtained by reversing the first correction image in black and white. Makes it possible to detect the marker 41 by the same determination process for the correction image 111 configured with different color schemes while facilitating the detection of the first marker 41.

また、非マーカ画像がマーカ判定条件の一部又は全部に適合しない画像であることを特徴とする投影装置10は、マーカ41として検出されない多様な態様の画像をダミー画像として配置させることができ、マーカ検出時に誤検出される可能性を低減出来る。   Further, the projection device 10 characterized in that the non-marker image is an image that does not match a part or all of the marker determination conditions, and can arrange various forms of images that are not detected as the marker 41 as dummy images, The possibility of erroneous detection during marker detection can be reduced.

なお、以上説明した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の趣旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The embodiment described above is presented as an example, and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願出願の最初の特許請求の範囲に記載された発明を付記する。
[1] 位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得する取得手段と、
前記第一の補正用画像及び前記第二の補正用画像を投影対象に投影可能な投影手段を制御する投影制御手段と、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像の撮影画像から前記マーカ画像を検出可能な検出手段と、
前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段と、
を備えることを特徴とする投影制御装置。
[2] 前記非マーカ画像は、ブルーノイズ画像、検出されるマーカの形状・サイズから大きく異なる模様のノイズ画像、及び無地の単一色画像の少なくとも一つを含むことを特徴とする上記[1]に記載の投影制御装置。
[3] 前記非マーカ画像は、色補正のための黒画像であることを特徴とする上記[1]又は上記[2]に記載の投影制御装置。
[4] 前記画像補正は、色補正又は形状補正であることを特徴とする上記[1]乃至上記[3]の何れかに記載の投影制御装置。
[5] 前記第一の補正用画像の前記マーカ画像と、前記第二の補正用画像の前記マーカ画像とは、同じ位置に配置され、
前記検出手段は、前記第一の補正用画像の前記マーカ画像を検出した領域を対象に、前記第二の補正用画像の前記マーカ画像の検出処理を行う、
ことを特徴とする上記[1]乃至上記[4]の何れかに記載の投影制御装置。
[6] 前記検出手段は、前記第二の補正用画像の前記マーカ画像が検出されない場合、前記第二の補正用画像のマーカ検出処理の対象領域を拡大して前記マーカ画像の検出処理を行うことを特徴とする上記[1]乃至上記[5]の何れかに記載の投影制御装置。
[7] 前記投影制御手段は、前記検出手段により前記第一の補正用画像の前記マーカ画像が検出されない場合、前記第一の補正用画像を白黒反転させた補正用画像を投影させるように前記投影手段を制御する、ことを特徴とする上記[1]乃至上記[6]の何れかに記載の投影制御装置。
[8] 前記非マーカ画像は、マーカ判定条件の一部又は全部に適合しない画像であることを特徴とする上記[1]乃至上記[7]の何れかに記載の投影制御装置。
[9] 上記[1]乃至[8]の何れかに記載の投影制御装置と、
前記投影手段と、
を備えることを特徴とする投影装置。
[10] 位置検出用のマーカ画像と、非マーカ画像を含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得工程と、
前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御工程と、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出工程と、
前記検出工程で検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定工程と、
を含むことを特徴とする補正用画像投影方法。
[11] コンピュータが実行するプログラムであって、前記コンピュータを、
位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得手段、
前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御手段、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出手段、及び
前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段、
として機能させることを特徴とするプログラム。
The invention described in the first claim of the present application will be appended below.
[1] Acquisition means for acquiring a first correction image including a marker image for position detection and a non-marker image, and a second correction image including a measurement image for image correction and the marker image When,
A projection control means for controlling a projection means capable of projecting the first correction image and the second correction image onto a projection target;
Detection means capable of detecting the marker image from the captured images of the first correction image and the second correction image projected by the projection means;
Detection condition setting means for setting a detection condition for the marker image in the second correction image based on a detection result of the marker image of the first correction image detected by the detection means;
A projection control apparatus comprising:
[2] The above [1], wherein the non-marker image includes at least one of a blue noise image, a noise image having a pattern greatly different from the shape and size of the detected marker, and a plain single color image. The projection control apparatus described in 1.
[3] The projection control apparatus according to [1] or [2], wherein the non-marker image is a black image for color correction.
[4] The projection control apparatus according to any one of [1] to [3], wherein the image correction is color correction or shape correction.
[5] The marker image of the first correction image and the marker image of the second correction image are arranged at the same position,
The detection means performs a process of detecting the marker image of the second correction image for a region where the marker image of the first correction image is detected.
The projection control apparatus according to any one of [1] to [4] above, wherein
[6] When the marker image of the second correction image is not detected, the detection unit enlarges a target area of the marker detection process of the second correction image and performs the marker image detection process. The projection control apparatus according to any one of [1] to [5] above, wherein
[7] When the detection unit does not detect the marker image of the first correction image, the projection control unit projects the correction image obtained by reversing the first correction image in black and white. The projection control apparatus according to any one of [1] to [6], wherein the projection unit is controlled.
[8] The projection control apparatus according to any one of [1] to [7], wherein the non-marker image is an image that does not match a part or all of the marker determination conditions.
[9] The projection control device according to any one of [1] to [8],
The projection means;
A projection apparatus comprising:
[10] The acquisition unit acquires a marker image for position detection, a first correction image including a non-marker image, and a second correction image including a measurement image for image correction and the marker image. Acquisition process;
A projection control step of projecting the first correction image and the second correction image onto a projection target by a projection unit;
A detection step of detecting the marker image from the first correction image and the second correction image projected by the projection means;
A detection condition setting step of setting a detection condition of the marker image in the second correction image based on the detection result of the marker image of the first correction image detected in the detection step;
An image projection method for correction, comprising:
[11] A program executed by a computer, wherein the computer is
Acquisition means for acquiring a first correction image including a marker image for position detection and a non-marker image, and a second correction image including a measurement image for image correction and the marker image. ,
A projection control means for projecting the first correction image and the second correction image onto a projection target by a projection means;
Detection means for detecting the marker image from the first correction image and the second correction image projected by the projection means, and the marker of the first correction image detected by the detection means Detection condition setting means for setting a detection condition for the marker image in the second correction image based on the detection result of the image;
A program characterized by functioning as

1 投影システム 10 投影装置
11 記憶部 12 処理部
13 投影部 14 操作部
15 通信部 16 音声処理部
17 スピーカ 20 撮影装置
21 撮影部 22 処理部
23 入出力制御部 24 記憶部
25 通信部 25a 画像補正情報
25b 投影指示 30 投影対象物
31 投影面 41 マーカ
42 測定画像 43 第1の多角形
44 第2の多角形 51 輪郭番号
52 下位階層輪郭個数 53 下位階層輪郭番号
60(60a〜60f) 撮影画像 60a1 外部領域
61a 輪郭抽出画像 111 補正用画像
111a〜111f 補正用画像 112 制御プログラム
121 画像補正処理部 221 測定処理部
231 操作ボタン 232 表示装置
241 輪郭情報テーブル 242 マーカ検出プログラム
243 検出位置情報 431a〜431d 縁辺
432a〜432d 縁辺 441a〜441c 縁辺
710 撮影範囲 711〜715 輪郭
711a〜711d 線分 715a〜715c 線分
716 輪郭 717 輪郭
718 輪郭
C0 輪郭 C1 輪郭
Rmax 最大面積比 Rmin 最小面積比
S0 面積 S1 面積
DESCRIPTION OF SYMBOLS 1 Projection system 10 Projection apparatus 11 Memory | storage part 12 Processing part 13 Projection part 14 Operation part 15 Communication part 16 Audio | voice processing part 17 Speaker 20 Imaging device 21 Imaging part 22 Processing part 23 Input / output control part 24 Storage part 25 Communication part 25a Image correction Information 25b Projection instruction 30 Projection object 31 Projection surface 41 Marker 42 Measurement image 43 First polygon 44 Second polygon 51 Contour number 52 Number of lower layer contours 53 Lower layer contour number 60 (60a to 60f) Captured image 60a1 External area 61a Contour extraction image 111 Correction image 111a to 111f Correction image 112 Control program 121 Image correction processing unit 221 Measurement processing unit 231 Operation buttons 232 Display device 241 Contour information table 242 Marker detection program 243 Detection position information 431a to 431d 432a-4 2d edge 441a~441c edge 710 shooting range 711-715 contour 711a~711d segment 715a~715c segment 716 contours 717 outline 718 contour C0 contour C1 contour Rmax maximum area ratio Rmin minimum area ratio S0 area S1 area

Claims (11)

位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得する取得手段と、
前記第一の補正用画像及び前記第二の補正用画像を投影対象に投影可能な投影手段を制御する投影制御手段と、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像の撮影画像から前記マーカ画像を検出可能な検出手段と、
前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段と、
を備えることを特徴とする投影制御装置。
An acquisition means for acquiring a first correction image including a marker image for position detection and a non-marker image, and a second correction image including a measurement image for image correction and the marker image;
A projection control means for controlling a projection means capable of projecting the first correction image and the second correction image onto a projection target;
Detection means capable of detecting the marker image from the captured images of the first correction image and the second correction image projected by the projection means;
Detection condition setting means for setting a detection condition for the marker image in the second correction image based on a detection result of the marker image of the first correction image detected by the detection means;
A projection control apparatus comprising:
前記非マーカ画像は、ブルーノイズ画像、検出されるマーカの形状・サイズから大きく異なる模様のノイズ画像、及び無地の単一色画像の少なくとも一つを含むことを特徴とする請求項1に記載の投影制御装置。   2. The projection according to claim 1, wherein the non-marker image includes at least one of a blue noise image, a noise image having a pattern greatly different from the shape and size of the detected marker, and a plain single color image. Control device. 前記非マーカ画像は、色補正のための黒画像であることを特徴とする請求項1又は請求項2に記載の投影制御装置。   The projection control apparatus according to claim 1, wherein the non-marker image is a black image for color correction. 前記画像補正は、色補正又は形状補正であることを特徴とする請求項1乃至請求項3の何れかに記載の投影制御装置。   The projection control apparatus according to claim 1, wherein the image correction is color correction or shape correction. 前記第一の補正用画像の前記マーカ画像と、前記第二の補正用画像の前記マーカ画像とは、同じ位置に配置され、
前記検出手段は、前記第一の補正用画像の前記マーカ画像を検出した領域を対象に、前記第二の補正用画像の前記マーカ画像の検出処理を行う、
ことを特徴とする請求項1乃至請求項4の何れかに記載の投影制御装置。
The marker image of the first correction image and the marker image of the second correction image are arranged at the same position,
The detection means performs a process of detecting the marker image of the second correction image for a region where the marker image of the first correction image is detected.
The projection control apparatus according to claim 1, wherein the projection control apparatus is a projection control apparatus.
前記検出手段は、前記第二の補正用画像の前記マーカ画像が検出されない場合、前記第二の補正用画像のマーカ検出処理の対象領域を拡大して前記マーカ画像の検出処理を行うことを特徴とする請求項1乃至請求項5の何れかに記載の投影制御装置。   When the marker image of the second correction image is not detected, the detection unit performs the marker image detection process by enlarging a target area of the marker detection process of the second correction image. The projection control apparatus according to claim 1. 前記投影制御手段は、前記検出手段により前記第一の補正用画像の前記マーカ画像が検出されない場合、前記第一の補正用画像を白黒反転させた補正用画像を投影させるように前記投影手段を制御する、ことを特徴とする請求項1乃至請求項6の何れかに記載の投影制御装置。   The projection control unit causes the projection unit to project a correction image obtained by reversing the first correction image in black and white when the detection unit does not detect the marker image of the first correction image. The projection control apparatus according to claim 1, wherein the projection control apparatus controls the projection control apparatus. 前記非マーカ画像は、マーカ判定条件の一部又は全部に適合しない画像であることを特徴とする請求項1乃至請求項7の何れかに記載の投影制御装置。   The projection control apparatus according to claim 1, wherein the non-marker image is an image that does not meet some or all of the marker determination conditions. 請求項1乃至8の何れかに記載の投影制御装置と、
前記投影手段と、
を備えることを特徴とする投影装置。
A projection control device according to any one of claims 1 to 8,
The projection means;
A projection apparatus comprising:
位置検出用のマーカ画像と、非マーカ画像を含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得工程と、
前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御工程と、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出工程と、
前記検出工程で検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定工程と、
を含むことを特徴とする補正用画像投影方法。
An acquisition step of acquiring, by an acquisition means, a marker image for position detection, a first correction image including a non-marker image, and a second correction image including a measurement image for image correction and the marker image; ,
A projection control step of projecting the first correction image and the second correction image onto a projection target by a projection unit;
A detection step of detecting the marker image from the first correction image and the second correction image projected by the projection means;
A detection condition setting step of setting a detection condition of the marker image in the second correction image based on the detection result of the marker image of the first correction image detected in the detection step;
An image projection method for correction, comprising:
コンピュータが実行するプログラムであって、前記コンピュータを、
位置検出用のマーカ画像と、非マーカ画像とを含む第一の補正用画像、及び画像補正のための測定画像と前記マーカ画像とを含む第二の補正用画像を取得手段により取得する取得手段、
前記第一の補正用画像及び前記第二の補正用画像を投影手段により投影対象に投影する投影制御手段、
前記投影手段により投影された前記第一の補正用画像及び前記第二の補正用画像から前記マーカ画像を検出する検出手段、及び
前記検出手段により検出された前記第一の補正用画像の前記マーカ画像の検出結果に基づいて、前記第二の補正用画像における前記マーカ画像の検出条件を設定する検出条件設定手段、
として機能させることを特徴とするプログラム。
A program executed by a computer, wherein the computer is
Acquisition means for acquiring a first correction image including a marker image for position detection and a non-marker image, and a second correction image including a measurement image for image correction and the marker image. ,
A projection control means for projecting the first correction image and the second correction image onto a projection target by a projection means;
Detection means for detecting the marker image from the first correction image and the second correction image projected by the projection means, and the marker of the first correction image detected by the detection means Detection condition setting means for setting a detection condition for the marker image in the second correction image based on the detection result of the image;
A program characterized by functioning as
JP2018057992A 2018-03-26 2018-03-26 Projection control device, projection device, correction image projection method, and program Pending JP2019169913A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018057992A JP2019169913A (en) 2018-03-26 2018-03-26 Projection control device, projection device, correction image projection method, and program
JP2022191155A JP7371753B2 (en) 2018-03-26 2022-11-30 Projection control device, projection device, correction image projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057992A JP2019169913A (en) 2018-03-26 2018-03-26 Projection control device, projection device, correction image projection method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022191155A Division JP7371753B2 (en) 2018-03-26 2022-11-30 Projection control device, projection device, correction image projection method and program

Publications (1)

Publication Number Publication Date
JP2019169913A true JP2019169913A (en) 2019-10-03

Family

ID=68108594

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018057992A Pending JP2019169913A (en) 2018-03-26 2018-03-26 Projection control device, projection device, correction image projection method, and program
JP2022191155A Active JP7371753B2 (en) 2018-03-26 2022-11-30 Projection control device, projection device, correction image projection method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022191155A Active JP7371753B2 (en) 2018-03-26 2022-11-30 Projection control device, projection device, correction image projection method and program

Country Status (1)

Country Link
JP (2) JP2019169913A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022146116A (en) * 2021-03-22 2022-10-05 カシオ計算機株式会社 Terminal device, projection system, and program
JP2024505088A (en) * 2021-02-01 2024-02-02 ドルビー ラボラトリーズ ライセンシング コーポレイション Projection system and method with dynamic target geometry

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329418A (en) * 1996-06-12 1997-12-22 Topcon Corp Camera calibration method
JP2015056834A (en) * 2013-09-13 2015-03-23 株式会社リコー Projection system, image processing system, projection method and program
JP2015092205A (en) * 2013-09-30 2015-05-14 株式会社ソニー・コンピュータエンタテインメント Image projection system and card
JP6275312B1 (en) * 2017-06-02 2018-02-07 キヤノン株式会社 Projection apparatus, control method therefor, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219324A (en) * 2002-01-17 2003-07-31 Olympus Optical Co Ltd Image correction data calculation method, image correction data calculation apparatus, and multi- projection system
JP5598033B2 (en) * 2010-03-15 2014-10-01 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2015026992A (en) * 2013-07-26 2015-02-05 株式会社リコー Projection system, image processing device, projection method, and program
JP6417690B2 (en) * 2014-01-21 2018-11-07 セイコーエプソン株式会社 Projector, display device, and projector control method
JP6554873B2 (en) * 2015-03-31 2019-08-07 株式会社リコー Projection system, image processing apparatus, calibration method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329418A (en) * 1996-06-12 1997-12-22 Topcon Corp Camera calibration method
JP2015056834A (en) * 2013-09-13 2015-03-23 株式会社リコー Projection system, image processing system, projection method and program
JP2015092205A (en) * 2013-09-30 2015-05-14 株式会社ソニー・コンピュータエンタテインメント Image projection system and card
JP6275312B1 (en) * 2017-06-02 2018-02-07 キヤノン株式会社 Projection apparatus, control method therefor, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024505088A (en) * 2021-02-01 2024-02-02 ドルビー ラボラトリーズ ライセンシング コーポレイション Projection system and method with dynamic target geometry
JP2022146116A (en) * 2021-03-22 2022-10-05 カシオ計算機株式会社 Terminal device, projection system, and program
JP7714891B2 (en) 2021-03-22 2025-07-30 カシオ計算機株式会社 Terminal device, projection system and program

Also Published As

Publication number Publication date
JP7371753B2 (en) 2023-10-31
JP2023021165A (en) 2023-02-09

Similar Documents

Publication Publication Date Title
KR100796849B1 (en) How to take panoramic mosaic photos for mobile devices
US10349023B2 (en) Image processing apparatus and method
US8003927B2 (en) Image projection apparatus which projects an image corrected according to a projection surface
US10026207B2 (en) Image display device, image display method and storage medium
JP5420365B2 (en) Projection device
CN106605195B (en) Communication device and control method of communication device
CN112272292B (en) Projection correction method, apparatus and storage medium
JP6942940B2 (en) Image processing equipment, image processing methods and programs
JP2014192808A (en) Projection apparatus and program
JP7371753B2 (en) Projection control device, projection device, correction image projection method and program
JP6784944B2 (en) Projection control device, marker detection method and program
JP2013198062A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2018125819A (en) Control device, control method, program, and storage medium
WO2017179111A1 (en) Display system and information processing method
JP2016085380A (en) Controller, control method, and program
JP6065477B2 (en) Image processing apparatus and program
JP5515405B2 (en) Video processing device, video display device, and video processing method
CN115278184B (en) Projection picture correction method and device
JP7187794B2 (en) PROJECTION CONTROL DEVICE, MARKER DETECTION METHOD AND PROGRAM
JP7228112B2 (en) PROJECTION CONTROL DEVICE, PROJECTION DEVICE, PROJECTION METHOD AND PROGRAM
JP2014175745A (en) Projector device, protector system, projector control method, and projector control program
JP2019146147A (en) Image processing apparatus, image processing method and program
JP6427888B2 (en) Image display system, image display apparatus, and image display method
JP2006211046A (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP2016125917A (en) Three-dimensional shape measurement device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220901