[go: up one dir, main page]

WO2007072695A1 - 画像投射装置 - Google Patents

画像投射装置 Download PDF

Info

Publication number
WO2007072695A1
WO2007072695A1 PCT/JP2006/324517 JP2006324517W WO2007072695A1 WO 2007072695 A1 WO2007072695 A1 WO 2007072695A1 JP 2006324517 W JP2006324517 W JP 2006324517W WO 2007072695 A1 WO2007072695 A1 WO 2007072695A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projection
reproducibility
guidance
projection apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2006/324517
Other languages
English (en)
French (fr)
Inventor
Satoshi Kondo
Takahiro Nishi
Tadamasa Toma
Toshiyasu Sugio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to CN2006800453876A priority Critical patent/CN101322402B/zh
Priority to JP2007551039A priority patent/JP4986864B2/ja
Priority to US12/097,717 priority patent/US8003927B2/en
Publication of WO2007072695A1 publication Critical patent/WO2007072695A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7416Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • the present invention relates to an image projecting apparatus that projects a corrected image corresponding to at least one of the shape and color of a projection surface.
  • Patent Document 1 As a conventional image projection apparatus (projector apparatus), Patent Document 1 and the like describe that a distortion of an image is corrected in accordance with the shape of a projection surface, and a display image is displayed even on a projection surface with a rough surface or a curved surface. A projector apparatus that corrects image distortion is disclosed.
  • Non-Patent Document 1 and the like disclose a projector device that corrects an image according to the color and shape of a projection surface and obtains a projection result closer to the original image by projecting the corrected image.
  • This projector device makes it possible to use not only a white screen but also a patterned curtain, a wall with non-uniform colors, or a corner of the wall as a projection surface.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-61121
  • Patent Document 2 JP 2002-71315 A
  • Non-Special Reference 1 Oliver Bimber, Andreas Emmerhng, Thomas Klemmer “Embeded Entert ainment with Smart Projectors” (IEEE Computer January, 2005 pp48-55)
  • An object of the present invention is to provide an image projection apparatus and method that make it easy for a user to use an image closer to the original image.
  • an image projection apparatus is based on an imaging unit that captures a projected image, a calculation unit that calculates a reproducibility of the captured image with respect to an original image, and the reproducibility.
  • Control means for controlling the projection of the image.
  • the image projection apparatus of the present invention is an image projection apparatus that projects a corrected image according to a projection surface, and is based on an imaging unit that captures a projected image, and the captured image.
  • a first calculation unit that calculates a correction parameter for correcting distortion of the image caused by the projection surface; a correction unit that generates a corrected image by correcting the image using the correction parameter; and a correction unit that generates the correction image.
  • a second calculating means for calculating the reproducibility of the original image and a control means for controlling the projection of the image based on the reproducibility are provided.
  • the image projection device may further include an image generation unit that generates a guidance image related to the reproducibility, and the control unit may control projection of the guidance image.
  • the user obtains information on the reproducibility from the guidance image, so that the corrected image can be used closer to the original image.
  • the image generation means may determine the suitability of the projection on the projection surface according to the reproducibility and generate a guidance image indicating the determination result.
  • the image generation means may select a threshold value and a threshold value selected according to the application and use the selected threshold value in determining the suitability.
  • the second calculation means calculates the reproducibility for each of the plurality of partial areas included in the projection area on the projection surface
  • the guidance generation means determines the partial area according to the reproducibility. Determine the propriety of each projection and generate a guidance image showing the judgment results for each area.
  • the user can know the propriety of projection for each partial area.
  • the second calculation means calculates the reproducibility for each of a plurality of partial areas included in the projection area on the projection surface, and the guidance generation means provides guidance on the reproducibility for each area. You can generate an image.
  • the user can know information about the reproducibility for each partial area.
  • control means may control to correct and project an image when the reproducibility is larger than a predetermined value! /.
  • the second calculation means may calculate the reproducibility by comparing corresponding pixels between the corrected image and the original image.
  • control unit causes the imaging unit to capture a correction image projected on a projection surface
  • second calculation unit includes a captured image obtained from the correction image by the imaging unit, and an original image.
  • the reproducibility may be calculated by comparing corresponding pixels with each other.
  • the reproducibility calculation is performed as compared with the case where the projected corrected image is captured. Can be shortened.
  • the reproducibility of the inversely converted corrected image mainly represents the color reproducibility, but is sufficiently practical unless the shape of the projection surface is very complex.
  • the image projection means further includes a changing means for changing a projection direction
  • the control means determines a plurality of projection directions for obtaining an enlarged area
  • the enlarged area includes a plurality of the enlarged areas.
  • the second calculation means calculates the reproducibility for each projection area of the plurality of projection areas, and based on the reproducibility for each projection area! You can calculate the reproducibility of the enlarged area.
  • the reproducibility can be obtained with respect to an enlarged area wider than the projection area, so that a projection area with a high reproducibility can be searched for more reliably.
  • control means may further control to select a partial area based on a user operation and project an image on the selected partial area.
  • control method, semiconductor device, and program of the present invention are also configured in the same manner as described above, and a description thereof will be omitted.
  • the image projection apparatus of the present invention it is possible to easily use a corrected image closer to the original image. In other words, it makes it easy to use a projection area with high reproducibility.
  • FIG. 1 is a block diagram showing a configuration of an image projection apparatus according to Embodiment 1 of the present invention.
  • FIGS. 2 (a) to 2 (c) are explanatory views showing examples of projection targets.
  • FIG. 3 (a) to 3 (d) are explanatory diagrams for explaining correction by the correction unit 108.
  • FIG. 3 (a) to 3 (d) are explanatory diagrams for explaining correction by the correction unit 108.
  • FIGS. 4 (a) to 4 (d) are explanatory diagrams showing examples of guidance images relating to reproducibility.
  • FIG. 5A is a flowchart showing a reproducibility acquisition presentation process.
  • FIG. 5B is a flowchart showing another example of the reproducibility acquisition presentation process.
  • FIG. 6 is a flowchart showing details of a reproducibility calculation process.
  • FIG. 7 is a flowchart showing details of guidance image generation processing.
  • FIG. 8 is a flowchart showing details of correction parameter acquisition processing.
  • FIGS. 9A to 9C are explanatory diagrams showing examples of test pattern images.
  • FIG. 10 is a flowchart showing details of correction parameter calculation processing.
  • FIGS. 11 (to (c) are explanatory diagrams of determining a projection frame.
  • FIGS. 12A to 12C are diagrams showing examples of test pattern images.
  • FIG. 13 is a diagram showing an example of a map table.
  • FIG. 14 is a block diagram showing a configuration of an image projection apparatus according to Embodiment 2.
  • FIGS. 15 (a) to 15 (f) are explanatory diagrams of an enlarged region.
  • FIG. 16 is a flowchart showing correction and reproducibility enlargement processing. Explanation of symbols
  • FIG. 1 is a block diagram showing the configuration of the image projection apparatus according to Embodiment 1 of the present invention.
  • the image projection apparatus 1 shown in the figure is an image projection apparatus that projects a corrected image according to the shape and color of the projection surface, and includes a control unit 100, a projection unit 101, an imaging unit 102, an image memory 103, and a pattern image generation.
  • Unit 104 switches 105a, 105b, 105c, image processing unit 106, correction parameter calculation unit 107, correction unit 108, reproducibility calculation unit 109, correction parameter storage unit 110, and guidance image generation unit 111. Based on the reproducibility calculated by the degree calculator 109, the projection of the image is controlled.
  • the control unit 100 controls the entire image projection apparatus 1 and controls the next processing and the like.
  • (b) Correction processing for generating a correction image using the correction parameters
  • (c) Correction image for the original image
  • (D) Guidance image generation processing and projection processing for reproducibility The present invention mainly relates to the above (c) and (d).
  • the above (a) and (b) may be the same as the prior art, or as described later in this embodiment.
  • the original image refers to an image that has not been corrected, that is, an image that has not been input to the correction unit 108.
  • a corrected image is an image that has been corrected to suppress image distortion (shape distortion and color distortion) caused by the shape and color of the projection surface.
  • the reproducibility indicates the degree to which the projected correction image matches the original image, that is, how close the projected correction image reproduces the original image. For example, the reproducibility is expressed as a percentage, and is 100% when the original image and the corrected image are completely matched.
  • the projection unit 101 has a projector such as a liquid crystal transmission type or a micromirror reflection type, and projects an image from the image processing unit 106.
  • a projector such as a liquid crystal transmission type or a micromirror reflection type
  • FIGS. 2A to 2C are diagrams showing examples of projection surfaces to be projected by the projection unit 101.
  • FIG. Fig. 2 (a) shows the case of projection onto the corners of the side walls Wl and W2.
  • distortion shape distortion
  • Figure 2 (b) shows the case of projection onto the side wall W3 and furniture F1. Shape distortion occurs at the corner of the side wall W3 and the furniture F1, and the color difference between the side wall W3 and the furniture F1, the force that causes color distortion due to the pattern on the side wall W3 and the pattern on the furniture F1, these distortions are caused by the correction unit 108. It can be corrected.
  • Figure 2 (c) shows the case of projection onto the curtain C1 in the room. The force that causes the shape distortion due to the shape of the curtain C1 and the color distortion due to the pattern.
  • the imaging unit 102 is a camera having a MOS or CCD solid-state imaging device, and captures the image projected by the projection unit 101.
  • the imaging area of the imaging unit 102 is set to include the projection area of the projection unit 101 with a margin within the normal usage range of the image projection apparatus 1.
  • the image memory 103 is a memory for holding an image captured by the imaging unit 102.
  • the no-turn image generation unit 104 generates a plurality of types of test pattern images used in the above (a) and (c).
  • the switches 105a and 105b are controlled by the control unit 100.
  • the original image generated by the pattern image generation unit 104 is converted into an image processing unit 106 via the correction unit 108.
  • the original image is output to the image processing unit 106 as it is.
  • the switch 105c selects the source of the original image. Specifically, under the control of the control unit 100, the switch 105c selects the pattern image output from the pattern image generation unit 104 in the above (a) and (c), and the guidance image in the above (d). A guidance image output from the generation unit 111 is selected, and an image signal input from the outside after the above (a) to (d) is selected.
  • the image processing unit 106 performs processing for converting the image input from the switch 105 b into a format suitable for the projection unit 101, and outputs the converted image signal to the projection unit 101.
  • the conversion process includes, for example, image resolution conversion and YUV signal-RBG signal conversion.
  • the correction parameter calculation unit 107 calculates the correction parameter in the above (a).
  • the correction parameter is represented by a coordinate correction parameter and a color correction parameter for each coordinate of the original image (an image input from the switch 105a to the correction unit 108). For example, if the coordinates of the original image are (x, y) and the coordinates of the corrected image are (x, y,), the coordinate correction parameters are represented by (x, y), (x, y,) .
  • the color correction parameter is represented by (R, G, B) as the subtraction number for the pixel value of the original image.
  • the correction unit 108 corrects the original image using the correction parameters, and outputs the corrected image to the image processing unit 106 via the switch 105b.
  • FIGS. 3A to 3D are explanatory diagrams for explaining correction by the correction unit 108.
  • Image T1 in Fig. 3 (a) shows one of the test pattern images, which is an image showing a mesh.
  • the image T2 in FIG. 3 (b) is obtained by capturing an image projected by the imaging unit 102 from the projection unit 101 at an angle slightly above the corner of the room as shown in FIG. 2 (a) without correcting the image T1. A captured image is shown. In the projected image, a large shape distortion occurs around the corner.
  • the image T3 in Fig. 3 (C) shows how the projection area is defined.
  • the white area in the figure is the largest rectangular area inscribed in the projected image in the image T2, and the aspect ratio is determined to be equal to the aspect ratio of the image T1.
  • An image T4 in FIG. 3 (d) is a diagram showing a correction image that should be relative to the image T1.
  • This image T4 is compared to the image T1 (i) the conversion from the image T1 to the image T2 and the reverse conversion of the T12 (that is, the conversion T21 from the image T2 to the image T1); And scaling.
  • the shape correction parameters (x, y), (x, y,) can be obtained by obtaining the coordinate transformation that realizes (i) and (ii) for each grid (mesh intersection).
  • the reproducibility calculation unit 109 calculates the reproducibility of the captured corrected image by comparing corresponding pixels between the corrected image captured by the projection unit 101 and the original image.
  • the reproducibility is calculated as the ratio of pixels that match the corresponding pixels of the original image among all the pixels of the captured correction image, that is, the degree of coincidence.
  • the coincidence in this case may mean that the difference between the pixel of the captured corrected image and the corresponding pixel of the original image is smaller than a predetermined value. This predetermined value indicates a range allowed as an error.
  • the reproducibility calculation unit 109 applies a projection area on the projection surface that is obtained only by the reproducibility of the entire captured correction image. The reproducibility is calculated for each of a plurality of included partial areas. As a result, when the reproducibility is not good over the entire projection area, a projected image closer to the original image can be obtained by reducing and projecting to a partial area with good reproducibility.
  • the correction parameter storage unit 110 stores the correction parameters calculated by the correction parameter calculation unit 107. If the installation location of the image projection device 1 is fixed, the correction parameter calculation unit 107 calculates the correction parameter at the first startup, and the correction parameter is stored in the correction parameter storage unit 110 at the subsequent startup. The stored correction parameters can be applied repeatedly. When the projection surface is an object whose shape is easily changed, such as a curtain, the correction parameter stored in the correction parameter storage unit 110 can be used as an initial value of the correction parameter at the next startup. As a result, the time required to obtain the correction norm can be shortened.
  • the guidance image generation unit 111 generates a guidance image related to the reproduction level output from the reproduction level calculation unit 109. At that time, the guidance image generation unit 111 determines whether or not projection is appropriate according to the reproducibility of the entire image according to the reproducibility, and whether or not projection is appropriate for each partial area according to the reproducibility for each partial area. Then, a guidance image indicating the determination result is generated.
  • FIGS. 4A to 4D are explanatory diagrams showing examples of guidance images.
  • Guidance image D1 in Fig. 4 (a) includes the message "Reproducibility is 90%. Are you sure you want to project it here?" This is an example of a guidance image when the reproducibility of the entire captured correction image is good, and a message that displays the reproducibility and prompts the current projection is displayed.
  • Guidance image D2 in Fig. 4 (b) is a frame showing partial areas D3 and D4 (shown with a broken line in the figure) and a message "Reproducibility is 85%" in partial area D3. It contains the message “Reproducibility is 40%” in partial area D4 and the recommended projection frame D5 (thick line frame in the figure) in partial area D3. This is an example of a guidance image when the reproducibility of the entire captured correction image is not good, but there is a partial area with good reproducibility, prompting the display to the recommended projection frame D5! / .
  • Guidance image D6 in Fig. 4 (c) is "You can't reproduce the image beautifully here. Please change to. Message. This is an example of a guidance image in the case where the reproducibility of the entire captured correction image is not good and there is no good partial area, and a message prompting to change the good projection location is displayed. .
  • Guidance image D7 in Fig. 4 (d) includes a recommended projection frame D8 and a message “Recent projection location. Recall rate is 80%” in recommended projection frame D8.
  • the guidance image D7 is, for example, projected after or alternately with the guidance image D6 in FIG. It is. As a result, a message prompting a better change of the projection location is displayed.
  • the storage unit displays the guidance image captured by the imaging unit 102 as a background image (projection plane) when a guidance image indicating a good projection area (for example, guidance images Dl and D2) is projected. Or the image of the projection surface and its peripheral part).
  • the guidance image generation unit 111 arranges the past guidance image and its background image in the storage unit when the reproducibility of the current projection location is not good, and changes it. Generate a guidance image to prompt.
  • FIG. 5A is a flowchart showing the degree of reproduction acquisition and presentation processing under the control of the control unit 100.
  • the first half (up to S510) performs the process of calculating the reproducibility of the captured correction image for the original image
  • the second half (after S512) performs the process of controlling the projection of the image based on the reproducibility. Show.
  • the process in the figure is executed after the correction parameters are acquired.
  • the control unit 100 causes the pattern image generation unit 104 to generate one test pattern image (hereinafter abbreviated as a pattern image) (S500), causes the switch 105c to select a pattern image, and switches 105a and Both 105b are connected to the A terminal, and the correction unit 108 corrects the pattern image (S502).
  • the corrected pattern image hereinafter abbreviated as “corrected image”
  • the control unit 100 transfers the converted corrected image from the projection unit 101 to the projection surface. Projection is performed (S504), the projection surface is imaged by the imaging unit 102 (S506), and the captured correction image is stored in the image memory 103.
  • control unit 100 causes the above S500 force to S506 to be repeated for all of the plural types of pattern images generated by the pattern image generation unit 104.
  • the plurality of pattern images used here may be natural images regardless of their types. It is desirable that the edge distribution and the color distribution are different.
  • the no-turn image generation unit 104 may generate a plurality of images included in each field for each field. For example, multiple images corresponding to scenes that often appear in baseball broadcasts, scenes and images that often appear in movies, multiple images corresponding to scenes that often appear in tennis relays, multiple images corresponding to animated scenes, TV drama Multiple images corresponding to the scene, multiple images such as a window menu displayed on the screen of the computer, etc. may be used. This makes it possible to show different recall rates for each field.
  • the test pattern image used in the correction parameter acquisition process is used for the reproduction degree acquisition and presentation process. The pattern image does not have to be multiple, but can be one! /.
  • control unit 100 causes the reproduction degree calculation unit 109 to execute the reproduction degree calculation process (S510), and causes the guidance image generation unit 111 to execute the guidance image generation process. (S512), guidance image projection (S514) is controlled.
  • the processing from S500 force to S506 is not necessarily performed for all correction pattern images. For example, it can be performed only on a representative correction pattern image. As a result, the accuracy of the reproducibility is lowered. The time for imaging can be shortened.
  • Fig. 5B A flowchart of this case is shown in Fig. 5B.
  • the processing power of S505 is used instead of S504 and S506.
  • S505 reverse correction is applied to the corrected image generated in S504.
  • reverse correction indicates, for example, a change in the image of FIG. 3A as shown in FIG. 3B, and corresponds to performing reverse conversion of the correction parameter obtained by the correction parameter calculation unit 107. .
  • a parameter for inverse conversion is obtained by the correction parameter calculation unit 107, reverse correction is performed by the image processing unit 106, and the corrected pattern image that has been reversely corrected is stored in the image memory 103.
  • the inverse transformation (S505) may be performed by the correction unit 108 instead of the image processing unit 106.
  • the correction unit 108 stores the corrected image in the image memory 103, and further reads out the corrected image from the image memory 103 and applies it to the read out corrected image. Then, reverse correction is performed using the reverse correction parameter, and the image is stored in the image memory 103 as a reverse correction image.
  • FIG. 6 is a flowchart showing details of the reproducibility calculation process S510 in FIG. 5A.
  • the first half (up to S606), all pixels in all captured images (images obtained by capturing the correction pattern image projected by the imaging unit 102) are compared pixel by pixel with the corresponding pixels in the original image.
  • the second half (S608 and later) is a process for calculating the reproducibility.
  • the reproducibility calculation unit 109 calculates the reproducibility Ra of one entire image (S608).
  • the reproducibility Ra is calculated as the reproducibility by the ratio of the flag indicating coincidence in the bitmap data.
  • the ratio of flags indicating coincidence with respect to all bits is calculated as a reproducibility.
  • new bit map data is created by ORing the match flags at the same pixel position in multiple bit map data, and the ratio of the flag indicating the match in the new bit map data is calculated as the reproducibility. Also good.
  • the reproducibility calculation unit 109 ends the reproducibility calculation process without calculating the reproducibility of the partial area (S610: Y es).
  • the first threshold is 80%, for example. This is because the reproducibility Ra of the entire image in this case is good, and the current projection area of the entire image can be used as the projection surface as it is.
  • the first threshold value may be a different value depending on the application. For example, the first threshold may be 75% for TV viewing, and the first threshold may be 85% for movie viewing.
  • the reproducibility calculation unit 109 searches for a partial region where the reproducibility becomes larger than the second threshold value Th2. (S612) If found, the reproducibility Rb of the partial area is calculated (S614, S616).
  • the second threshold V ⁇ value is a variable that decreases to the final value B with a step size A at an initial value of 90%, for example. For example, A may be about 10% and B may be about 50%.
  • FIG. 7 is a flowchart showing details of the guidance image generation processing S512 in FIGS. 5A and 5B.
  • the guidance image generation unit 111 performs the first projection for prompting the current projection as in the guidance image D1 in FIG. 4 (a) when the reproducibility Ra of the entire image is larger than the first threshold value Thl.
  • a guidance image is generated (S702).
  • the guidance image generating unit 111 gives priority to the area size and the reproducibility Rb to give one or more parts.
  • One or more partial areas selected here may be overlapped, nested, or the top five and a fixed number.
  • the guidance image generation unit 111 performs the following process for each selected partial region.
  • the guidance image generation unit 111 generates an image showing the frame of the partial area (S706), determines whether projection is possible according to the reproducibility Rb of the partial area (S708), and generates a message indicating the determination result. (S710). With regard to the determination of whether or not projection is possible, for example, it is determined that projection is possible if the reproducibility is Rb 80% or more, and projection is impossible if it is less than that.
  • the guidance image generation unit 111 determines that the highest reproducibility maxRb among the selected partial areas is the third threshold value. If the maximum reproducibility maxRb is not smaller than the third threshold value (S714), and the maximum reproducibility maxRb is as shown in frame D4 in Fig. 4 (b) A recommended display frame is set in the partial area frame with (S716), and a guidance image including a partial area frame, propriety of projection, message, recommended display frame, etc. is generated (S718), and the highest reproducibility maxRb is If it is smaller than the third threshold, a second guidance image is generated to prompt the projection area to be changed, such as guidance image D6 in FIG. 4 (c) (720), and the internal storage unit is referred to. Thus, a guidance image indicating the previous projection area, such as the guidance image D7 in FIG. 4 (d), is generated (S722).
  • the guidance image generation unit 111 determines the propriety of projection for each partial area according to the reproducibility Rb, and includes a message indicating the determination result for each area, a message regarding the reproducibility for each area, and the like.
  • a guidance image, a guidance image that prompts the user to change the projection area, a guidance image that prompts the current projection, and a guidance image that indicates the previous projection area are generated. This makes it easy for the user to change to a projection area with better reproducibility.
  • FIG. 8 is a flowchart showing a correction parameter acquisition process under the control of the control unit 100.
  • the control unit 100 causes the pattern image generation unit 104 to generate one pattern image (S800), correct it! /, And cause the pattern image to be projected onto the projection unit 101 (S802).
  • the image projected on the screen is caused to be imaged by the imaging unit 102 (S804).
  • the captured image is stored in the image memory 103.
  • FIGS. 9A to 9C are explanatory diagrams illustrating examples of test pattern images generated by the pattern image generation unit 104.
  • FIG. Image T1 in Fig. 9 (a) is a white pattern image.
  • This image T1 is used to detect the color and pattern of the projection surface, and to determine the projection area where the correction image is to be projected when the shape of the projection image is distorted.
  • An image T2 in FIG. 9B is a pattern image representing one horizontal straight line Lh.
  • This image T2 is one of a plurality of horizontal straight images in which the position of the horizontal straight line Lh is changed in units of one pixel or in units of N pixels.
  • the image T3 in FIG. 9C is a pattern image representing one vertical straight line Lv.
  • This image T3 is one of a plurality of vertical straight images obtained by changing the position of the vertical straight line Lv by one pixel or by N pixels. 1 horizontal straight line
  • the combination of the image and one vertical straight line image is used to detect the coordinate relationship between the original image and the projected image.
  • the control unit 100 repeats S800 to S804 shown in FIG. 8 for all pattern images (S806).
  • the control unit 100 controls the correction parameter calculation process (808), and stores the correction parameters in the correction parameter storage unit 110 (S810).
  • FIG. 10 is a flowchart showing detailed processing of the correction parameter calculation processing S808 in FIG. First.
  • the correction parameter calculation unit 107 determines the projection frame of the correction image using the captured image of the white image T1 (S1000).
  • Figures 11 (a) to 11 (c) are explanatory diagrams for determining the projection frame.
  • the captured image II in FIG. 11 (a) is a captured image of the projected white image T1 when the projection surface includes the corner of the room as shown in FIG. 2 (a). Compared with the original white image T1, the outer shape of the captured image II is greatly distorted.
  • the correction parameter calculation unit 107 obtains an image 12 in FIG. 11B by performing a binary operation on the captured image II in FIG.
  • correction parameter calculation unit 107 is the maximum rectangular area inscribed in the projection image in the binarized image 12, and the projection frame is set so that the aspect ratio becomes equal to the aspect ratio of the original image. decide.
  • Figure 11 (c) shows the determined projection frame! /
  • the correction parameter calculation unit 107 performs the following for all combinations of the horizontal straight image and the vertical straight image, that is, for all the grid coordinates (Xg, Yg) determined as the intersections of the horizontal straight line and the vertical straight line. Perform the process. First, the correction parameter calculation unit 107 acquires grid coordinates (Xg, Yg) of the captured image (S1002).
  • FIGS. 12 (a) to 12 (c) are explanatory diagrams showing examples of captured test pattern images and grid coordinates.
  • Image 14 in FIG. 12 (a) shows the imaging result of one horizontal linear image
  • image 15 in FIG. 12 (b) shows the imaging result of one vertical linear image. This imaging result is distorted similarly to the image T2 in FIG.
  • the correction parameter calculation unit 107 calculates the corresponding coordinates (X, Y) is acquired (S1004), and the corresponding coordinates ( ⁇ ', ⁇ ') of the corrected image are calculated from these two coordinates (S1006).
  • the corresponding coordinates (X, Y) of the original image correspond to the coordinates of image T1 in Fig. 3 (a).
  • the grid coordinates (Xg, Yg) of the captured image correspond to the coordinates of image T2 in Fig. 3 (b).
  • the coordinates (X ′, Y ′) of the unknown corrected image correspond to the coordinates of the image T4 in FIG. If the conversion function from image T1 to image T2 is f, the relationship between coordinates (X, Y) and coordinates (Xg, Yg) is expressed as (Equation 1).
  • the correction parameter calculation unit 107 calculates ( ⁇ ′, ⁇ ′) in which these two formula forces are unknown (S10 06). At that time, the correction parameter calculation unit 107 performs scaling so that (X, ⁇ ) becomes a mesh having a size that can be accommodated in the projection frame of the image ⁇ ⁇ 3 that is not the same size as the image T1 (S1008). In this way, the value of (X, Y,) corresponding to the coordinate (X, Y) is calculated.
  • These (X, ⁇ ) and ( ⁇ ', ⁇ ') are the shape correction parameters for one coordinate.
  • the correction parameter calculation unit 107 acquires the color (pixel value) of the grid coordinates (Xg, Yg) (S1010), and the acquired values (R, G, B) for each color component are the coordinates.
  • the shape correction parameter is written in the map table (S1012).
  • correction parameter calculation unit 107 calculates correction parameters for coordinates other than grid coordinates by interpolation using already calculated correction parameters. (S1016), write to the map table.
  • FIG. 13 is a diagram showing an example of the map table. The map table in the figure describes shape correction parameters (x ′, y ′) and color correction parameters (R, G, B) for each coordinate (X, Y) of the original image.
  • the projection of the image is controlled based on the reproducibility of the captured corrected image with respect to the original image. It is possible to easily use a corrected image close to. In other words, the use of a projection area with high reproducibility can be provided to the user. [0086] Further, since the user can obtain information on the reproducibility by the guidance image, a corrected image closer to the original image can be used. Since the user can know the propriety of the projection from the guidance image, the user can use the corrected image more reliably closer to the original image. Appropriateness of the projection can be appropriately determined for each application according to the application.
  • the user can know the propriety of projection for each partial area that covers only the entire projection area.
  • the user can know information on the reproducibility for each partial area.
  • the grid interval shown in FIG. 3 (a) may be one pixel (that is, all pixels are grids).
  • FIG. 14 is a block diagram showing the configuration of the image projection apparatus in the second embodiment.
  • the image projection apparatus 2 in the same figure is different in that a swing unit 201 is added and a control unit 200 is provided instead of the control unit 100.
  • the swing mechanism 201 is a mechanism that changes the projection direction of the projection unit 101.
  • the horizontal swing mechanism that changes the projection direction of the projection unit 101 to the horizontal direction and the projection direction of the projection unit 101 to the vertical direction It consists of a vertical swing mechanism that changes. Both the horizontal swing mechanism and the vertical swing mechanism are driven by a motor, and stop at an arbitrary swing angle under the control of the control unit 200.
  • control unit 200 (A) sets an enlarged region formed by a plurality of projection regions corresponding to a plurality of projection directions, and (B) Control of reproducibility calculation processing and (C) control of presentation of guidance image in enlarged area. By searching for a partial area in the enlarged area, it is possible to set a partial area with good reproducibility more reliably.
  • FIGS. 15A to 15F are explanatory diagrams of the enlarged region.
  • Image A1 in Fig. 15 (a) is taken.
  • the projection area D11 is an image captured by the unit 102, and the projection area D11 shows the projection area when the swing angle of the swing mechanism 201 is the first angle (for example, +10 degrees with the left and right swing centers being 0 degrees).
  • An image A2 in 15 (b) is an image captured by the imaging unit 102, and a projection area D12 indicates a projection area where the swing angle of the swing mechanism 201 is a second angle (for example, 0 degrees).
  • An image A3 in FIG. 15C is an image captured by the imaging unit 102, and a projection region D13 is a projection region in which the swing angle of the swing mechanism 201 is a third angle (for example, ⁇ 10 degrees). Indicates.
  • FIG. 16 is a flowchart showing an example of setting of an enlarged region under control by the control unit 200, a correction parameter acquisition process, a recurrence acquisition process, and a presentation process.
  • the control unit 200 determines whether or not a plurality of projection areas (for example, Dl l, D12, and D13) corresponding to a plurality of projection directions are continuous as (A).
  • the first to third angles are stored for handling as an enlarged region as shown in FIG. 15 (c), and the setting values are stored for setting the swing mechanism 201 at each angle. .
  • the continuous area is set as an enlarged area.
  • the projected image at this time may be, for example, a white image pattern.
  • control unit 200 controls the correction parameter acquisition process for each of the plurality of projection areas.
  • step S1602 may be the same as in FIG.
  • step S1604 may be the same as S500 to S510 in FIG. 5A.
  • the control unit 200 performs a reproducibility calculation process for the enlarged area (S1608).
  • this reproducibility calculation process one bitmap data corresponding to the enlarged area is created as shown in Fig. 15 (e) from the pixel match determination flag calculated for each projection area. Perform a partial area search on the target.
  • This step S1608 may be the same as step S710 in FIG.
  • the control unit 200 searches for a partial region with good reproducibility within the enlarged region.
  • the partial areas Rl and R2 are areas that straddle the boundary between the projection area and the projection area, and cannot be searched in a single projection area.
  • a partial area can be easily searched by setting an enlarged area.
  • the control unit 200 controls the guidance image generation process for the enlarged region (S16 10), projects the guidance image (S1612), and sets the projection direction to the partial region selected according to the user operation.
  • the angle and projection area of the swing mechanism 201 are set to point (S 1614). Thereby, projection is started to the partial area selected by the user.
  • the reproducibility can be obtained with respect to an enlarged region wider than the projection region, and thus the reproducibility is more reliably high.
  • the user can be prompted to select a projection area with the highest reproducibility.
  • control unit 200 may set the angle of the projection area to be a continuous area while swinging the enlarged area by the swing mechanism 201.
  • the swing mechanism 201 may be configured by combining a mirror that pivots up and down and a mirror that pivots left and right, so that the reflection direction of the projection light can be changed up and down and left and right.
  • a rotation mechanism that rotates the entire body of the image projection apparatus 2 may be provided.
  • the image projection apparatus 2 includes a display unit such as an LCD
  • the above-described guidance image may be displayed on the display unit.
  • a display unit such as an LCD
  • the above-described guidance image may be displayed on the display unit.
  • a projector in which the image projection apparatus according to Embodiment 1 or 2 is downsized is mounted on a mobile terminal device (such as a mobile phone, PDA, or notebook personal computer), the above guidance image has less display and projection. And can be displayed by either side.
  • the imaging unit 102 may be configured to capture a monochrome image rather than a color image.
  • the projection unit 101 projects the test pattern image in three times, red, green, and blue, and the imaging unit 102 sets three monochrome images corresponding to red, green, and blue as three color component images. What is necessary is just to synthesize.
  • each functional block in the block diagrams shown in FIGS. 1 and 14 is typically realized as an LSI which is an integrated circuit device.
  • This LSI may be made into one chip or a plurality of chips.
  • a functional block other than a memory such as the image memory 103 may be provided in one chip.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • FPGA Field Programmable
  • each functional block only a unit for storing data may be configured separately without being arranged in one chip.
  • the central part including the control unit 109 is a microprocessor and Realized by the program. Therefore, configure the present invention as a program.
  • the present invention is suitable for an image projection apparatus that projects an image on a screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

 本発明の画像投射装置は、投射面に応じた補正画像を投射する画像投射装置であって、投射された画像を撮像する撮像部(110)と、撮像された画像に基づいて、投射面に起因する画像の歪みを補正する補正パラメータを計算する補正パラメータ計算部(107)と、前記補正パラメータを用いて画像を補正することにより補正画像を生成する補正部(108)と、原画像に対する補正画像の再現度を計算する再現度計算部(109)と、再現度に関するガイダンス画像を生成する画像生成部(111)と、ガイダンス画像の投射を制御する制御部(100)とを備える。

Description

明 細 書
画像投射装置
技術分野
[0001] 本発明は、投射面の形状および色の少なくとも一方に応じた補正画像を投射する 画像投射装置に関する。
背景技術
[0002] 従来の画像投射装置 (プロジェクタ装置)として、特許文献 1等には、投射面の形状 に応じて画像の歪み補正を行い、凸凹のある面や曲面の投射面に対しても表示画 像の歪みを補正するプロジェクタ装置が開示されている。
[0003] また、非特許文献 1等には、投射面の色や形状に応じて画像を補正し、補正画像 を投射することによって原画像により近い投射結果を得るプロジェクタ装置が開示さ れている。このプロジェクタ装置は、白スクリーンだけでなく柄のあるカーテンや、色が 一様でない壁や、壁のコーナーなど、部屋の中の任意の場所を投射面として利用可 能にしている。
特許文献 1:特開 2001— 61121号公報
特許文献 2:特開 2002— 71315号公報
非特干文献 1: Oliver Bimber, Andreas Emmerhng, Thomas Klemmer「Embeded Entert ainment with Smart Projectors] (IEEE Computer January,2005 pp48- 55)
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、従来の画像投射装置によれば、投射面の色や形状に応じて画像を 補正することによって、原画像に近い画像を投射することを可能にするが、使用者に とってはどの程度原画像に近!ヽ画像が得られて!/ヽるのかがわカゝらず、より原画像に 近い画像を得たくてもどうしていいかわ力もな力つた。例えば、柄のある壁に投射した 場合と、柄あるカーテンに投射した場合と、柄のある壁と柄のあるカーテンに跨って 投射した場合とで、原画像に最も近 、画像が得られる場合がどれであるのカゝ使用者 にはわかりにくぐより原画像に近 ヽ補正画像を確実に利用することは困難だつた。 [0005] 本発明は、使用者がより原画像に近い画像を利用することを容易にする画像投射 装置、方法を提供することを目的とする。
課題を解決するための手段
[0006] 上記課題を解決するため本発明の画像投射装置は、投射された画像を撮像する 撮像手段と、撮像された画像の原画像に対する再現度を計算する計算手段と、前記 再現度に基づいて画像の投射を制御する制御手段とを備える。
[0007] この構成によれば、原画像に対する撮像された画像の再現度に基づいて画像の投 射を制御するので、より原画像に近い画像を利用することを容易にすることができる。 言 、換えれば、再現度の高!、投射領域の利用を容易にする。
[0008] また、本発明の画像投射装置は、投射面に応じた補正画像を投射する画像投射装 置であって、投射された画像を撮像する撮像手段と、撮像された画像に基づいて、 投射面に起因する画像の歪みを補正する補正パラメータを計算する第 1計算部と、 前記補正パラメータを用いて画像を補正することにより補正画像を生成する補正手 段と、補正手段により生成された補正画像、投射と撮像を通して得られた補正画像の 一方について、原画像に対する再現度を計算する第 2計算手段と、前記再現度に基 づ 、て画像の投射を制御する制御手段とを備える。
[0009] この構成によれば、原画像に対する撮像された補正画像の再現度に基づいて画像 の投射を制御するので、より原画像に近い補正画像を利用することを容易にすること ができる。言い換えれば、再現度の高い投射領域の利用を容易にする。
[0010] ここで、前記画像投射装置は、さらに、前記再現度に関するガイダンス画像を生成 する画像生成手段を備え、前記制御部は、前記ガイダンス画像の投射を制御しても よい。
[0011] この構成によれば、使用者はガイダンス画像によって再現度に関する情報を得るの で、より原画像に近 、補正画像を利用することができる。
[0012] ここで、前記画像生成手段は、前記再現度に応じて投射面に対する投射の適否を 判定し、判定結果を示すガイダンス画像を生成してもよ ヽ。
[0013] この構成によれば、使用者はガイダンス画像によって投射の適否を知ることができ るので、より原画像に近い補正画像を確実に利用することができる。 [0014] ここで、前記画像生成手段は、前記適否の判定にお!、て用途に応じたしき!、値を 選択し、選択されたしきい値を用いてもよい。
[0015] この構成によれば、投射の適否を用途に応じて適切に判定することができる。
[0016] ここで、前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領 域毎に前記再現度を計算し、前記ガイダンス生成手段は、前記再現度に応じて前記 部分領域毎に投射の適否を判定し、領域毎の判定結果を示すガイダンス画像を生 成してちょい。
[0017] この構成によれば、使用者は投射の適否を部分領域毎に知ることができる。
[0018] ここで、前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領 域毎に前記再現度を計算し、前記ガイダンス生成手段は、領域毎の前記再現度に 関するガイダンス画像を生成してもよ ヽ。
[0019] この構成によれば、使用者は再現度に関する情報を部分領域毎に知ることができ る。
[0020] ここで、前記制御手段は、前記再現度が所定の値よりも大き!/、とき、画像を補正し かつ投射するよう制御してもよ ヽ。
[0021] この構成によれば、再現度がしきい値よりも大きい場合、つまり再現度が良い場合 だけ投射することができる。
[0022] ここで、前記第 2計算手段は、補正画像と原画像との間で対応する画素同士を比 較すること〖こよって、前記再現度を計算してもよい。
[0023] この構成によれば、投射された補正画像を撮像した画像についての再現度が計算 されるので、色の再現性と形状の再現性の両者を併せ持つ再現度を得ることができ る。それゆえ、投射面の形状がかなり複雑である場合や、壁のコーナーである場合等 に効果的である。
[0024] ここで、前記制御手段は、投射面に投射された補正画像を前記撮像手段に撮像さ せ、前記第 2計算手段は、撮像手段によって補正画像から得られた撮像画像と、原 画像との間で対応する画素同士を比較することによって、前記再現度を計算してもよ い。
[0025] この構成によれば、投射された補正画像を撮像する場合と比べて、再現度の計算 が完了するまでの時間を短縮することができる。また、逆変換された補正画像の再現 度は、主に色の再現性を表すが、投射面の形状がよほど複雑でない限り、十分実用 的である。
[0026] ここで、前記画像投射手段は、さらに、投射方向を変更する変更手段を備え、前記 制御手段は、拡大領域を得るための複数の投射方向を決定し、前記拡大領域は前 記複数の投射方向に対応する複数の投射領域によって形成され、前記第 2計算手 段は、複数の投射領域の個々の投射領域毎に再現度を計算し、投射領域毎の前記 再現度に基づ!、て前記拡大領域の再現度を計算してもよ 、。
[0027] この構成によれば、投射領域よりも広範な拡大領域に対して再現度を得ることがで きるので、より確実に再現度の高い投射領域を探すことできる。
[0028] ここで、前記制御手段は、さらに、ユーザ操作に基づ!/、て部分領域を選択し、選択 された部分領域に画像を投射するよう制御してもよい。
[0029] この構成によれば、使用者に最も再現度の高い投射領域の選択を促すことができ る。
[0030] また、本発明の制御方法、半導体装置、プログラムについても上記と同様に構成さ れているので、説明を省略する。
発明の効果
[0031] 本発明の画像投射装置によれば、より原画像に近い補正画像を利用することを容 易にすることができる。言い換えれば、再現度の高い投射領域の利用を容易にする。 図面の簡単な説明
[0032] [図 1]図 1は、本発明の実施の形態 1における画像投射装置の構成を示すブロック図 である。
[図 2]図 2 (a)〜 (c)は、被投射対象の例を示す説明図である。
[図 3]図 3 (a)〜(d)は、補正部 108による補正の説明するための説明図である。
[図 4]図 4 (a)〜(d)は、再現度に関するガイダンス画像の例を示す説明図である。
[図 5A]図 5Aは、再現度取得提示処理を示すフローチャート図である。
[図 5B]図 5Bは、再現度取得提示処理の他の例を示すフローチャート図である。
[図 6]図 6は、再現度計算処理の詳細を示すフローチャート図である。 [図 7]図 7は、ガイダンス画像生成処理の詳細を示すフローチャート図である。
[図 8]図 8は、補正パラメータ取得処理の詳細を示すフローチャート図である。
[図 9]図 9 (a)〜(c)は、テストパターン画像の例を示す説明図である。
[図 10]図 10は、補正パラメータ計算処理の詳細を示すフローチャート図である。
[図 11]図 11 ( 〜 (c)は、投射枠決定の説明図である。
[図 12]図 12 (a)〜(c)は、テストパターン画像の例を示す図である。
[図 13]図 13は、マップ表の一例を示す図である。
[図 14]図 14は、実施の形態 2における画像投射装置の構成を示すブロック図である [図 15]図 15 (a)〜 (f)は、拡大領域の説明図である。
[図 16]図 16は、補正および再現度の拡大処理を示すフローチャート図である。 符号の説明
[0033] 1、2 画像投射装置
100、 200 制御部
101 投射部
102 撮像部
103 画像メモリ
104 パターン画像生成部
105a〜105c スィッチ
106 画像処理部
107 補正パラメータ計算部
108 補正部
109 再現度計算部
110 補正パラメータ記憶部
111 ガイダンス画像生成部
201 首振り部
発明を実施するための最良の形態
[0034] (実施の形態 1) 図 1は、本発明の実施の形態 1における画像投射装置の構成を示すブロック図であ る。同図の画像投射装置 1は、投射面の形状および色に応じた補正画像を投射する 画像投射装置であって、制御部 100、投射部 101、撮像部 102、画像メモリ 103、パ ターン画像生成部 104、スィッチ 105a、 105b, 105c,画像処理部 106、補正パラメ ータ計算部 107、補正部 108、再現度計算部 109、補正パラメータ記憶部 110およ びガイダンス画像生成部 111を備え、再現度計算部 109によって計算される再現度 に基づ!/、て画像の投射を制御する。
[0035] 制御部 100は、画像投射装置 1全体の制御を行い、次の処理等を制御する。 (a) 投射面の形状および色に応じて画像を補正するための補正パラメータを取得する処 理、(b)補正パラメータを用いて補正画像を生成する補正処理、(c)原画像に対する 補正画像の再現度を取得する処理、 (d)再現度に関するガイダンス画像の生成処理 および投射する処理。本発明は、主として上記 (c)、(d)に関する。上記 (a)、(b)は 従来技術同様であってもよ 、し、本実施形態で後述するようにしてもょ 、。
[0036] ここで、原画像とは補正されていない画像、つまり補正部 108に入力されていない 画像をいい、例えば、スィッチ 105cに入力されるパターン画像生成部 104から出力 されるパターン画像、外部からの映像信号に含まれる画像、ガイダンス画像生成部 1 11から出力されるガイダンス画像等をいう。補正画像とは、投射面の形状および色に 起因する画像の歪 (形状の歪と色の歪)を抑制するために補正された画像を!ヽぅ。ま た、再現度とは、原画像に対して、投射された補正画像が一致する度合い示し、つま り、投射された補正画像が原画像にどれだけ近い画像を再現しているかを示す。例 えば、再現度は、パーセントで表され、原画像と補正画像が完全に一致する場合は 1 00パーセントである。
[0037] 投射部 101は、液晶透過型やマイクロミラー反射型などの投射器を有し、画像処理 部 106からの画像を投射する。本実施例では、外部から入力される映像信号以外に 、ノターン画像生成部 104により生成され上記 (a)で用いられるテストパターン画像 や、補正部 108から出力され上記 (c)で用いられる補正されたテストパターン画像や 、ガイダンス画像生成部 111に生成され上記 (d)で用いられるガイダンス画像などが ある。 [0038] 図 2 (a)〜(c)は、投射部 101の被投射対象となる投射面の例を示す図である。図 2 (a)は部屋の側壁 Wlと W2の角に投射する場合を示している。この場合側壁 W1と W 2の角を挟んで投射領域に歪 (形状歪)が生じるが、この形状歪は補正部 108によつ て補正可能である。図 2 (b)は部屋の側壁 W3と家具 F1に投射する場合を示している 。側壁 W3と家具 F1による角の部分で形状歪みが生じ、側壁 W3と家具 F1との色調 の差、側壁 W3の柄、家具 F1の柄により色歪が生じる力 これらの歪は補正部 108に よって補正可能である。図 2 (c)は部屋のカーテン C1に投射する場合を示して 、る。 カーテン C1の形状による形状歪と柄による色歪が生じる力 これらの歪も補正部 108 によって補正可能である。
[0039] 撮像部 102は、 MOSまたは CCD固体撮像素子を有するカメラであり、投射部 10 1によって投射された前記画像を撮像する。撮像部 102の撮像領域は、画像投射装 置 1の通常の使用範囲内では、投射部 101の投射領域を余裕を持って含むように設 定されている。
[0040] 画像メモリ 103は、撮像部 102による撮像画像を保持するためのメモリである。
[0041] ノターン画像生成部 104、上記 (a)および (c)で用いられる複数種類のテストパタ ーン画像を生成する。
[0042] スィッチ 105a、 105bは、制御部 100により制御され、共に A端子に接続された場 合は、パターン画像生成部 104に生成された原画像を補正部 108を介して画像処 理部 106に出力し、共に B端子に接続された場合は、原画像をそのまま画像処理部 106に出力する。
[0043] スィッチ 105cは、原画像のソースを選択する。具体的には、制御部 100の制御の 下でスィッチ 105cは、上記(a)および (c)においてパターン画像生成部 104から出 力されるパターン画像を選択し、上記 (d)においててガイダンス画像生成部 111から 出力されるガイダンス画像を選択し、上記 (a)〜(d)終了後に外部から入力される映 像信号を選択する。
[0044] 画像処理部 106は、スィッチ 105bから入力される画像を、投射部 101に適した形 式に変換する処理を行い、変換された画像信号を投射部 101に出力する。変換処 理は、例えば、画像の解像度変換や、 YUV信号— RBG信号変換などである。 [0045] 補正パラメータ計算部 107は、上記 (a)における補正パラメータを計算する。補正 ノ ラメータは原画像 (スィッチ 105aから補正部 108に入力される画像)の座標毎に座 標補正パラメータと色補正パラメータとで表される。例えば、原画像の座標を (x、 y)、 補正画像の座標を (x,、y,)とすると、座標補正パラメータは、(x、y)、(x,、y,)で表 される。色補正パラメータは、原画像の画素値に対する被減算数としての (R、 G、 B) で表される。
[0046] 補正部 108は、補正パラメータを用いて原画像を補正し、補正画像をスィッチ 105b を介して画像処理部 106に出力する。
[0047] 図 3 (a)〜(d)は、補正部 108による補正の説明するための説明図である。図 3 (a) の画像 T1は、テストパターン画像の 1つを示し、メッシュを示す画像となっている。図 3 (b)の画像 T2は、画像 T1を補正することなぐ図 2 (a)のように投射部 101から部屋 の角にやや斜め上に投射された投射画像を、撮像部 102によって撮像した撮像画 像を示している。投射画像は、角を中心に大きな形状歪が生じている。図 3 (C)の画 像 T3は、投射領域が定められた様子を示す。図中白の領域は画像 T2中の投射画 像に内接する最大の矩形領域であって、そのアスペクト比が画像 T1のアスペクト比と 等しくなるように定められている。図 3 (d)の画像 T4は、画像 T1に対してあるべき補 正画像を表す図である。この画像 T4は、画像 T1に対して (i)画像 T1から画像 T2へ の変換 T12の逆の変換(つまり画像 T2から画像 T1への変換 T21)と、(ii)画像 T3内 の矩形領域へのスケーリングとを行うことにより生成される。この (i)と (ii)とを実現する 座標変換をグリッド (メッシュの交点)毎に求めることにより、形状補正パラメータ (x、 y )、(x,、y,)を得ることができる。
[0048] 再現度計算部 109は、投射部 101によって撮像された補正画像と原画像との間で 対応する画素を比較することによって、撮像された補正画像の再現度を計算する。例 えば、再現度は、撮像された補正画像の全画素のうち、原画像の対応する画素と一 致する画素の割合、つまり一致度として計算される。ただし、この場合の一致とは、撮 像された補正画像の画素と、原画像の対応する画素との差分が所定値より小さ!ヽこと としてもよい。この所定値は誤差として許容される範囲を示す。また、再現度計算部 1 09は、撮像された補正画像全体の再現度だけでなぐ投射面における投射領域に 含まれる複数の部分領域毎に前記再現度を計算する。これにより、投射領域全体で 再現度が良くない場合に、再現度が良い部分領域に縮小投射することによって、より 原画に近 、投射画像を得ることができる。
[0049] 補正パラメータ記憶部 110は、補正パラメータ計算部 107で計算された補正パラメ ータを記憶する。補正パラメータは、画像投射装置 1の設置場所が固定されている場 合には、初回の起動時に補正パラメータ計算部 107が補正パラメータを計算し、次 回以降の起動時に、補正パラメータ記憶部 110に記憶された補正パラメータを繰り返 し適用することができる。また投射面が、カーテンのように形状の変わりやすい物体で ある場合には、補正パラメータ記憶部 110に記憶された補正パラメータを次回以降の 起動時における補正パラメータの初期値として用いることができる。これにより、補正 ノラメータを求めるためにかかる時間を短縮することができる。
[0050] ガイダンス画像生成部 111は、再現度計算部 109から出力される再現度に関する ガイダンス画像を生成する。その際、ガイダンス画像生成部 111は、前記再現度に応 じて画像全体の再現度に応じて投射の適否と、部分領域毎の再現度に応じて部分 領域毎の投射の適否とを判定し、それらの判定結果を示すガイダンス画像を生成す る。
[0051] 図 4 (a)〜(d)はガイダンス画像の例を示す説明図である。
[0052] 図 4 (a)のガイダンス画像 D1は、「再現度は 90%です。ここに投射してよろしいです か?」というメッセージを含む。これは、撮像された補正画像全体の再現度が良好な 場合のガイダンス画像の例であり、再現度を表示するとともに現状での投射を促すメ ッセージが表示される。
[0053] 図 4 (b)のガイダンス画像 D2は、部分領域 D3と部分領域 D4を示す枠(図は破線 枠)と、部分領域 D3内の「再現度は 85%です。」というメッセージと、部分領域 D4内 の「再現度は 40%です。」というメッセージと、部分領域 D3内の推奨投射枠 D5 (図で は太線枠)とを含む。これは、撮像された補正画像全体の再現度が良好でないが、 再現度が良好な部分領域が存在する場合のガイダンス画像の例であり、推奨投射枠 D5への表示を促して!/、る。
[0054] 図 4 (c)のガイダンス画像 D6は、「ここでは綺麗に画像を再現できません。他の場所 に変更して下さい。」というメッセージを含む。これは、撮像された補正画像全体の再 現度が良好でなく、かつ良好な部分領域も存在しな 、場合のガイダンス画像の例で あり、良好な投射場所の変更を促すメッセージが表示される。
[0055] 図 4 (d)のガイダンス画像 D7は、推奨投射枠 D8と、推奨投射枠 D8内に「前回の投 射場所です。再現率は 80%です」というメッセージを含む。このガイダンス画像 D7は 、例えば、図 4 (c)のガイダンス画像 D6の後にあるいは交互に投射され、ガイダンス 画像生成部 111内部の記憶部に記憶されて 、た過去のガイダンス画像をアレンジし たガイダンス画像である。これにより、もっと良好な投射場所の変更を強く促すメッセ ージが表示される。また、上記記憶部は、良好な投射領域を示すガイダンス画像 (例 えば、ガイダンス画像 Dl、 D2)が投射されているときに、撮像部 102によって撮像さ れた当該ガイダンス画像を背景画像 (投影面の画像または投影面とその周辺部の画 像)とともに記憶する。ガイダンス画像生成部 111は、図 4 (c)のように現在の投射場 所の再現度が良好でな 、場合に、記憶部内の過去のガイダンス画像とその背景画 像をアレンジして、変更を促すガイダンス画像を生成する。
[0056] 図 5Aは、制御部 100の制御による再現度取得および提示処理を示すフローチヤ ートである。同図において、前半 (S510まで)は、原画像に対する撮像された補正画 像の再現度を計算する処理を、後半 (S512以降)は、再現度に基づいて画像の投 射を制御する処理を示している。同図の処理は補正パラメータの取得後に実行され る。
[0057] まず、制御部 100は、パターン画像生成部 104に 1つのテストパターン画像 (以下、 パターン画像と略す。)を生成させ(S500)、スィッチ 105cにパターン画像を選択さ せ、スィッチ 105aおよび 105bを共に A端子に接続させて、補正部 108に当該パタ ーン画像を補正させる(S502)。補正後のパターン画像 (以下補正画像と略す。)は 画像処理部 106によって投射部 101に適した形式に変換されると、制御部 100は、 変換後の補正画像を投射部 101から投射面に投射させ (S504)、撮像部 102に投 射面を撮像させ (S506)、撮像された補正画像を画像メモリ 103に格納する。さらに、 制御部 100は、パターン画像生成部 104により生成される複数種類のパターン画像 の全てにつ ヽて上記 S500力ら S506までを繰り返させる。 [0058] ここで用いられる複数のパターン画像は、種類を問わず自然画像であってもよぐ エッジの分布や色の分布が異なる方が望ましい。また、ノターン画像生成部 104は、 分野毎に当該分野に含まれる複数の画像を生成してもよい。例えば、野球中継でよ く現れる場面に対応する複数画像、映画でよく現れるシーンや人物画像、テニス中 継でよく現れる場面に対応する複数画像、アニメーションのシーンに対応する複数画 像、テレビドラマのシーンに対応する複数画像、ノ ソコンの画面に表示されるウィンド ゥゃメニューなどの複数画像、などでもよい。これにより、分野毎に異なる再現率を示 すことも可能となる。なお、本実施形態では、補正パラメータ取得処理で用いられるテ ストパターン画像を、再現度取得および提示処理に流用するものとする。なお、パタ ーン画像は複数枚でなくてもよく 1枚でもよ!/、。
[0059] パターン画像の全てについて撮像が完了した後、制御部 100は、再現度計算部 1 09に再現度計算処理を実行させ (S510)、ガイダンス画像生成部 111にガイダンス 画像生成処理を実行させ (S512)、ガイダンス画像の投射 (S514)を制御する。
[0060] なお、 S500力ら S506までの処理は、必ずしも全ての補正パターン画像について 行う必要はない。例えば、代表的な補正パターン画像のみに対して行うことができる 。これにより再現度の精度は低くなる力 撮像のための時間を短縮することができる。
[0061] また、補正パターン画像を投射して(S504)、撮像する(S506)処理の代わりに、画 像投射装置の内部でこの処理をシミュレートする方法もある。この場合のフローチヤ 一卜を図 5Bに示す。図 5Bにお!/ヽて ίま、 S504、 S506の代わりに、 S505の処理力 される。 S505においては、 S504において生成した補正画像に対して、逆補正を施 す。ここで逆補正とは、例えば図 3 (a)の画像が図 3 (b)のようになる変化のことを示し 、補正パラメータ計算部 107で求めた補正パラメータの逆変換を行うことに対応する 。逆変換のためのパラメータは補正パラメータ計算部 107で求められ、逆補正は画像 処理部 106によって行われ、逆補正された補正パターン画像は画像メモリ 103に格 納される。これにより、再現度を計算するために必要な、画像を撮像する時間を削減 することができる。なお、上記逆変換 (S505)は、画像処理部 106の代わりに補正部 108が行ってもよい。その場合、補正部 108は、補正画像はー且画像メモリ 103に格 納し、さらに、画像メモリ 103から補正画像を読み出して、読み出した補正画像に対 して逆補正パラメータにより逆補正を施し、逆補正画像として画像メモリ 103に格納 すればよい。
[0062] 図 6は、図 5A中の再現度計算処理 S510の詳細を示すフローチャート図である。同 図において、前半 (S606まで)は全ての撮像画像 (撮像部 102が投射された補正パ ターン画像を撮像した画像)中の全画素について、原画像中の対応する画素と画素 単位で比較することにより一致判定をする処理であり、後半 (S608以降)は、再現度 を計算する処理である。
[0063] まず、再現度計算部 109は、処理対象の撮像画像の画素値 Pcを取得し (S600)、 原画像の対応する画素値 Poを取得し(S602)、画素値 Pcと画素値 Poがー致するか 否かを判定する(S604)。この一致判定では、既に説明したように差分 d ( = Pc— Po) が所定値より小さ!ヽか否かによる。この所定値は誤差として許容される範囲を示す。 再現度計算部 109は、 S600〜S604において処理対象の撮像画像に含まれる全て の画素について一致判定を行い、その結果、画素毎に一致するか否かを示す一致 フラグ力もなるビットマップデータが生成される。
[0064] 全ての撮像画像について一致判定が完了すると、再現度計算部 109は、 1つの画 像全体の再現度 Raを計算する(S608)。再現度 Raは、ビットマップデータにおける、 一致を示すフラグの割合を再現度として算出する。複数の撮像画像に対応する複数 のビットマップデータは、その全体で、全ビットに対する一致を示すフラグの割合を再 現度として算出する。なお、複数のビットマップデータにおける同じ画素位置の一致 フラグ同士の論理和をとつて、新たなビットマップデータを作成し、新たなビットマップ データにおいて一致を示すフラグの割合を再現度として算出してもよい。
[0065] さらに、再現度計算部 109は、画像全体の再現度 Raが第 1しきい値 Thlより大きい 場合、部分領域の再現度を計算することなぐ再現度計算処理を終了する (S610 :Y es)。第 1のしきい値は例えば 80%である。この場合の画像全体の再現度 Raが良好 なので、画像全体の現在の投射領域をそのまま投射面として良いからである。また、 第 1のしきい値は、用途に応じて異なる値であってもよい。例えば、 TV視聴に対して は第 1のしきい値は 75%、映画視聴に対しては第 1のしきい値は 85%というようにし てもよい。 [0066] また、再現度計算部 109は、画像全体の再現度 Raが第 1しきい値 Thlより小さい場 合、再現度が第 2しきい値 Th2より大きくなるような、部分領域を探索し (S612)、見 つかった場合には当該部分領域の再現度 Rbを計算(S614、 S616)する。第 2しき Vヽ値は、例えば初期値 90%で刻み幅 Aで終値 Bまで減少する変数である。例えば、 Aは 10%、 Bは 50%程度でよい。
[0067] さらに再現度計算部 109は、部分領域が見つからな力つたとき、または部分領域の 再現度 Rbを計算したとき、第 2しきい値 Th2が終値 Bを下っていなければ(S618)、 第 2しきい値 Th2=Th2—Aに更新し (S620)、再度部分領域の探索を行う。
[0068] これにより、画像全体の再現度が良好でな!、場合には、再現度が良好な部分領域 と良好でな 、部分領域を探索することができる。
[0069] ここで、図 5Aの代わりに図 5Bの処理方法を用いた場合には、 S600において撮像 画像の画素値 Pcを取得する代わりに、逆補正された補正パターン画像の画素値を 取得すれば良い。
[0070] 図 7は、図 5Aおよび図 5B中のガイダンス画像生成処理 S512の詳細を示すフロー チャート図である。同図においてガイダンス画像生成部 111は、画像全体の再現度 R aが第 1しきい値 Thlより大きい場合、図 4 (a)のガイダンス画像 D1のような、現状で の投射を促す第 1のガイダンス画像を生成する(S702)。
[0071] また、画像全体の再現度 Raが第 1しき 、値 Thlより大きくな 、場合、ガイダンス画 像生成部 111は、面積の広さと再現度 Rbとを優先して、 1つ以上の部分領域を選択 する(S704)。ここで選択される 1つ以上の部分領域は、重なりがあっても、入れ子に なっていてもよいし、上位 5個と固定個数でもよい。
[0072] さらに、選択された部分領域毎にガイダンス画像生成部 111は、次の処理を行う。
ガイダンス画像生成部 111は当該部分領域の枠を示す画像を生成し (S706)、当該 部分領域の再現度 Rbに応じて投射の可否を判定し (S708)、判定結果を示すメッセ ージを生成する(S710)。投射の可否の判定については、例えば再現度 Rb80%以 上であれば投射可、それ以下であれば投射不可と判定する。
[0073] 選択された部分領域の全てについて上記処理が完了すれば (S712)、ガイダンス 画像生成部 111は、選択された部分領域のうち最高の再現度 maxRbが第 3しきい値 (例えば 80%)より小さいかどうかを判定し (S714)、最高の再現度 maxRbが第 3しき い値より小さくない場合に、図 4 (b)の枠 D4のような、最高の再現度 maxRbを持つ部 分領域枠内に推奨表示枠を設定し (S716)、部分領域枠、投射の適否、メッセージ 、推奨表示枠などを含むガイダンス画像を生成し (S 718)、最高の再現度 maxRbが 第 3しきい値より小さい場合に、図 4 (c)のガイダンス画像 D6のような、投射領域の変 更を促す第 2ガイダンス画像を生成し(720)、さらに、内部の記憶部を参照して、図 4 (d)のガイダンス画像 D7のような、以前の投射領域を示すガイダンス画像を生成する (S722)。
[0074] このようにガイダンス画像生成部 111は、再現度 Rbに応じて部分領域毎に投射の 適否を判定し、領域毎の判定結果を示すメッセージ、領域毎の再現度に関するメッ セージなどを含むガイダンス画像や、投射領域の変更を促すガイダンス画像や、現 状での投射を促すガイダンス画像や、以前の投射領域を示すガイダンス画像などを 生成する。これにより使用者がより再現度のよい投射領域に変更することを容易にす る。
[0075] 続、て、補正パラメータ取得処理にっ 、て説明する。
[0076] 図 8は、制御部 100の制御による補正パラメータ取得処理を示すフローチャート図 である。同図において、制御部 100は、パターン画像生成部 104に 1つのパターン画 像を生成させ (S800)、補正して!/、な 、パターン画像を投射部 101に投射させ (S80 2)、投射面に投射された画像を撮像部 102に撮像させる(S804)。撮像された画像 は、画像メモリ 103に格納される。図 9 (a)〜(c)は、パターン画像生成部 104によつ て生成されるテストパターン画像の例を示す説明図である。図 9 (a)の画像 T1は白色 のパターン画像である。この画像 T1は、投射面の色および柄の検出や、投射画像の 形状が歪んで 、る場合に、補正画像を投射すべき投射領域を決定するために用い られる。図 9 (b)の画像 T2は、一本の水平直線 Lhを表すパターン画像である。この 画像 T2は、水平直線 Lhの位置を 1画素単位にまたは N画素単位に変更させた複数 の水平直線画像のうちの 1つである。また、図 9 (c)の画像 T3は、一本の垂直直線 Lv を表すパターン画像である。この画像 T3は、垂直直線 Lvの位置を 1画素ずつまたは N画素ずつを変更させた複数の垂直直線画像のうちの 1つである。 1つの水平直線 画像と 1つの垂直直線画像との組みは、原画像と投射画像との間の座標の対応関係 を検出するのに用いられる。
[0077] 制御部 100は、図 8に示した S800〜S804を全てのパターン画像について繰り返 す (S806)。全てのパターン画像の撮像が完了すると、制御部 100は、補正パラメ一 タ計算処理を制御し (808)、補正パラメータを補正パラメータ記憶部 110に記憶させ る(S810)。
[0078] 図 10は、図 8中の補正パラメータ計算処理 S808の詳細処理を示すフローチャート 図である。まず。補正パラメータ計算部 107は、白色画像 T1の撮像画像を用いて補 正画像の投射枠を決定する(S 1000)。図 11 (a)〜(c)は、投射枠決定につ!、ての 説明図である。図 11 (a)の撮像画像 IIは、投射面が図 2 (a)のように部屋の角を含む 場合に、投射された白色画像 T1の撮像画像である。元の白色画像 T1と比べると撮 像画像 IIの外形が大きく歪んでいる。補正パラメータ計算部 107は、図 11 (a)の撮 像画像 IIをニ値ィ匕することによって、図 11 (b)の画像 12を得る。さらに、補正パラメ一 タ計算部 107は、二値化された画像 12中の投射画像に内接する最大の矩形領域で あって、そのアスペクト比が原画像のアスペクト比と等しくなるように投射枠を決定す る。図 11 (c)は決定された投射枠を表して!/、る。
[0079] さらに、補正パラメータ計算部 107は、水平直線画像と垂直直線画像との全ての組 みについて、つまり、水平直線と垂直直線の交点として定まるグリッド座標 (Xg, Yg) の全てについて、次の処理を行う。まず、補正パラメータ計算部 107は、撮像画像の グリッド座標 (Xg, Yg)を取得する(S 1002)。図 12 (a)〜(c)は、撮像されたテストパ ターン画像とグリッド座標の例を示す説明図である。図 12 (a)の画像 14は 1つの水平 直線画像の撮像結果を、図 12 (b)の画像 15は、 1つの垂直直線画像の撮像結果を 示す。この撮像結果は図 3 (b)の画像 T2と同様に歪んでいる。図 12 (c)の画像 16は 、例えば、画像 14と画像 15の両者をニ値ィ匕してから、対応する画素同士の ANDをと つた結果であり、画像 14の水平直線と画像 15の垂直直線との交点を示す。この交点 の座標がグリッド座標 (Xg, Yg)であり、原画像の水平直線画像と垂直直線画像の交 点 (Χ,Υ)と対応している。
[0080] グリッド座標取得の後、補正パラメータ計算部 107は、原画像の対応する座標 (X, Y)を取得し (S1004)、この 2つの座標から補正画像の対応する座標 (Χ' , Υ' )を計 算する(S1006)。詳しく言うと、原画像の対応する座標 (X, Y)は図 3 (a)の画像 T1 の座標に該当する。撮像画像のグリッド座標 (Xg, Yg)は図 3 (b)の画像 T2の座標に 該当する。一方、未知の補正画像の座標 (X' , Y' )は図 3 (d)の画像 T4の座標に該 当する。画像 T1から画像 T2への変換関数を fとすると、座標 (X, Y)と座標 (Xg, Yg )の関係は (式 1)と表される。
[0081] f (X, Y) = (Xg, Yg) (式 1)
また、画像 T4を補正画像にするためには、画像 T4カゝら画像 Tiへの変換関数も re なければならな!/、ので、座標 (X' , Y' )と座標 (X, Y)の関係は(式 2)でなければなら ない。
[0082] f (X' , Y' ) = (X, Υ) (式 2)
補正パラメータ計算部 107は、この 2つの式力も未知の (Χ' , Υ' )を計算する(S10 06)。その際、補正パラメータ計算部 107は、 (X, Υ)を画像 T1と同じ大きさのメッシ ュではなぐ画像 Τ3の投射枠に収まる大きさのメッシュにするために、スケーリングす る(S1008)。このようにして、座標 (X, Y)に対応する (X,, Y,)の値が計算される。こ の (X, Υ)と (Χ' , Υ' )とが 1つの座標に対する形状補正パラメータとなる。
[0083] さらに、補正パラメータ計算部 107は、グリッド座標 (Xg, Yg)の色 (画素値)を取得 し (S 1010)、取得した色成分毎の値 (R、 G、 B)をその座標における色補正パラメ一 タとして、形状補正パラメータと共にマップ表に書き込む(S1012)。
[0084] 全グリッド座標について補正パラメータの計算が完了すれば (S1014)、補正パラメ ータ計算部 107はグリッド座標以外の座標の補正パラメータを既に計算済の補正パ ラメータを用いて補間により計算し (S1016)、マップ表に書き込む。図 13は、マップ 表の一例を示す図である。同図のマップ表は、原画像の座標 (X, Y)毎に、形状補 正パラメータ (x'、y' )と色補正パラメータ (R, G, B)とが記載されている。
[0085] 以上説明してきたように本実施の形態における画像投射装置によれば、原画像に 対する撮像された補正画像の再現度に基づ!、て画像の投射を制御するので、より原 画像に近い補正画像を利用することを容易にすることができる。言い換えれば、再現 度の高い投射領域の利用を使用者にもたらすことができる。 [0086] また、使用者はガイダンス画像によって再現度に関する情報を得ることができるの で、より原画像に近い補正画像を利用することができる。使用者はガイダンス画像に よって投射の適否を知ることができるので、より原画像に近 、補正画像を確実に利用 することができる。投射の適否を用途に応じて用途別に適切に判定することもできる。
[0087] 使用者は投射の適否を投射領域全体だけでなぐ部分領域毎に知ることができる。
また、使用者は再現度に関する情報を部分領域毎に知ることができる。
[0088] 再現度がしきい値よりも大きい場合、つまり再現度が良い場合だけ投射することもで きる。
[0089] 投射された補正画像を撮像した画像についての再現度が計算されるので、色の再 現性と形状の再現性の両者を併せ持つ再現度を得ることができる。それゆえ、投射 面の形状がかなり複雑である場合や、壁のコーナーである場合等に効果的である。
[0090] なお、図 3 (a)に示したグリッドの間隔は、 1画素(つまり全画素がグリッド)でもよい。
[0091] (実施の形態 2)
図 14は、実施の形態 2における画像投射装置の構成を示すブロック図である。同 図の画像投射装置 2は、図 1と比較して、首振り部 201が追加された点と、制御部 10 0の代わりに制御部 200を備える点とが異なっている。図 1と同じ点は説明を省略し、 以下異なる点を中心に説明する。なお、撮像部 102の撮像範囲は実施の形態 1と比 ベて広角になって 、るものとする。
[0092] 首振り機構 201は、投射部 101の投射方向を変更する機構であり、投射部 101の 投射方向を横方向に変更する水平首振り機構と、投射部 101の投射方向を縦方向 に変更する垂直首振り機構とからなる。水平首振り機構、垂直首振り機構は何れもモ ータに駆動され、制御部 200からの制御により任意の首振り角度で静止する。
[0093] 制御部 200は、図 1の制御部 100の機能に加えて、(A)複数の投射方向に対応す る複数の投射領域によって形成される拡大領域の設定、 (B)拡大領域の再現度計 算処理の制御、(C)拡大領域のガイダンス画像の提示の制御と行う。拡大領域にお いて部分領域を探索することによって、より確実に再現度の良好な部分領域を設定 することができる。
[0094] 図 15 (a)〜 (f)は、拡大領域の説明図である。図 15 (a)における画像 A1は、撮像 部 102に撮像された画像であり、投射領域 D11は、首振り機構 201の首振り角度が 第 1の角度 (例えば左右の首振り中心を 0度として + 10度)における投射領域を示す o図 15 (b)における画像 A2は、撮像部 102に撮像された画像であり、投射領域 D12 は、首振り機構 201の首振り角度が第 2の角度 (例えば 0度)における投射領域を示 す。図 15 (c)における画像 A3は、撮像部 102に撮像された画像であり、投射領域 D 13は、首振り機構 201の首振り角度が第 3の角度 (例えば— 10度)における投射領 域を示す。
[0095] 図 16は、制御部 200に制御による拡大領域の設定、補正パラメータ取得処理、再 現度取得処理および提示処理の一例を示すフローチャート図である。同図において 、まず制御部 200は、上記 (A)として、複数の投射方向に対応する複数の投射領域 (例えば、 Dl l、 D12、 D13)が連続するか否かを判定して、連続する場合には、図 1 5 (c)に示すような、拡大領域として取り扱うために、第 1〜第 3の角度を記憶し、各角 度に首振り機構 201を設定するため設定値を記憶する。これにより連続領域を拡大 領域として設定したことになる。なお、このときの投射画像は例えば白色画像パター ンでよい。
[0096] さらに、制御部 200は、複数の投射領域個別に、補正パラメータ取得処理を制御し
(S 1602)、再現度計算 ·提示処理を制御する(S 1604)。ここで、ステップ S1602は 図 8と同じでよい。ステップ S1604は、図 5Aの S500〜S510までと同じでよい。複数 の投射領域に対応する全ての角度について完了すると、制御部 200は、拡大領域を 対象に、再現度計算処理を行う(S1608)。この再現度計算処理は、投射領域個別 に計算された画素毎の一致判定フラグから、図 15 (e)に示すような、拡大領域に対 応する 1つのビットマップデータが作成し、拡大領域を対象に部分領域の探索を行う 。このステップ S1608は、図 6のステップ 710力ら S720と同じでよい。
[0097] 制御部 200は、上記 S 1608の再現度計算処理では、拡大領域内で再現度が良好 な部分領域を探索する。その結果、図 15 (f)における部分領域 Rl、 R2、 R3のうち、 部分領域 Rl、 R2は、投射領域と投射領域の境界に跨っている領域であり、単独の 投射領域では探索ができない領域であるが、拡大領域を設定することによって容易 に部分領域を探索することができる。 [0098] さらに、制御部 200は、拡大領域を対象にガイダンス画像生成処理を制御し (S 16 10)、ガイダンス画像を投射させ (S1612)、ユーザ操作に従って選択された部分領 域に投射方向を向けるために首振り機構 201の角度および投射領域を設定する(S 1614)。これによりユーザに選択された部分領域に投射を開始する。
[0099] 以上説明してきたように本実施の形態における画像投射装置 2によれば、投射領 域よりも広範な拡大領域に対して再現度を得ることができるので、より確実に再現度 の高い部分領域を探すことできる。さらに、使用者に最も再現度の高い投射領域の 選択を促すことができる。
[0100] なお、実施の形態 2において、制御部 200は、拡大領域の設定を、首振り機構 201 による首振りをしながら、連続領域となる投射領域の角度を設定するようにしてもよい
[0101] また、首振り機構 201は、上下に回動する鏡、左右に回動する鏡を組み合わせて 構成し、投影光の反射方向を上下、左右に変更可能な構成としてもよい。
[0102] また、首振り機構 201の代わりに、画像投射装置 2の本体ごと回転させる回転機構 を備えてもよい。
[0103] また、画像投射装置 2が LCD等の表示部を備えて 、る場合には、上記のガイダン ス画像を当該表示部に表示してもよい。例えば、上記実施の形態 1または 2における 画像投射装置を小型化したプロジェクタが携帯端末機器 (携帯電話機や PDAやノー トパソコン等)に実装される場合に、上記のガイダンス画像は表示部と投射の少なくと も一方により表示してもよ 、。
[0104] なお、撮像部 102は、カラー画像ではなぐモノクロ画像を撮像する構成でもよ 、。
この場合、投射部 101がテストパターン画像を赤、緑、青の三回に分けて投射し、撮 像部 102によって赤、緑、青に対応する 3つのモノクロ画像を 3つの色成分画像とし て合成すればよい。
[0105] さらに、図 1、図 14に示したブロック図の各機能ブロックは典型的には集積回路装 置である LSIとして実現される。この LSIは 1チップィ匕されても良いし、複数チップ化さ れても良い。例えば、画像メモリ 103などのメモリ以外の機能ブロックが 1チップィ匕され ていても良い。ここでは、 LSIとした力 集積度の違いにより、 IC、システム LSI、スー ノ ー LSI、ウノレ卜ラ LSIと呼称されることちある。
[0106] 集積回路化の手法は LSIに限るものではなぐ専用回路又は汎用プロセサで実現 してもよい。 LSI製造後に、プログラムすることが可能な FPGA (Field Programmable
Gate Array)や、 LSI内部の回路セルの接続や設定を再構成可能なリコンフィギユラ ブル ·プロセッサを利用しても良 、。
[0107] さらには、半導体技術の進歩又は派生する別技術により LSIに置き換わる集積回 路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積ィ匕を行って もよい。バイオ技術の適応等が可能性としてありえる。
[0108] また、各機能ブロックのうち、データを格納するユニットだけ 1チップィ匕せずに、別構 成としても良い。
[0109] また、図 1、図 14に示したブロック図の各機能ブロックおよび図 5A〜図 8、図 10、 図 16に示したフローチャートにおいて、制御部 109を含む中心的な部分はマイクロ プロセッサおよびプログラムによって実現される。それゆえ、本発明をプログラムとして 構成してちょい。
産業上の利用可能性
[0110] 本発明は、画像をスクリーンに投射する画像投射装置に適している。

Claims

請求の範囲
[1] 画像を投射する画像投射装置であって、
投射された画像を撮像する撮像手段と、
撮像された画像の原画像に対する再現度を計算する計算手段と、
前記再現度に基づいて画像の投射を制御する制御手段と
を備えることを特徴とする画像投射装置。
[2] 前記画像投射装置は、さら〖こ、前記再現度に関するガイダンス画像を生成する画 像生成手段を備え、
前記制御部は、前記ガイダンス画像の投射を制御する
ことを特徴とする請求項 1記載の画像投射装置。
[3] 前記画像生成手段は、前記再現度に応じて投射面に対する投射の適否を判定し、 判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 2記載の画像投射装置。
[4] 投射面に応じた補正画像を投射する画像投射装置であって、
投射された画像を撮像する撮像手段と、
撮像された画像に基づ ヽて、投射面に起因する画像の歪みを補正する補正パラメ ータを計算する第 1計算部と、
前記補正パラメータを用いて画像を補正することにより補正画像を生成する補正手 段と、
補正手段により生成された補正画像、および投射と撮像を通して得られた補正画 像の一方について、原画像に対する再現度を計算する第 2計算手段と、
前記再現度に基づいて画像の投射を制御する制御手段と
を備えることを特徴とする画像投射装置。
[5] 前記画像投射装置は、さら〖こ、前記再現度に関するガイダンス画像を生成する画 像生成手段を備え、
前記制御部は、前記ガイダンス画像の投射を制御する
ことを特徴とする請求項 4記載の画像投射装置。
[6] 前記画像生成手段は、前記再現度に応じて投射面に対する投射の適否を判定し、 判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 5記載の画像投射装置。
[7] 前記画像生成手段は、前記適否の判定にお!、て用途に応じたしき!、値を選択し、 選択されたしき 、値を用いる
ことを特徴とする請求項 6記載の画像投射装置。
[8] 前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領域毎に 前記再現度を計算し、
前記ガイダンス生成手段は、前記再現度に応じて前記部分領域毎に投射の適否 を判定し、領域毎の判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 5記載の画像投射装置。
[9] 前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領域毎に 前記再現度を計算し、
前記ガイダンス生成手段は、領域毎の前記再現度に関するガイダンス画像を生成 する
ことを特徴とする請求項 5記載の画像投射装置。
[10] 前記制御手段は、前記再現度が所定の値よりも大き!、とき、画像を補正しかつ投射 するよう制御することを特徴とする請求項 1記載の画像投射装置。
[11] 前記第 2計算手段は、補正画像と原画像との間で対応する画素同士を比較するこ とによって、前記再現度を計算する
ことを特徴とする請求項 4記載の画像投射装置。
[12] 前記制御手段は、投射面に投射された補正画像を前記撮像手段に撮像させ、 前記第 2計算手段は、撮像手段によって補正画像から得られた撮像画像と、原画 像との間で対応する画素同士を比較することによって、前記再現度を計算する ことを特徴とする請求項 11記載の画像投射装置。
[13] 前記第 1計算手段は、さらに、前記補正パラメータによる補正の逆変換を示す逆補 正パラメータを計算し、
前記補正手段は、さらに、補正画像を逆補正パラメータにより逆変換し、 前記第 2計算手段は、逆変換された補正画像と、原画像との間で対応する画素同 士を比較することによって、前記再現度を計算する
ことを特徴とする請求項 11記載の画像投射装置
[14] 前記画像投射装置は、さら〖こ、前記再現度に関するガイダンス画像を生成する画 像生成手段を備え、
前記制御部は、前記ガイダンス画像の投射を制御する
ことを特徴とする請求項 11記載の画像投射装置。
[15] 前記画像生成手段は、前記再現度に応じて投射面に対する投射の適否を判定し、 判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 14記載の画像投射装置。
[16] 前記画像生成手段は、前記適否の判定にぉ 、て用途に応じたしき 、値を選択し、 選択されたしき 、値を用いる
ことを特徴とする請求項 15記載の画像投射装置。
[17] 前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領域毎に 前記再現度を計算し、
前記ガイダンス生成手段は、前記再現度に応じて前記部分領域毎に投射の適否 を判定し、領域毎の判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 14記載の画像投射装置。
[18] 前記第 2計算手段は、投射面における投射領域に含まれる複数の部分領域毎に 前記再現度を計算し、
前記ガイダンス生成手段は、領域毎の前記再現度に関するガイダンス画像を生成 する
ことを特徴とする請求項 14記載の画像投射装置。
[19] 前記画像投射手段は、さらに、投射方向を変更する変更手段を備え、
前記制御手段は、拡大領域を得るための複数の投射方向を決定し、
前記拡大領域は前記複数の投射方向に対応する複数の投射領域によって形成さ れ、
前記第 2計算手段は、複数の投射領域の個々の投射領域毎に再現度を計算し、 投射領域毎の前記再現度に基づいて前記拡大領域の再現度を計算する ことを特徴とする請求項 4記載の画像投射装置。
[20] 前記第 2計算手段は、前記拡大領域に含まれる複数の部分領域毎に前記再現度 を計算し、
前記ガイダンス生成手段は、前記再現度に応じて前記部分領域毎に投射の適否 を判定し、領域毎の判定結果を示すガイダンス画像を生成する
ことを特徴とする請求項 19記載の画像投射装置。
[21] 前記制御手段は、さらに、ユーザ操作に基づいて部分領域を選択し、選択された 部分領域に画像を投射するよう制御する
ことを特徴とする請求項 20記載の画像投射装置。
[22] 前記第 2計算手段は、前記拡大領域に含まれる複数の部分領域毎に前記再現度 を計算し、
前記ガイダンス生成手段は、領域毎の前記再現度に関するガイダンス画像を生成 する
ことを特徴とする請求項 19記載の画像投射装置。
[23] 画像を投射する画像投射装置を制御する方法であって、
投射された画像を撮像し
撮像された画像の原画像に対する再現度を計算し、
前記再現度に基づ ヽて画像の投射を制御する
ことを特徴とする制御方法。
[24] 画像を投射する画像投射装置を制御する半導体装置さあって、
投射された画像を撮像する撮像手段と、
撮像された画像の原画像に対する再現度を計算する計算手段と、
前記再現度に基づいて画像の投射を制御する制御手段と
を備えることを特徴とする半導体装置。
[25] 画像を投射する画像投射装置に備えられるコンピュータに読み取り可能なプロダラ ムであって、
投射された画像を撮像し
撮像された画像の原画像に対する再現度を計算し、 前記再現度に基づ ヽて画像の投射を制御する
ことを前記コンピュータに実行させることを特徴とするプログラム。
PCT/JP2006/324517 2005-12-22 2006-12-08 画像投射装置 Ceased WO2007072695A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2006800453876A CN101322402B (zh) 2005-12-22 2006-12-08 图像投影装置、控制方法以及半导体装置
JP2007551039A JP4986864B2 (ja) 2005-12-22 2006-12-08 画像投射装置
US12/097,717 US8003927B2 (en) 2005-12-22 2006-12-08 Image projection apparatus which projects an image corrected according to a projection surface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-370917 2005-12-22
JP2005370917 2005-12-22

Publications (1)

Publication Number Publication Date
WO2007072695A1 true WO2007072695A1 (ja) 2007-06-28

Family

ID=38188476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/324517 Ceased WO2007072695A1 (ja) 2005-12-22 2006-12-08 画像投射装置

Country Status (4)

Country Link
US (1) US8003927B2 (ja)
JP (1) JP4986864B2 (ja)
CN (1) CN101322402B (ja)
WO (1) WO2007072695A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135921A (ja) * 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
JP2009206800A (ja) * 2008-02-27 2009-09-10 Seiko Epson Corp 画像処理装置、プロジェクタ、画像処理方法
JP2013118596A (ja) * 2011-12-05 2013-06-13 Tetsuya Akiba 投影システム及び方法
JP2016192600A (ja) * 2015-03-30 2016-11-10 株式会社東芝 情報処理装置および投影装置
JP2016197171A (ja) * 2015-04-03 2016-11-24 日本電信電話株式会社 画像投影装置、方法、及びプログラム
JP6259933B1 (ja) * 2016-07-27 2018-01-10 株式会社オプティム 投影システム、投影方法及びプログラム
WO2018142743A1 (ja) * 2017-02-01 2018-08-09 シャープ株式会社 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム
US10225464B2 (en) 2017-03-27 2019-03-05 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer-readable storage medium having stored thereon image processing program for correcting an image for projection
JP2019149760A (ja) * 2018-02-28 2019-09-05 セイコーエプソン株式会社 回路装置及び電子機器
US10437139B2 (en) 2017-06-20 2019-10-08 Casio Computer Co., Ltd. Projector apparatus, projection method, and storage medium
JP2020184059A (ja) * 2019-04-29 2020-11-12 セイコーエプソン株式会社 回路装置、電子機器及び移動体
US10891750B2 (en) 2018-03-26 2021-01-12 Casio Computer Co., Ltd. Projection control device, marker detection method, and storage medium
JP2022106769A (ja) * 2018-02-28 2022-07-20 セイコーエプソン株式会社 回路装置及び電子機器
JP2023110213A (ja) * 2022-01-28 2023-08-09 セイコーエプソン株式会社 回路装置及び表示システム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5736535B2 (ja) * 2009-07-31 2015-06-17 パナソニックIpマネジメント株式会社 投写型映像表示装置及び画像調整方法
JP5440250B2 (ja) * 2010-02-26 2014-03-12 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
JP5604909B2 (ja) * 2010-02-26 2014-10-15 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
CN101917631B (zh) * 2010-07-30 2012-04-25 浙江大学 一种在日常照明环境下的投影显示颜色再现方法
CN101959072B (zh) * 2010-07-30 2012-06-27 浙江大学 一种彩色表面投影显示颜色再现方法
JP2012078490A (ja) * 2010-09-30 2012-04-19 Sanyo Electric Co Ltd 投写型映像表示装置及び画像調整方法
US8480238B2 (en) * 2010-10-26 2013-07-09 Canon Kabushiki Kaisha Projector array for multiple images
KR101305249B1 (ko) 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 다면 상영 시스템
JP6299071B2 (ja) * 2013-03-27 2018-03-28 セイコーエプソン株式会社 プロジェクター、映像補正方法およびプログラム
US9004675B2 (en) 2013-04-04 2015-04-14 Nike, Inc. Image correction with 3D printing
WO2014193063A1 (en) * 2013-05-31 2014-12-04 Cj Cgv Co., Ltd. Multi-projection system
JP2015056687A (ja) * 2013-09-10 2015-03-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6534096B2 (ja) * 2014-06-25 2019-06-26 パナソニックIpマネジメント株式会社 投影システム
DE102014108905A1 (de) * 2014-06-25 2015-12-31 Osram Opto Semiconductors Gmbh Projektionsvorrichtung und Verfahren zur Erzeugung eines Projektionsbildes
JP6143199B2 (ja) * 2015-03-18 2017-06-07 カシオ計算機株式会社 画像補正装置、画像補正方法、及びプログラム
CN104702871A (zh) * 2015-03-19 2015-06-10 世雅设计有限公司 无人机投影显示方法、系统及装置
JP6536133B2 (ja) * 2015-04-01 2019-07-03 セイコーエプソン株式会社 印刷装置および印刷方法
CN104796678A (zh) * 2015-04-28 2015-07-22 联想(北京)有限公司 信息处理方法及电子设备
WO2017169186A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 画像投影システムおよび補正方法
JP2018159838A (ja) * 2017-03-23 2018-10-11 キヤノン株式会社 画像投影装置とその制御方法、プログラム及び記憶媒体
US10425625B2 (en) * 2018-02-06 2019-09-24 The Boeing Company Projecting images and videos onto engineered curved surfaces
CN112596332B (zh) * 2020-12-23 2022-03-11 广景视睿科技(深圳)有限公司 一种投影系统及投影仪
US11991484B2 (en) * 2021-07-12 2024-05-21 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029110A (ja) * 2002-06-21 2004-01-29 Canon Inc 投射型表示装置
JP2005039784A (ja) * 2003-06-26 2005-02-10 Seiko Epson Corp 投写画像の歪補正量調整

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3509652B2 (ja) 1999-08-23 2004-03-22 日本電気株式会社 プロジェクタ装置
JP2002071315A (ja) 2000-09-05 2002-03-08 Nec Corp 投影平面計測システム
US7184054B2 (en) * 2003-01-21 2007-02-27 Hewlett-Packard Development Company, L.P. Correction of a projected image based on a reflected image
JP2004228948A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3846592B2 (ja) 2003-06-26 2006-11-15 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7262816B2 (en) * 2004-10-22 2007-08-28 Fakespace Labs, Inc. Rear projection imaging system with image warping distortion correction system and associated method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029110A (ja) * 2002-06-21 2004-01-29 Canon Inc 投射型表示装置
JP2005039784A (ja) * 2003-06-26 2005-02-10 Seiko Epson Corp 投写画像の歪補正量調整

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135921A (ja) * 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
JP2009206800A (ja) * 2008-02-27 2009-09-10 Seiko Epson Corp 画像処理装置、プロジェクタ、画像処理方法
JP2013118596A (ja) * 2011-12-05 2013-06-13 Tetsuya Akiba 投影システム及び方法
JP2016192600A (ja) * 2015-03-30 2016-11-10 株式会社東芝 情報処理装置および投影装置
JP2016197171A (ja) * 2015-04-03 2016-11-24 日本電信電話株式会社 画像投影装置、方法、及びプログラム
JP6259933B1 (ja) * 2016-07-27 2018-01-10 株式会社オプティム 投影システム、投影方法及びプログラム
WO2018020606A1 (ja) * 2016-07-27 2018-02-01 株式会社オプティム 投影システム、投影方法及びプログラム
US10345687B2 (en) 2016-07-27 2019-07-09 Optim Corporation Projection system, projection method, and projection program
WO2018142743A1 (ja) * 2017-02-01 2018-08-09 シャープ株式会社 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム
JPWO2018142743A1 (ja) * 2017-02-01 2019-12-19 シャープ株式会社 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム
US10225464B2 (en) 2017-03-27 2019-03-05 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer-readable storage medium having stored thereon image processing program for correcting an image for projection
US10437139B2 (en) 2017-06-20 2019-10-08 Casio Computer Co., Ltd. Projector apparatus, projection method, and storage medium
JP2019149760A (ja) * 2018-02-28 2019-09-05 セイコーエプソン株式会社 回路装置及び電子機器
CN110211518A (zh) * 2018-02-28 2019-09-06 精工爱普生株式会社 电路装置和电子设备
JP2022106769A (ja) * 2018-02-28 2022-07-20 セイコーエプソン株式会社 回路装置及び電子機器
JP7180079B2 (ja) 2018-02-28 2022-11-30 セイコーエプソン株式会社 回路装置及び電子機器
CN110211518B (zh) * 2018-02-28 2023-06-06 精工爱普生株式会社 电路装置和电子设备
JP7322999B2 (ja) 2018-02-28 2023-08-08 セイコーエプソン株式会社 回路装置、表示システム及び電子機器
US10891750B2 (en) 2018-03-26 2021-01-12 Casio Computer Co., Ltd. Projection control device, marker detection method, and storage medium
JP2020184059A (ja) * 2019-04-29 2020-11-12 セイコーエプソン株式会社 回路装置、電子機器及び移動体
JP7467883B2 (ja) 2019-04-29 2024-04-16 セイコーエプソン株式会社 回路装置、電子機器及び移動体
JP2023110213A (ja) * 2022-01-28 2023-08-09 セイコーエプソン株式会社 回路装置及び表示システム
JP7767949B2 (ja) 2022-01-28 2025-11-12 セイコーエプソン株式会社 回路装置及び表示システム

Also Published As

Publication number Publication date
US20090310100A1 (en) 2009-12-17
CN101322402A (zh) 2008-12-10
JP4986864B2 (ja) 2012-07-25
US8003927B2 (en) 2011-08-23
JPWO2007072695A1 (ja) 2009-05-28
CN101322402B (zh) 2010-09-15

Similar Documents

Publication Publication Date Title
JP4986864B2 (ja) 画像投射装置
KR100796849B1 (ko) 휴대 단말기용 파노라마 모자이크 사진 촬영 방법
CN110622497B (zh) 具备具有不同焦距的相机的设备及实现相机的方法
WO2022179108A1 (zh) 投影校正方法、装置、存储介质和电子设备
US8704929B2 (en) System and method for user guidance of photographic composition in image acquisition systems
US20190289203A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2009064421A (ja) 深度データの符号化方法、深度マップ生成装置及び電子装置
JP2006094558A (ja) 投影システム
CN112272292B (zh) 投影校正方法、装置和存储介质
JP2017208619A (ja) 画像処理装置、画像処理方法、プログラム及び撮像システム
JP5644461B2 (ja) 画像処理装置及びプログラム
CN114125411B (zh) 投影设备校正方法、装置、存储介质以及投影设备
US12456160B2 (en) Imaging system, image processing apparatus, imaging device, and recording medium
CN106464799A (zh) 一种自动变焦的方法和装置
CN102855482A (zh) 图片处理方法及装置
CN113647093B (zh) 图像处理装置、3d模型生成方法和程序
CN110874809A (zh) 图像处理方法及装置、电子设备和存储介质
JP2022143122A (ja) 画像処理方法、撮像制御方法、プログラム、画像処理装置および撮像装置
JP5796611B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像システム
CN115474032B (zh) 投影交互方法、投影设备和存储介质
CN118784808A (zh) 投影画面校正方法及投影设备
CN114339179B (zh) 投影校正方法、装置、存储介质以及投影设备
JP2019169913A (ja) 投影制御装置、投影装置、補正用画像投影方法及びプログラム
JP6079838B2 (ja) 画像処理装置、プログラム、画像処理方法および撮像システム
CN108206909A (zh) 全景实时图像处理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680045387.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007551039

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12097717

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06834272

Country of ref document: EP

Kind code of ref document: A1