WO2018167999A1 - プロジェクタ及びプロジェクタシステム - Google Patents
プロジェクタ及びプロジェクタシステム Download PDFInfo
- Publication number
- WO2018167999A1 WO2018167999A1 PCT/JP2017/027429 JP2017027429W WO2018167999A1 WO 2018167999 A1 WO2018167999 A1 WO 2018167999A1 JP 2017027429 W JP2017027429 W JP 2017027429W WO 2018167999 A1 WO2018167999 A1 WO 2018167999A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- projector
- unit
- image
- imaging
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/22—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length at, near, or formed by the object
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Definitions
- the present disclosure relates to a projector and a projector system that calculate a distance between a projector and a projection surface of an image projected by the projector.
- Patent Document 1 discloses a three-dimensional image acquisition method and apparatus for acquiring distance information together with luminance information by a triangulation method using a projection system and one or more cameras.
- the projector includes a first projection unit that projects a first video, a first imaging unit that images a second video projected by another projector, and a first calculation unit.
- the first calculation unit based on the imaging data of the second video captured by the first imaging unit and the distance information between the other projector and the own projector, a first distance between the surface on which the second video is projected and the other projector, Alternatively, the second distance between the area where the second image is projected and the projector is calculated.
- the first projection unit controls the projection of the first video based on the first distance or the second distance.
- a projector system includes a first projector that projects a first video, a second projector that projects a second video, and a control box that communicates with the first projector and the second projector.
- the first projector includes a first projection unit that displays the first video, a first imaging unit that images the second video, position information of the first projector, and imaging data of the second video captured by the first imaging unit.
- a first communication unit that transmits, the second projector includes a second communication unit that transmits position information of the second projector, and the control box includes a third communication unit and a third calculation unit. .
- the third communication unit receives position information and imaging data of the first projector from the first communication unit, and receives position information of the second projector from the second communication unit.
- the third calculation unit calculates interval information between the first projector and the second projector from the position information of the first projector and the position information of the second projector, and the second image is projected from the imaging data and the interval information.
- a first distance between the surface and the second projector, or a second distance between the area where the second image is projected and the first projector is calculated.
- the control box controls projection of the first video by the first projection unit based on the first distance or the second distance.
- a projector system includes a first projector that projects a first video, a second projector that projects a second video, an imaging device that captures the second video, and a calculation unit. .
- the calculating unit calculates the first distance between the surface on which the second video is projected and the second projector from the imaging data of the second video captured by the imaging device and the position information of the first projector, the second projector, and the imaging device. Alternatively, the second distance between the area where the second video is projected and the imaging device is calculated.
- the first projector controls the projection of the first video based on the first distance or the second distance.
- FIG. 1 is a schematic diagram of projector system S1 in the first embodiment.
- the projector system S1 includes a plurality of projectors 10 (four are shown in FIG. 1) that project images, and a control box 20 that communicates imaging data and position information with the plurality of projectors 10.
- the projector 10 includes a projection unit 11, a lens unit 12, an imaging unit 13, a communication unit 14, and a calculation unit 15.
- Projection unit 11 displays and projects an image projected by projector 10.
- the projection unit 11 is configured, for example, as a digital mirror device or LCOS (Liquid crystal on silicon).
- the lens unit 12 projects the image projected by the projection unit 11 onto the projection surface while enlarging or reducing the image.
- the lens unit 12 is configured as a zoom lens, for example.
- the imaging unit 13 captures an image (second image) projected on the projection surface by the other projector 10 through the lens unit 12.
- the imaging unit 13 has a configuration such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), for example.
- CCD charge-coupled device
- CMOS complementary metal oxide semiconductor
- the communication unit 14 communicates with other projectors 10 and the control box 20.
- the communication unit 14 transmits position information of the position and projection direction of its own projector 10 (own projector), imaging data captured by the imaging unit 13, distance information between other projectors 10 and the projection surface, The position information of the position and projection direction of the other projector 10 and the control signal from the control box 20 are received.
- the calculation unit 15 calculates the position of the projector 10 and the position information in the projection direction. For example, the calculation unit 15 calculates a position with GPS (Global Positioning System) and calculates a projection direction with a gyro sensor. Then, the calculation unit 15 calculates the interval information between the other projector 10 and the own projector 10 from the position information of the own projector 10 and the position information of the other projector 10 received by the communication unit 14.
- GPS Global Positioning System
- the calculation unit 15 analyzes the projection direction of the other projector 10 with respect to the projection surface and the self by analyzing the imaging data obtained by the imaging unit 13 imaging the image projected by the other projector 10 on the projection surface.
- the angle information with respect to the imaging direction of the projector 10 is calculated.
- the angle information can be calculated by analyzing the positional relationship between the video elements of the video in the imaging data.
- the calculation unit 15 calculates the angle information by, for example, a spatial encoding method when the projection surface is a solid. Then, the calculation unit 15 performs triangulation using angle information between the projection direction of the other projector 10 on the projection surface and the imaging direction of the own projector 10, and distance information between the other projector 10 and the own projector 10. From the above, the distance L1 (first distance) between the other projector 10 and the projection surface is calculated by the following equation (1).
- the calculation unit 15 performs triangulation using angle information between the projection direction of the other projector 10 on the projection surface and the imaging direction of the own projector 10, and distance information between the other projector 10 and the own projector 10.
- the distance L2 (second distance) between the projector 10 and the area on the projection surface (the image projected on the projection surface by the other projector 10) captured by the imaging unit 13 of the projector 10 from the projector 10 Is calculated by the following equation 2.
- L1 x / tan ⁇ (Formula 1)
- L2 x / sin ⁇ (Formula 2)
- L1 Distance between the other projector and the projection surface (perpendicular to the projection surface from the other projector)
- L2 Area on the projection surface taken by the projector and the projector (distance L1)
- X Distance between other projector and own projector
- ⁇ Angle between projection direction of other projector and imaging direction of own projector
- the control box 20 includes a communication unit 21 and a control unit 22.
- the communication unit 21 communicates with a plurality of projectors 10.
- the communication unit 21 receives position information about the position of the projector 10 and the projection direction, distance information about the projection surface of the projector 10, and transmits position information about the position of the projector 10 and the projection direction, and a control signal. To do.
- the control unit 22 creates a layout diagram of the projector 10 and the projection surface based on the position information of the projector 10 and the projection direction received by the communication unit 21 and the distance information with respect to the projection surface of the projector 10. Further, when there is a problem in the layout of the projector 10 and the projection surface, a control signal is transmitted via the communication unit 21 in order to eliminate the problem. Further, the control unit 22 includes a recording unit therein, and the position information of the projector 10 and the projection direction received by the communication unit 21, the distance information between the projector 10 and the projection surface, the projector 10 and the projection target The layout of the surface is recorded.
- the projector system S1 includes the control box 20, and each projector 10 includes the communication unit 14, whereby centralized management and advanced data processing can be realized.
- FIG. 2 is a schematic diagram of projection and imaging of the projector 10 according to the first embodiment.
- FIG. 3 is a layout diagram of the projection unit 11 and the imaging unit 13 when the 3-3 cross section of FIG. 2 is viewed from the direction of the lens unit 12.
- the projector 10 projects an image 30 from the projection unit 11 through the lens unit 12 onto the projection surface 40 as indicated by a thin solid line.
- the projector 10 images the periphery of the video 30 with the imaging unit 13 as shown by a broken line from the projection surface 40 through the lens unit 12.
- the projection unit 11 is disposed on the optical axis X for projecting an image
- the imaging unit 13 has a larger area than the projection unit 11 when viewed from the optical axis X direction. It arrange
- the imaging unit 13 is disposed on the opposite side of the projection unit 11 from the lens unit 12 on the optical axis X on which an image is projected.
- the imaging unit 13 can image a wide range of the outer periphery of the image 30 projected on the projection surface 40.
- the projector 10 has the imaging range outside the projection range of the projected image 30, so that the image 30 of the other projector 10 projected on the outside of the projector 10 while projecting the image 30 of its own projector 10. Can be imaged.
- the imaging unit 13 since the imaging unit 13 has a larger area than the projection unit 11 and can be disposed behind the projection unit 11 (on the side opposite to the lens unit 12), it does not have to be manufactured in a special shape. That is, the volume of the projector 10 is reduced while suppressing the manufacturing cost.
- FIG. 4 is a schematic diagram of a projector system S1 in which a plurality of projectors 10a to 10d (FIG. 4 shows four projectors) project their respective images 30a to 30d.
- the projectors 10a to 10d are arranged side by side in a direction perpendicular to the projection direction, and project images 30a to 30d from the projection units 11 onto the projection surface 40.
- the images 30a to 30d are projected side by side in the direction perpendicular to the projection direction from the projectors 10a to 10d.
- the projected images 30a to 30d are preferably adjacent to each other without a gap. However, even if images adjacent to each other overlap, at least a part of the image 30 projected by the other projector 10 is projected outside the area of the image 30 projected by the projector 10, so 10 can capture an image 30 projected by another projector 10.
- the projector 10 a captures the video 30 b on the right side of the video 30 a with the imaging unit 13.
- the projector 10b captures the left image 30a and the right image 30c of the image 30b with the imaging unit 13.
- the projector 10c captures the left image 30b and the right image 30d of the image 30c by the imaging unit 13.
- the projector 10d captures an image 30c on the left side of the image 30d with the imaging unit 13.
- the projectors 10a to 10d use the image data of the video 30 of the other projectors 10 captured by the respective imaging units 13, and the position information of the other projectors 10 and the position information of the projection direction received by the respective communication units 14.
- Each calculation unit 15 calculates information on the first distance between the projection surface 40 and the other projector 10. Furthermore, each calculation unit 15 causes the area on the projection surface 40 that the projector 10 is photographing (the image 30 on the projection surface 40 that is projected by the other projector 10) and the projector 10. The second distance information is calculated.
- the plurality of projectors 10a to 10d capture the images 30a to 30d of the other projectors 10a to 10d.
- the plurality of projectors 10a to 10d are photographed by the first distance between the other projectors 10a to 10d and the projection surface 40, and the projectors 10a to 10d and their own projectors on the projection surface 40.
- a second distance from the regions of the images 30a to 30d is calculated.
- the projector system S1 is composed of half the number of devices as compared with the case where the projection unit and the imaging unit are provided in separate projector and camera devices, respectively.
- the first distance between the projector 10b and the projection surface 40 is calculated by the two projectors 10a and 10c.
- the first distance between the projector 10c and the projection surface 40 is calculated by the two projectors 10b and 10d. Therefore, the first distance between the projectors 10b and 10c and the projection surface 40 can improve the calculation accuracy.
- the degree of freedom of the projector system can be increased when one projector captures a plurality of images.
- the projection unit 11 and the imaging unit 13 use the same lens unit 12, and at the same time the projection unit 11 projects the first video, the imaging unit 13 captures the second video of the other projector 10,
- the calculation unit 15 can calculate information on the first distance between the projection surface 40 and another projector 10. Further, the calculation unit 15 can calculate information on the second distance between the area on the projection surface 40 taken by the projector and the projector 10.
- the projection unit 11 and the imaging unit 13 share one lens unit 12, it is possible to reduce the number of apparatuses while reducing the volume and cost of the apparatus included in the projector system.
- the projected image and the captured image may be visible light or invisible light.
- both visible light may be sufficient and one may be invisible light (infrared light).
- four projectors 10 are used, but three projectors and five or more projectors 10 may be used.
- the lens portions 12 of the projectors 10 may be different from each other.
- the focal length of the lens unit 12 of each projector 10 By changing the focal length of the lens unit 12 of each projector 10, the projection range and the imaging range can be arbitrarily selected. Thereby, the freedom degree of a projector system can be increased.
- the position information of the other projectors 10 is received by the communication unit 14 and the interval information is calculated by the calculation unit 15.
- a plurality of projectors 10 may be arranged at predetermined intervals.
- the interval information at the time of arrangement may be recorded in the recording unit of the calculation unit 15 of each projector 10.
- the shapes of the projection unit 11 and the imaging unit 13 are rectangular, but the shape is not particularly limited.
- the projection unit 11 and the imaging unit 13 may be circular or may have a shape with chamfered corners.
- the imaging unit 13 can use a wide range of the image circle by expanding the imaging range by matching the shape with the image circle of the lens as compared with a rectangular shape.
- the projection unit 11 and the imaging unit 13 are in contact with each other as shown in FIG. 1, but the interval between the projection unit 11 and the imaging unit 13 is not particularly limited.
- the projection unit 11 and the imaging unit 13 may be separated from each other, or a plate 16 made of metal or resin may be disposed between the projection unit 11 and the imaging unit 13 as shown in FIG. In this case, the range in which the imaging unit 13 does not capture can be clearly divided, and the imaging sensitivity can be improved.
- the projection unit 11 and the imaging unit 13 are arranged so as to overlap the optical axis X.
- the optical path may be divided using an optical path dividing unit.
- the projector 10 includes a prism 17 as an optical path dividing unit, and the projection unit 11 and the imaging unit 13 are arranged on different surfaces of the prism 17. Visible light from the projection unit 11 travels straight through the prism 17 and is projected through the lens unit 12. The invisible light to be imaged is reflected by the prism 17 through the lens unit 12 and imaged by the imaging unit 13. With this configuration, it is not necessary to overlap the projection unit 11 and the imaging unit 13, and parts including the imaging unit 13 having a large area are not necessary, and the cost can be reduced.
- the imaging range in the imaging unit 13 can be set to a desired range by changing the reflection angle of the prism 17.
- the optical path dividing unit may be a flat dichroic mirror or a diffraction grating, for example, other than the prism. If the wavelengths of the light to be split are the same or close, a half mirror can be used for the optical path splitting unit.
- the imaging unit 13 is arranged so as to surround the entire circumference of the projection unit 11, but may not be surrounded.
- the imaging unit 13 may not be on the right side of the projection unit 11.
- the imaging unit 13 on the left side of the projection unit 11 can capture a wider range of images.
- the imaging units 13 do not have to be evenly arranged outside the projection unit 11, and the arrangement can be biased according to the position of the image 30 to be imaged.
- the imaging part 13 was made into one, you may divide
- four imaging units 13 may be arranged on the top, bottom, left, and right of the projection unit 11, or one imaging unit 13 may be arranged beside the one projection unit 11.
- the manufacturing cost can be reduced as compared with the case of using a component having a large imaging unit 13 or a component having a special shape.
- the case where one projector 10 captures the entire image 30 of another adjacent projector 10 as shown in FIG. 4 is shown.
- the image 30b of the projector 10b adjacent to 10c may be captured in half. That is, a part of the video 30 of another projector 10 adjacent to the two projectors 10 may be captured. In this case, the area of the imaging unit 13 can be reduced.
- the projector 10 includes the calculation unit 15, but the control box 20 may include the calculation unit.
- the projector 10 transmits the position information of its own projector 10 and imaging data obtained by imaging the image of the other projector 10 through the communication unit 14, and the control box 20 is transmitted from each projector 10 through the communication unit 21.
- the position information and the imaging data received are received, and the calculation unit included in the control box 20 may calculate the first distance between the projected surface 40 of the video and each projector 10 from the position information and the imaging data.
- the calculation unit included in the control box 20 may calculate the second distance between each projector 10 and the area of the image on the projection surface 40 taken by each projector 10 from the position information and the imaging data. .
- the projector 10 includes the imaging unit 13.
- the imaging unit 13 may be provided in a camera (imaging device) separately from the projector 10 without sharing the lens unit 12.
- the imaging unit of the camera captures the video 30 projected by the second projector 10 onto the projection surface 40, generates imaging data, and transmits the imaging data to the calculation unit.
- the calculation unit calculates the first distance between the region of the image 30 (second image) on the projection surface 40 and the second projector 10 and the projection from the position information and the imaging data of the second projector 10 and the camera.
- a second distance between the area of the image 30 (second image) on the surface 40 and the camera is calculated.
- the calculation unit may be included in the projector 10 or the control box 20.
- the camera and the projector are preferably configured in the same casing. By doing so, the number of devices is reduced, and handling of the entire projector system is facilitated. Also in this case, the projection unit 11 of the first projector 10 can control the projection of the image 30 (first image) projected by the projector 10 based on the first distance or the second distance.
- a plurality of projectors 10 are arranged in a horizontal row, and an image 30 of two other projectors 10 in which one projector 10 is arranged on both sides is captured, and two other projectors 10 are taken.
- the calculation of the distance between the projection surface 40 and the projection surface 40 has been described.
- a plurality of projectors 10 are arranged in a grid pattern, and an image 30 of one other projector 10 in which one projector 10 is arranged nearby is imaged and projected with other projectors 10.
- the first embodiment is different from the first embodiment in that the first distance to the surface 40 and the second distance between the projector 10 and the area of the image 30 projected on the projection surface 40 by the other projector 10 are calculated. .
- FIG. 10 is a schematic diagram of the projector system S2 in the second embodiment.
- the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
- a plurality (four in FIG. 10) of projectors 10a to 10d are arranged in a grid and project images 30a to 30d, respectively, in a grid. Then, each of the projectors 10a, 10b, 10c, and 10d captures images 30b, 30c, 30d, and 30a of the projectors 10b, 10c, 10d, and 10a that are located in a lattice shape and are counterclockwise.
- the broken lines shown in FIG. 10 indicate the correspondence between the projectors 10a, 10b, 10c, and 10d and the images 30b, 30c, 30d, and 30a captured by the projectors 10a, 10b, 10c, and 10d, respectively.
- the projector 10a captures the image 30b of the projector 10b while projecting the image 30a.
- the projector 10b captures the image 30c of the projector 10c while projecting the image 30b.
- the projector 10c captures the image 30d of the projector 10d while projecting the image 30c.
- the projector 10d captures the image 30a of the projector 10a while projecting the image 30d.
- the projector 10k projects the video image 30k in a grid pattern in the same manner as the arrangement of the projector 10k.
- the projector 10k captures an image 30k of another adjacent projector 10k as indicated by a broken line in FIG. Which other projector 10k image 30k is picked up by the projector 10k can be appropriately set according to the grid-like arrangement of the projector 10k.
- the grid-like arrangement of the projectors 10 is 2 rows ⁇ 2 columns, but other arrangements may be used.
- all the images 30 of the other projectors 10 are captured counterclockwise or clockwise.
- the first distance between the projector 10 and the projection surface 40 and the second distance between each projector 10 and the region of the image 30 projected on the projection surface 40 by the other projector 10 can be measured. .
- the images 30 of other projectors 10 are similarly imaged for the plurality of projectors 10 on the outermost periphery and the plurality of projectors 10 forming a loop inside thereof. can do.
- Each of the projectors 10k displays and projects the image 30k, the lens unit 12 that enlarges and reduces the image 30k projected by the projection unit 11, and the image 30 projected by another projector 10k through the lens unit 12.
- the plurality of projectors 10k can capture the images 30k of the other projectors 10k with each other, so that many projections and distances can be detected by imaging.
- a projector system S2 having a wide projection range and imaging range in the vertical and horizontal directions can be realized.
- the projector system S2 is configured by half the number of devices as compared with the case where the conventional projection unit and imaging unit are provided in separate devices of the projector and the camera, respectively.
- the projector 10k projects the video 30k in a horizontal row in the same manner as the arrangement of the projector 10k.
- Image 30k (k 1).
- the projection surface 40 has been described on the assumption that it has a planar shape and is fixed, but the projection surface 40 may have a three-dimensional shape, You may move the projection area of a projector system. That is, the projection surface 40 may be the surface of a projection object such as a ball, a balloon, or clothes worn by a person, and the projection object may move.
- a projection object such as a ball, a balloon, or clothes worn by a person
- FIG. 12 is a schematic diagram of a projector system that projects an image on a moving projection object 50.
- the four projectors 10a to 10d are arranged in a horizontal row and project the images 30a to 30d on the virtual projection surface 41, respectively.
- the projectors 10a to 10d can capture images projected by other projectors by the respective imaging units 13.
- the broken lines shown in FIG. 12 indicate the imaging ranges of the projectors 10a to 10d.
- the imaging range can be changed by the configuration of the imaging unit 13 as described in the first embodiment.
- the projection object 50 is moving in the right direction (the direction from the projector 10 a toward the projector 10 d) on the virtual projection surface 41.
- a part of each image 30b, 30c projected by the projectors 10b, 10c is projected on the surface of the projection object 50.
- the image 30b projected on the projection object 50 is imaged by the imaging unit 13 of the projector 10a, and the projector 10a obtains imaging data of the image 30b.
- the calculation unit 15 of the projector 10a calculates the first distance between the projector 10b and the surface of the projection object 50 on which the image 30b is projected, and the projector 10a from the imaging data of the image 30b and the interval information between the projectors 10a and 10b.
- a second distance from the region of the image 30b projected on the surface of the projection object 50 is calculated.
- the image 30b projected on the projection object 50 is also imaged by the imaging unit 13 of the projector 10c, and the calculation unit 15 of the projector 10c also detects the first distance between the projector 10b and the surface of the projection object 50, and the projector 10c. And the second distance between the area of the video 30b.
- the image 30c projected on the projection object 50 is picked up by the respective imaging units 13 of the projectors 10b and 10d, and the projection object 50 on which the projector 10c and the image 30c are projected by the respective calculation units 15 is obtained. And a second distance between each projector 10b, 10d and the region of the image 30c.
- the second distances from the respective regions for example, it is possible to control the two images 30b and 30c projected on the surface of the moving projection object 50 so as to be continuous without a break.
- the case where the image 30b and the image 30c are projected on the projection target 50 has been described above, but the same applies to the case where the images 30a and 30d are projected on the projection target 50.
- the projector and projector system according to the present disclosure are useful as a projector and the like because they can be installed inexpensively and easily because the volume of the device and the number of devices can be reduced.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
プロジェクタは、第1映像を投写する第1投写部と、他のプロジェクタが投写する第2映像を撮像する第1撮像部と、第1算出部と、を備える。第1算出部は、第1撮像部が撮像した第2映像の撮像データおよび他のプロジェクタと自プロジェクタとの間隔情報から、第2映像が投写される面と他のプロジェクタとの第1距離、または、第2映像が投写される領域と自プロジェクタとの第2距離を算出する。第1投写部は、第1距離、または、第2距離に基づいて第1映像の投写を制御する。
Description
本開示は、プロジェクタとプロジェクタが投写する映像の被投写面との距離を算出するプロジェクタ及びプロジェクタシステムに関するものである。
特許文献1は、投射系と一乃至複数のカメラによる三角測量法により輝度情報とともに距離情報を取得する三次元画像取得方法および装置を開示する。
本開示のプロジェクタは、第1映像を投写する第1投写部と、他のプロジェクタが投写する第2映像を撮像する第1撮像部と、第1算出部と、を備える。第1算出部は、第1撮像部が撮像した第2映像の撮像データおよび他のプロジェクタと自プロジェクタとの間隔情報から、第2映像が投写される面と他のプロジェクタとの第1距離、または、第2映像が投写される領域と自プロジェクタとの第2距離を算出する。第1投写部は、第1距離、または、第2距離に基づいて第1映像の投写を制御する。
本開示の一態様に係るプロジェクタシステムは、第1映像を投写する第1プロジェクタと、第2映像を投写する第2プロジェクタと、第1プロジェクタおよび第2プロジェクタと通信を行うコントロールボックスと、を備える。第1プロジェクタは、第1映像を表示する第1投写部と、第2映像を撮像する第1撮像部と、第1プロジェクタの位置情報および第1撮像部が撮像した第2映像の撮像データを送信する第1通信部と、を有し、第2プロジェクタは、第2プロジェクタの位置情報を送信する第2通信部を有し、コントロールボックスは、第3通信部と第3算出部とを有する。第3通信部は、第1通信部から第1プロジェクタの位置情報と撮像データを受信し、第2通信部から第2プロジェクタの位置情報を受信する。第3算出部は、第1プロジェクタの位置情報および第2プロジェクタの位置情報から、第1プロジェクタと第2プロジェクタとの間隔情報を算出し、撮像データおよび間隔情報から、第2映像が投写される面と第2プロジェクタとの第1距離、または、第2映像が投写される領域と第1プロジェクタとの第2距離を算出する。コントロールボックスは、第1距離、または、第2距離に基づいて、第1投写部による第1映像の投写を制御する。
本開示の他の態様に係るプロジェクタシステムは、第1映像を投写する第1プロジェクタと、第2映像を投写する第2プロジェクタと、第2映像を撮像する撮像装置と、算出部と、を備える。算出部は、撮像装置が撮像した第2映像の撮像データと、第1プロジェクタ、第2プロジェクタおよび撮像装置の位置情報とから、第2映像が投写される面と第2プロジェクタとの第1距離、または、第2映像が投写される領域と撮像装置との第2距離を算出する。第1プロジェクタは、第1距離または第2距離に基づいて第1映像の投写を制御する。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
図1は、実施の形態1におけるプロジェクタシステムS1の概要図である。プロジェクタシステムS1は、映像を投写する複数(図1は4台を示す)のプロジェクタ10と、複数のプロジェクタ10と撮像データや位置情報を通信するコントロールボックス20で構成される。
図1は、実施の形態1におけるプロジェクタシステムS1の概要図である。プロジェクタシステムS1は、映像を投写する複数(図1は4台を示す)のプロジェクタ10と、複数のプロジェクタ10と撮像データや位置情報を通信するコントロールボックス20で構成される。
図1のように、プロジェクタ10は、投写部11と、レンズ部12と、撮像部13と、通信部14と、算出部15を備えている。
投写部11は、プロジェクタ10が投写する映像を表示し、投写する。投写部11は、例えば、デジタルミラーデバイスやLCOS(Liquid crystal on silicon)といった構成である。
レンズ部12は、投写部11が投写した映像を拡大、縮小しながら被投写面に投写する。レンズ部12は、例えば、ズームレンズといった構成である。
撮像部13は、他のプロジェクタ10が被投写面に投写した映像(第2映像)を、レンズ部12を通して撮像する。撮像部13は、例えば、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)といった構成である。
通信部14は、他のプロジェクタ10やコントロールボックス20と通信を行う。通信部14は、自身のプロジェクタ10(自プロジェクタ)の位置及び投写方向の位置情報や、撮像部13が撮像した撮像データや、他のプロジェクタ10と被投写面との距離情報を送信したり、他のプロジェクタ10の位置及び投写方向の位置情報や、コントロールボックス20からの制御信号を受信したりする。
算出部15は、自身のプロジェクタ10の位置や投写方向の位置情報を算出する。算出部15は、例えば、GPS(Global Positioning System)で位置を算出し、ジャイロセンサで投写方向を算出する。そして、算出部15は、自身のプロジェクタ10の位置情報と、通信部14が受信した他のプロジェクタ10の位置情報とから、他のプロジェクタ10と自身のプロジェクタ10との間隔情報を算出する。
また、算出部15は、他のプロジェクタ10が被投写面に投写した映像を撮像部13が撮像することにより得た撮像データの解析によって、被投写面に対する他のプロジェクタ10の投写方向と、自身のプロジェクタ10の撮像方向との角度情報を算出する。たとえば、撮像データにおける映像の各映像要素の位置関係を解析することにより、角度情報を算出することができる。ここで、算出部15は、被投写面が立体である場合などにおいて、例えば、空間コード化法で角度情報を算出する。そして、算出部15は、被投写面における他のプロジェクタ10の投写方向と自身のプロジェクタ10の撮像方向との角度情報と、他のプロジェクタ10と自身のプロジェクタ10との間隔情報を用いた三角測量から、他のプロジェクタ10と被投写面との距離L1(第1距離)を以下に示す式1で算出する。
さらに、算出部15は、被投写面における他のプロジェクタ10の投写方向と自身のプロジェクタ10の撮像方向との角度情報と、他のプロジェクタ10と自身のプロジェクタ10との間隔情報を用いた三角測量から自身のプロジェクタ10と自身のプロジェクタ10の撮像部13が撮像している被投写面上の領域(他のプロジェクタ10によって被投写面上に投写された映像)との距離L2(第2距離)を以下に示す式2で算出する。
L1=x/tanθ (式1)
L2=x/sinθ (式2)
L1:他のプロジェクタと被投写面(他のプロジェクタからの被投写面への垂線の足)との距離
L2:自身のプロジェクタと自身のプロジェクタが撮影している被投写面上の領域(距離L1における被投写面上の測定点)との距離
x:他のプロジェクタと自身のプロジェクタとの間隔
θ:他のプロジェクタの投写方向と自身のプロジェクタの撮像方向との角度
このように通信部14と、算出部15を設けることで、プロジェクタ10は他のプロジェクタ10と被投写面との正確な第1距離の情報、及び、自身のプロジェクタ10と被投写面上の第2映像との正確な第2距離の情報を得ることができる。
L2=x/sinθ (式2)
L1:他のプロジェクタと被投写面(他のプロジェクタからの被投写面への垂線の足)との距離
L2:自身のプロジェクタと自身のプロジェクタが撮影している被投写面上の領域(距離L1における被投写面上の測定点)との距離
x:他のプロジェクタと自身のプロジェクタとの間隔
θ:他のプロジェクタの投写方向と自身のプロジェクタの撮像方向との角度
このように通信部14と、算出部15を設けることで、プロジェクタ10は他のプロジェクタ10と被投写面との正確な第1距離の情報、及び、自身のプロジェクタ10と被投写面上の第2映像との正確な第2距離の情報を得ることができる。
図1のように、コントロールボックス20は、通信部21と、制御部22を備えている。通信部21は、複数のプロジェクタ10と通信を行う。通信部21は、プロジェクタ10の位置及び投写方向の位置情報や、プロジェクタ10の被投写面との距離情報を受信したり、プロジェクタ10の位置及び投写方向の位置情報や、制御信号を送信したりする。
制御部22は、通信部21で受信したプロジェクタ10の位置及び投写方向の位置情報や、プロジェクタ10の被投写面との距離情報に基づいて、プロジェクタ10と被投写面の配置図を作成する。また、プロジェクタ10と被投写面の配置図に不具合がある場合、その不具合を解消するために通信部21を介して制御信号を送信する。また、制御部22は、内部に記録部を有し、通信部21で受信したプロジェクタ10の位置及び投写方向の位置情報や、プロジェクタ10と被投写面との距離情報や、プロジェクタ10と被投写面の配置図を記録している。
このように、プロジェクタシステムS1はコントロールボックス20を備え、さらに各プロジェクタ10が通信部14を備えることで、集中管理及び高度なデータ処理を実現できる。
図2は、実施の形態1のプロジェクタ10の投写及び撮像の概要図である。図3は、図2の3-3断面をレンズ部12の方向から見た投写部11と撮像部13の配置図である。図2に示すように、プロジェクタ10は、投写部11からレンズ部12を通して、細い実線で示すように被投写面40に映像30を投写する。また、プロジェクタ10は、被投写面40からレンズ部12を通して、破線で示すように撮像部13で映像30の周囲を撮像する。図2及び図3に示すように、投写部11は、映像を投写する光軸X上に配置され、撮像部13は、光軸X方向から見て投写部11より面積が大きく、投写部11の外周から露出した状態で配置される。撮像部13は、映像を投写する光軸X上で、投写部11のレンズ部12と反対側に配置される。
これにより、撮像部13は、被投写面40に投写された映像30の外周の広い範囲を撮像することができる。このように、プロジェクタ10は、投写された映像30の投写範囲より外側に撮像範囲を有することで、自身のプロジェクタ10の映像30を投写しながらその外側に投写される他のプロジェクタ10の映像30を撮像することができる。さらに、撮像部13は、投写部11より面積が大きく投写部11の後ろ(レンズ部12と反対側)に配置できるので、特殊な形状に製造しなくても良い。すなわち製造コストを抑えつつ、プロジェクタ10の体積が小さくなる。
次に、複数のプロジェクタ10を配置したときの、プロジェクタシステムS1の投写及び撮像について図4で説明する。図4は、複数(図4は4台を示す)のプロジェクタ10a~10dがそれぞれの映像30a~30dを投写するプロジェクタシステムS1の概要図である。
プロジェクタ10a~10dは、投写方向と垂直な方向に並べて配置され、各々の投写部11から被投写面40に映像30a~30dを投写する。映像30a~30dは、プロジェクタ10a~10dから投写方向と垂直な方向に並べて投写される。投写される映像30a~映像30dは隙間無く隣接することが好ましい。しかし、互いに隣接する映像に重なりがあったとしても、他のプロジェクタ10が投写した映像30の少なくとも一部は、自身のプロジェクタ10が投写した映像30の領域外に投写されるので、自身のプロジェクタ10は他のプロジェクタ10が投写した映像30を撮像することができる。
図4に示すように、プロジェクタ10aは、その撮像部13で映像30aの右側の映像30bを撮像する。プロジェクタ10bは、その撮像部13で映像30bの左側の映像30aと右側の映像30cを撮像する。プロジェクタ10cは、その撮像部13で映像30cの左側の映像30bと右側の映像30dを撮像する。プロジェクタ10dは、その撮像部13で映像30dの左側の映像30cを撮像する。プロジェクタ10a~10dは、各々の撮像部13が撮像した他のプロジェクタ10の映像30の撮像データと、各々の通信部14が受信した他のプロジェクタ10の位置及び投写方向の位置情報とを用いて、各々の算出部15により被投写面40と他のプロジェクタ10との第1距離の情報を算出する。更に、各々の算出部15により、自身のプロジェクタ10が撮影している被投写面40上の領域(他のプロジェクタ10が投写している被投写面40上の映像30)と自身のプロジェクタ10との第2距離の情報を算出する。
このように複数のプロジェクタ10a~10dは、互いに他のプロジェクタ10a~10dの映像30a~30dを撮像する。そして、複数のプロジェクタ10a~10dは、他のプロジェクタ10a~10dと被投写面40との第1距離、及び、自身のプロジェクタ10a~10dと被投写面40上の自身のプロジェクタが撮影している映像30a~30dの領域との第2距離を算出する。このことにより、プロジェクタシステムS1は、投写部と撮像部が各々プロジェクタとカメラの別々装置に備えられる場合と比較して、半分の台数の装置により構成される。
また、プロジェクタ10bと被投写面40との第1距離は、2台のプロジェクタ10a、10cで算出される。プロジェクタ10cと被投写面40との第1距離は、2台のプロジェクタ10b、10dで算出される。そのため、プロジェクタ10b、10cと被投写面40とのそれぞれの第1距離は、計算精度を向上させることができる。このように1つのプロジェクタが複数の映像を撮像することで、プロジェクタシステムの自由度を増すことができる。
かかる構成によれば、投写部11と撮像部13は同じレンズ部12を用い、投写部11が第1映像を投写すると同時に、撮像部13が他のプロジェクタ10の第2映像を撮像して、算出部15が被投写面40と他のプロジェクタ10の第1距離の情報を算出できる。更に、算出部15が被投写面40上の自身のプロジェクタが撮影している領域と自身のプロジェクタ10との第2距離の情報を算出できる。このように投写部11と撮像部13が1つのレンズ部12を共用することで、プロジェクタシステムが備える装置の体積及びコストを低減しながら、装置台数を低減することができる。
なお、投写する映像、撮像する映像は可視光でも良いし、不可視光でも良い。例えば両方可視光でも良いし、一方が不可視光(赤外光)でも良い。
なお、本実施の形態は、4台のプロジェクタ10を使用するとしたが、3台及び5台以上のプロジェクタ10を使用するとしてもよい。
なお、各プロジェクタ10のレンズ部12はそれぞれ異なっていても良い。各プロジェクタ10のレンズ部12の焦点距離を異ならせることで投写範囲と撮像範囲を任意に選ぶことができる。これによりプロジェクタシステムの自由度を増すことができる。
なお、本実施の形態において、通信部14により他のプロジェクタ10の位置情報を受信し、算出部15で間隔情報を算出するとしたが、複数のプロジェクタ10を予め定められた間隔で配置したり、各プロジェクタ10の算出部15の記録部に配置時の間隔情報を記録させたりするとしてもよい。そうすることで通信部14を備えないプロジェクタ及びプロジェクタシステムを構成することも可能である。
なお、本実施の形態において、投写部11及び撮像部13の形状は長方形としたが、形状については特に制限はない。例えば、投写部11及び撮像部13は円形であってもよいし、四隅を面取りした形状であっても良い。特に、撮像部13は、長方形である場合と比較してレンズのイメージサークルに形状を合わせることで、イメージサークルの広い範囲を利用することができ、撮像範囲が広がる。
なお、本実施の形態において、投写部11及び撮像部13は図1のように接触するとしたが、投写部11及び撮像部13の間隔については特に制限はない。例えば、投写部11及び撮像部13は離れていても良いし、投写部11及び撮像部13の間に、図5のように、金属や樹脂などの板16を配置するとしてもよい。この場合、撮像部13の撮像しない範囲を明確に区分することができ、撮像感度を向上させることができる。
なお、本実施の形態において、投写部11と撮像部13を光軸X上に重ねて配置するとしたが、光路分割部を用いて光路を分割してもよい。図6のように、プロジェクタ10は、内部に光路分割部としてプリズム17を備え、投写部11と撮像部13はプリズム17の異なる面に配置されている。投写部11からの可視光は、プリズム17を直進して、レンズ部12を通して投写される。撮像される不可視光は、レンズ部12を通してプリズム17で反射し、撮像部13で撮像される。この構成により、投写部11と撮像部13を重ねる必要がなく、面積の大きい撮像部13を備えた部品が不要となりコストが抑えられる。また撮像部13での撮像範囲は、プリズム17の反射角度を変更することで所望の範囲に設定することができる。また、光路分割部は、プリズム以外で、例えば、平板のダイクロイックミラーや回折格子でもよい。光路分割される光の波長が同じ、もしくは近い場合は、光路分割部にハーフミラーを使うことも可能である。
なお、本実施の形態において、撮像部13は投写部11の全周を囲む配置としたが、全周を囲まなくてもよい。例えば、図7のように投写部11の右側に撮像部13がなくても良い。この場合、投写部11の左側の撮像部13は、より広い範囲の撮像が可能である。このように、撮像部13は投写部11の外側に均等に配置される必要はなく、撮像すべき映像30の位置に応じて配置に偏りを持たせることができる。
なお、本実施の形態において、撮像部13は1個としたが、複数に分割されても良い。例えば、図8のように投写部11の上下左右に4個の撮像部13を配置してもよいし、1個の撮像部13を1個の投写部11の横に並べても良い。この場合、小型の撮像部13を有する部品を利用できるため、大型の撮像部13を有する部品や特殊な形状の部品を使用する場合と比較して製造コストが抑えられる。
なお、本実施の形態において、図4のように1台のプロジェクタ10が隣接する他のプロジェクタ10の映像30の全体を撮像する場合を示したが、例えば、図9に示すように、プロジェクタ10a、10cが隣接するプロジェクタ10bの映像30bを半分ずつ撮像してもよい。即ち、2台のプロジェクタ10が隣接する他のプロジェクタ10の映像30の一部を撮像してもよい。この場合、撮像部13の面積を小さくすることができる。
なお、本実施の形態において、プロジェクタ10が算出部15を備えるとしたが、コントロールボックス20が算出部を備えるとしてもよい。その場合、プロジェクタ10が、通信部14により、自身のプロジェクタ10の位置情報と他のプロジェクタ10の映像を撮像した撮像データを送信し、コントロールボックス20が通信部21で各々のプロジェクタ10から送信された位置情報と撮像データを受信し、コントロールボックス20が備える算出部が位置情報と撮像データから、映像の被投写面40と各々のプロジェクタ10との第1距離を算出すればよい。更に、コントロールボックス20が備える算出部が位置情報と撮像データから、各々のプロジェクタ10が撮影している被投写面40上の映像の領域と各々のプロジェクタ10との第2距離を算出すればよい。
なお、本実施の形態において、プロジェクタ10が撮像部13を備えるとしたが、撮像部13は、レンズ部12を共用せず、プロジェクタ10とは別にカメラ(撮像装置)に備えられてもよい。この場合、カメラの撮像部が、第2プロジェクタ10が被投写面40に投写する映像30を撮像して撮像データを生成し、算出部に送信する。そして、算出部が、第2プロジェクタ10及びカメラの位置情報と撮像データとから、被投写面40上の映像30(第2映像)の領域と第2プロジェクタ10との第1距離、及び被投写面40上の映像30(第2映像)の領域とカメラとの第2距離を算出する。この場合、算出部は、プロジェクタ10が備えてもよいし、コントロールボックス20が備えてもよい。また、カメラとプロジェクタとは同一の筐体内において構成されることが好ましい。そうすることにより、装置の台数が少なくなり、プロジェクタシステム全体の取り扱いが容易となる。この場合も、第1プロジェクタ10の投写部11は、第1距離または第2距離に基づいて自身のプロジェクタ10が投写する映像30(第1映像)の投写を制御することができる。
(実施の形態2)
実施の形態1では、複数のプロジェクタ10が横一列に配置され、1台のプロジェクタ10が両隣に配置された2台の他のプロジェクタ10の映像30を撮像して、2台の他のプロジェクタ10と被投写面40の距離を算出することについて説明した。実施の形態2は、複数のプロジェクタ10が格子状に配置され、1台のプロジェクタ10が近くに配置された1台の他のプロジェクタ10の映像30を撮像して、他のプロジェクタ10と被投写面40との第1距離、及び自身のプロジェクタ10と他のプロジェクタ10が被投写面40上に投写している映像30の領域との第2距離を算出する点で、実施の形態1と異なる。
実施の形態1では、複数のプロジェクタ10が横一列に配置され、1台のプロジェクタ10が両隣に配置された2台の他のプロジェクタ10の映像30を撮像して、2台の他のプロジェクタ10と被投写面40の距離を算出することについて説明した。実施の形態2は、複数のプロジェクタ10が格子状に配置され、1台のプロジェクタ10が近くに配置された1台の他のプロジェクタ10の映像30を撮像して、他のプロジェクタ10と被投写面40との第1距離、及び自身のプロジェクタ10と他のプロジェクタ10が被投写面40上に投写している映像30の領域との第2距離を算出する点で、実施の形態1と異なる。
図10は、実施の形態2におけるプロジェクタシステムS2の概要図である。図10において、実施の形態1と同じ構成要素については同じ符号を用い、説明を省略する。
複数(図10は4台を示す)のプロジェクタ10a~10dは、格子状に配置されて、格子状にそれぞれ映像30a~30dを投写する。そして、プロジェクタ10a、10b、10c、10dの各々は、格子状で反時計回りに位置するプロジェクタ10b、10c、10d、10aの映像30b、30c、30d、30aを撮像する。図10に示す破線は、プロジェクタ10a、10b、10c、10dとそれぞれが撮像する映像30b、30c、30d、30aとの対応関係を示している。
つまり、プロジェクタ10aは映像30aを投写しながら、プロジェクタ10bの映像30bを撮像する。プロジェクタ10bは映像30bを投写しながら、プロジェクタ10cの映像30cを撮像する。プロジェクタ10cは映像30cを投写しながら、プロジェクタ10dの映像30dを撮像する。プロジェクタ10dは映像30dを投写しながら、プロジェクタ10aの映像30aを撮像する。
n台(図10はn=4)のプロジェクタ10k(k=1~nの整数)が格子状に配置されたプロジェクタシステムとして説明する。プロジェクタ10kは、映像30kをプロジェクタ10kの配置と同様に格子状に投写する。そして、プロジェクタ10kは、図10の破線で示すように隣接する他のプロジェクタ10kの映像30kを撮像する。プロジェクタ10kがどの他のプロジェクタ10kの映像30kを撮像するかは、プロジェクタ10kの格子状の配置に応じて、適宜設定することができる。
即ち、本実施の形態において、プロジェクタ10の格子状の配置を2行×2列としたが、その他の配置としてもよい。例えば、2行×(3列以上)、(3行以上)×2列の場合、図10に示すように、反時計回り或いは時計回りで他のプロジェクタ10の映像30を撮像することで、全てのプロジェクタ10と被投写面40との第1距離、及び各々のプロジェクタ10と他のプロジェクタ10が被投写面40上に投写している映像30の領域との第2距離を計測することができる。また、(3行以上)×(3列以上)の場合、最外周の複数のプロジェクタ10及びその内側でループを形成する複数のプロジェクタ10については、同様に、他のプロジェクタ10の映像30を撮像することができる。
また、プロジェクタ10kは各々、映像30kを表示し投写する投写部11と、投写部11が投写する映像30kを拡大、縮小するレンズ部12と、レンズ部12を通して他のプロジェクタ10kが投写した映像30を撮像する撮像部13と、算出部15とを有する。そして、算出部15は、撮像部13が撮像した他のプロジェクタ10kの映像30kの撮像データから、他のプロジェクタ10kと他のプロジェクタ10kの映像30kの被投写面40との第1距離、及び自身のプロジェクタ10kと他のプロジェクタ10kが被投写面40上に投写している映像30kの領域との第2距離を算出する。
つまり、プロジェクタ10k(k=1~n-1)は各々、撮像部13が撮像した映像30k(k=2~n)の撮像データから映像30k(k=2~n)の被投写面40とプロジェクタ10k(k=2~n)との第1距離、及びプロジェクタ10k(k=1~n-1)と映像30k(k=2~n)の各々の領域との第2距離を算出する算出部15を有する。プロジェクタ10k(k=n)は、撮像部13が撮像した映像30k(k=1)の撮像データから、映像30k(k=1)の被投写面40とプロジェクタ10k(k=1)との第1距離、及びプロジェクタ10k(k=n)と映像30k(k=1)の領域との第2距離を算出する算出部15を有する。
このように、複数のプロジェクタ10kが、他のプロジェクタ10kの映像30kを互いに撮像することにより、多くの投写と撮像による距離の検出ができる。そして、このような構成にすることで投写範囲と撮像範囲が上下左右に広いプロジェクタシステムS2が実現できる。その際、プロジェクタシステムS2は、従来の投写部と撮像部が各々プロジェクタとカメラの別々の装置に備えられる場合と比較して、半分の台数の装置により構成される。
なお、本実施の形態において、図10では4台のプロジェクタ10a~10dが格子状に配置される場合を示したが、n台のプロジェクタ10k(k=1~n)を図11のように横一列に配置してもよい。このとき、プロジェクタ10kは、映像30kをプロジェクタ10kの配置と同様に横一列に投写する。そして、プロジェクタ10k(k=1~n-1)は、右隣りの他のプロジェクタ10k+1の映像30kを撮像し、プロジェクタ10k(k=n)は、一番左の他のプロジェクタ10k(k=1)の映像30k(k=1)を撮像する。この場合、プロジェクタ10k(k=n)は、映像30k(k=1)が撮像できる位置に撮像部13を配置する必要がある。
(他の実施の形態)
実施の形態1、2では、被投写面40は、平面形状を有し、固定されている場合を想定して説明したが、被投写面40は、3次元形状を有してもよいし、プロジェクタシステムの投写領域を移動してもよい。即ち、被投写面40は、ボール、バルーン、人が着用している衣服等の被投写物の表面でもよく、かかる被投写物は移動してもよい。
実施の形態1、2では、被投写面40は、平面形状を有し、固定されている場合を想定して説明したが、被投写面40は、3次元形状を有してもよいし、プロジェクタシステムの投写領域を移動してもよい。即ち、被投写面40は、ボール、バルーン、人が着用している衣服等の被投写物の表面でもよく、かかる被投写物は移動してもよい。
図12は、移動する被投写物50に映像を投写するプロジェクタシステムの概要図である。4台のプロジェクタ10a~10dは、横一列に配置され、仮想被投写面41に対して映像30a~30dをそれぞれ投写する。プロジェクタ10a~10dは、実施の形態1で説明したように、それぞれの撮像部13によって、他のプロジェクタが投写した映像を撮像することができる。図12に示す破線は、プロジェクタ10a~10dのそれぞれの撮像範囲を示している。撮像範囲は、実施の形態1で説明したように、撮像部13の構成により変更が可能である。図12に示す例では、被投写物50は、仮想被投写面41上を右方向(プロジェクタ10aからプロジェクタ10dに向かう方向)に移動している。そして、被投写物50の表面には、プロジェクタ10b、10cが投写するそれぞれの映像30b、30cの一部が投写されている。
被投写物50に投写された映像30bは、プロジェクタ10aの撮像部13によって撮像され、プロジェクタ10aは映像30bの撮像データを得る。プロジェクタ10aの算出部15は、映像30bの撮像データ及びプロジェクタ10a、10b間の間隔情報から、プロジェクタ10bと映像30bが投写されている被投写物50の表面との第1距離、及びプロジェクタ10aと被投写物50の表面に投写されている映像30bの領域との第2距離を算出する。
同様に、被投写物50に投写された映像30bはプロジェクタ10cの撮像部13によっても撮像され、プロジェクタ10cの算出部15もプロジェクタ10bと被投写物50の表面との第1距離、及びプロジェクタ10cと映像30bの領域との第2距離を算出することができる。また、同様に、被投写物50に投写された映像30cはプロジェクタ10b、10dのそれぞれの撮像部13によって撮像され、それぞれの算出部15よってプロジェクタ10cと映像30cが投写されている被投写物50の表面との第1距離、及びそれぞれのプロジェクタ10b、10dと映像30cの領域との第2距離が算出される。
このように、プロジェクタ10b、10cとそれぞれの映像30b、30cが投写される被投写物50の表面とのそれぞれの第1距離、又は映像30b、30cを撮像するプロジェクタ10a、10dと映像30b、30cのそれぞれの領域との第2距離を算出することにより、例えば、移動する被投写物50の表面に投写される2つの映像30b、30cが切れ目なく連続するように制御することが可能である。以上、被投写物50に映像30b及び映像30cが投写されている場合について述べたが、被投写物50に映像30a、30dが投写されている場合も同様である。
本開示にかかるプロジェクタ及びプロジェクタシステムは、装置の体積と、装置の台数を低減することができるため、安価かつ容易に設置できるのでプロジェクタ等として有用である。
S1,S2 プロジェクタシステム
10,10a,10b,10c,10d,10k プロジェクタ
11 投写部
12 レンズ部
13 撮像部
14 通信部
15 算出部
16 板
17 プリズム
20 コントロールボックス
21 通信部
22 制御部
30,30a,30b,30c,30d,30k 映像
40 被投写面
41 仮想被投写面
50 被投写物
10,10a,10b,10c,10d,10k プロジェクタ
11 投写部
12 レンズ部
13 撮像部
14 通信部
15 算出部
16 板
17 プリズム
20 コントロールボックス
21 通信部
22 制御部
30,30a,30b,30c,30d,30k 映像
40 被投写面
41 仮想被投写面
50 被投写物
Claims (17)
- 第1映像を投写する第1投写部と、
他のプロジェクタが投写する第2映像を撮像する第1撮像部と、
前記第1撮像部が撮像した前記第2映像の撮像データおよび前記他のプロジェクタと自プロジェクタとの間隔情報から、前記第2映像が投写される面と前記他のプロジェクタとの第1距離、または、前記第2映像が投写される領域と前記自プロジェクタとの第2距離を算出する第1算出部と、を備え、
前記第1投写部は、前記第1距離、または、前記第2距離に基づいて前記第1映像の投写を制御する、
プロジェクタ。 - 前記第1投写部は、レンズ部を介して前記第1映像を投写し、
前記第1撮像部は、前記レンズ部を介して前記第2映像を撮像する、
請求項1に記載のプロジェクタ。 - 前記第1算出部は、前記第2映像の撮像データから前記第2映像の投写方向と撮像方向との角度情報を算出し、前記角度情報と前記間隔情報とから、前記第1距離、または、前記第2距離を算出する、
請求項1又は2に記載のプロジェクタ。 - 前記他のプロジェクタから前記他のプロジェクタの位置情報を受信する第1通信部を備え、
前記第1算出部は、前記第1通信部により受信される前記他のプロジェクタの前記位置情報に基づき、前記間隔情報を算出する、
請求項1~3のいずれかに記載のプロジェクタ。 - 前記第1投写部は、投写される前記第1映像の光軸上に配置され、
前記第1撮像部は、前記光軸に対して前記第1投写部より外側に配置される、
請求項2~4のいずれかに記載のプロジェクタ。 - 前記第1撮像部は複数の部分に分割されている、
請求項5に記載のプロジェクタ。 - 前記第1撮像部は、前記光軸の方向において、前記第1投写部の前記レンズ部と反対側に配置される、
請求項5に記載のプロジェクタ。 - 前記第1撮像部は、投写される前記第1映像の光軸上で、前記第1投写部の前記レンズ部と反対側に配置され、前記第1投写部より面積が大きい、
請求項1~4のいずれかに記載のプロジェクタ。 - 前記第1投写部から前記第1映像に至る光路と、前記第2映像から前記第1撮像部に至る光路とを分割する光路分割部を備えた、
請求項1~4のいずれかに記載のプロジェクタ。 - 前記第1撮像部が撮像する前記第2映像の少なくとも一部は、前記第1投写部から投写される前記第1映像の領域内にある、
請求項1~9のいずれかに記載のプロジェクタ。 - 請求項1に記載のプロジェクタである第1プロジェクタと、
前記他のプロジェクタである第2プロジェクタと、を備える、
プロジェクタシステム。 - 前記第2プロジェクタは、
前記第2映像を投写する第2投写部と、
前記第1映像を撮像する第2撮像部と、
前記第2撮像部が撮像した前記第1映像の撮像データおよび前記第1プロジェクタと前記第2プロジェクタとの間隔情報から、前記第1映像が投写される面と前記第1プロジェクタとの第3距離、または、前記第1映像が投写される領域と前記第2プロジェクタとの第4距離を算出する第2算出部と、を有する、
請求項11に記載のプロジェクタシステム。 - 第3映像を投写する第3プロジェクタを備え、
前記第1算出部は、前記第1撮像部が撮像した前記第3映像の撮像データと、前記第3プロジェクタと前記第1プロジェクタとの間隔情報から、前記第3映像が投写される面と前記第3プロジェクタとの第5距離、または、前記第3映像が投写される領域と前記第1プロジェクタとの第6距離を算出する、
請求項11又は12に記載のプロジェクタシステム。 - それぞれ請求項1に記載のプロジェクタであるn(nは整数)台の第1~第nプロジェクタを備え、
前記第1~第n-1プロジェクタに対応する前記他のプロジェクタは、それぞれ前記第2~第nプロジェクタであり、
前記第nプロジェクタに対応する前記他のプロジェクタは、前記第1プロジェクタである、
プロジェクタシステム。 - 第1映像を投写する第1プロジェクタと、
第2映像を投写する第2プロジェクタと、
前記第1プロジェクタおよび前記第2プロジェクタと通信を行うコントロールボックスと、を備え、
前記第1プロジェクタは、
前記第1映像を投写する第1投写部と、
前記第2映像を撮像する第1撮像部と、
前記第1プロジェクタの位置情報および前記第1撮像部が撮像した前記第2映像の撮像データを送信する第1通信部と、を有し、
前記第2プロジェクタは、
前記第2プロジェクタの位置情報を送信する第2通信部を有し、
前記コントロールボックスは、
前記第1通信部から前記第1プロジェクタの前記位置情報と前記撮像データを受信し、前記第2通信部から前記第2プロジェクタの前記位置情報を受信する第3通信部と、
前記第1プロジェクタの前記位置情報および前記第2プロジェクタの前記位置情報から前記第1プロジェクタと前記第2プロジェクタとの間隔情報を算出し、前記撮像データおよび前記間隔情報から、前記第2映像が投写される面と前記第2プロジェクタとの第1距離、または、前記第2映像が投写される領域と前記第1プロジェクタとの第2距離を算出する第3算出部と、を有し、
前記コントロールボックスは、前記第1距離、または、前記第2距離に基づいて、前記第1投写部による前記第1映像の投写を制御する、
プロジェクタシステム。 - 第1映像を投写する第1プロジェクタと、
第2映像を投写する第2プロジェクタと、
前記第2映像を撮像する撮像装置と、
前記撮像装置が撮像した前記第2映像の撮像データと、前記第1プロジェクタ、前記第2プロジェクタおよび前記撮像装置の位置情報とから、前記第2映像が投写される面と前記第2プロジェクタとの第1距離、または、前記第2映像が投写される領域と前記撮像装置との第2距離を算出する算出部と、を備え、
前記第1プロジェクタは、前記第1距離または前記第2距離に基づいて前記第1映像の投写を制御する、
プロジェクタシステム。 - 前記算出部は、前記第2映像の撮像データから前記第2映像の投写方向と撮像方向との角度情報を算出し、前記角度情報と前記位置情報とから、前記第1距離、または、前記第2距離を算出する、
請求項16に記載のプロジェクタシステム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019505684A JPWO2018167999A1 (ja) | 2017-03-17 | 2017-07-28 | プロジェクタ及びプロジェクタシステム |
| US16/531,236 US11272147B2 (en) | 2017-03-17 | 2019-08-05 | Projector and projector system |
| US17/585,796 US20220150454A1 (en) | 2017-03-17 | 2022-01-27 | Projector and projector system |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017052793 | 2017-03-17 | ||
| JP2017-052793 | 2017-03-17 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US16/531,236 Continuation US11272147B2 (en) | 2017-03-17 | 2019-08-05 | Projector and projector system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018167999A1 true WO2018167999A1 (ja) | 2018-09-20 |
Family
ID=63522900
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/027429 Ceased WO2018167999A1 (ja) | 2017-03-17 | 2017-07-28 | プロジェクタ及びプロジェクタシステム |
Country Status (3)
| Country | Link |
|---|---|
| US (2) | US11272147B2 (ja) |
| JP (1) | JPWO2018167999A1 (ja) |
| WO (1) | WO2018167999A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018167999A1 (ja) * | 2017-03-17 | 2018-09-20 | パナソニックIpマネジメント株式会社 | プロジェクタ及びプロジェクタシステム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006270461A (ja) * | 2005-03-24 | 2006-10-05 | Sony Corp | 画像形成装置および方法 |
| JP2010160270A (ja) * | 2009-01-07 | 2010-07-22 | Canon Inc | プロジェクタ・システム及びこれを含むビデオ会議システム |
| WO2012073649A1 (ja) * | 2010-11-30 | 2012-06-07 | 日本電気株式会社 | マルチプロジェクションディスプレイシステム及びその輝度調整方法 |
| JP2012150260A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | マルチプロジェクションシステム、プロジェクター、及び、画像投射制御方法 |
| JP2016122182A (ja) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | 投影装置 |
Family Cites Families (66)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3735158B2 (ja) * | 1996-06-06 | 2006-01-18 | オリンパス株式会社 | 画像投影システム、画像処理装置 |
| JP2003219324A (ja) * | 2002-01-17 | 2003-07-31 | Olympus Optical Co Ltd | 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム |
| JP3941631B2 (ja) | 2002-08-16 | 2007-07-04 | 富士ゼロックス株式会社 | 三次元撮像装置および方法 |
| US20040041996A1 (en) | 2002-08-28 | 2004-03-04 | Fuji Xerox Co., Ltd. | Range finder and method |
| JP2004110804A (ja) | 2002-08-28 | 2004-04-08 | Fuji Xerox Co Ltd | 3次元画像撮影装置及び方法 |
| TWI261723B (en) * | 2003-05-09 | 2006-09-11 | Benq Corp | Projector for adjusting a screen size and brightness depending on various environment and a method thereof |
| JP2005006228A (ja) * | 2003-06-13 | 2005-01-06 | Casio Comput Co Ltd | プロジェクタ |
| JP4478414B2 (ja) * | 2003-07-31 | 2010-06-09 | キヤノン株式会社 | 投射型画像表示装置 |
| US7204596B2 (en) * | 2003-09-19 | 2007-04-17 | Nec Corporation | Projector with tilt angle measuring device |
| JP2006023133A (ja) | 2004-07-06 | 2006-01-26 | Fuji Xerox Co Ltd | 3次元形状測定装置および方法 |
| JP4556555B2 (ja) | 2004-08-25 | 2010-10-06 | 富士ゼロックス株式会社 | 三次元画像取得装置および方法 |
| JP2006170744A (ja) | 2004-12-15 | 2006-06-29 | Tohoku Techno Arch Co Ltd | 3次元距離計測装置 |
| US7984995B2 (en) * | 2006-05-24 | 2011-07-26 | Smart Technologies Ulc | Method and apparatus for inhibiting a subject's eyes from being exposed to projected light |
| JP4872525B2 (ja) * | 2006-08-14 | 2012-02-08 | カシオ計算機株式会社 | プロジェクタ、プロジェクタの距離計測方法、プロジェクタの投影面傾き取得方法及びプログラム |
| US8172407B2 (en) * | 2007-05-16 | 2012-05-08 | Honda Motor Co., Ltd. | Camera-projector duality: multi-projector 3D reconstruction |
| JP4553046B2 (ja) * | 2008-02-13 | 2010-09-29 | セイコーエプソン株式会社 | プロジェクタ、マルチスクリーンシステム、プロジェクタ制御方法、プロジェクタ制御プログラム、情報記憶媒体 |
| US8773529B2 (en) * | 2009-06-04 | 2014-07-08 | Sypro Optics Gmbh | Projector with automatic focusing and illustration procedure |
| JP5428600B2 (ja) * | 2009-07-09 | 2014-02-26 | セイコーエプソン株式会社 | プロジェクター、画像投写システムおよび画像投写方法 |
| US8506090B2 (en) * | 2010-03-22 | 2013-08-13 | Microvision, Inc. | Projection system with image orientation correction and corresponding method |
| US8866889B2 (en) * | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
| US9482529B2 (en) * | 2011-04-15 | 2016-11-01 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
| WO2012147245A1 (ja) * | 2011-04-27 | 2012-11-01 | パナソニック株式会社 | 撮像装置、撮像装置を備える撮像システム、及び撮像方法 |
| JP2013061552A (ja) * | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | プロジェクタ装置および操作検出方法 |
| WO2013038656A1 (ja) * | 2011-09-15 | 2013-03-21 | 日本電気株式会社 | 投影像自動補正システム、投影像自動補正方法およびプログラム |
| JP2013077987A (ja) * | 2011-09-30 | 2013-04-25 | Sony Corp | プロジェクタ装置及び映像表示方法 |
| JP5924042B2 (ja) * | 2012-03-14 | 2016-05-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
| US9817305B2 (en) * | 2012-07-12 | 2017-11-14 | Cj Cgv Co., Ltd. | Image correction system and method for multi-projection |
| JP6299124B2 (ja) * | 2013-09-13 | 2018-03-28 | 株式会社リコー | 投影システム、画像処理装置、投影方法およびプログラム |
| JP2015167341A (ja) * | 2014-02-13 | 2015-09-24 | 株式会社リコー | マルチプロジェクションシステム |
| JP2015173428A (ja) * | 2014-02-19 | 2015-10-01 | 株式会社リコー | 投影システム及び投影方法 |
| US10349023B2 (en) * | 2014-07-01 | 2019-07-09 | Sony Corporation | Image processing apparatus and method |
| US9625912B2 (en) * | 2014-09-03 | 2017-04-18 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
| US9693040B2 (en) * | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
| US9715865B1 (en) * | 2014-09-26 | 2017-07-25 | Amazon Technologies, Inc. | Forming a representation of an item with light |
| JP6494239B2 (ja) * | 2014-10-27 | 2019-04-03 | キヤノン株式会社 | 制御装置、制御方法、及び、プログラム |
| US9762871B2 (en) * | 2014-12-11 | 2017-09-12 | Texas Instruments Incorporated | Camera assisted two dimensional keystone correction |
| US20160286141A1 (en) * | 2015-03-23 | 2016-09-29 | Rosemount Aerospace Inc. | Altimeter using imaging capability |
| DE102015206477A1 (de) * | 2015-04-10 | 2016-10-13 | Robert Bosch Gmbh | Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges |
| CN106154721B (zh) * | 2015-04-27 | 2021-01-01 | 中兴通讯股份有限公司 | 一种测距方法、自动调焦方法及装置 |
| US10636125B2 (en) * | 2015-05-08 | 2020-04-28 | Sony Corporation | Image processing apparatus and method |
| US9781397B2 (en) * | 2015-10-05 | 2017-10-03 | Panasonic Intellectual Property Management Co., Ltd. | Projector and projector system |
| JP2017083550A (ja) * | 2015-10-26 | 2017-05-18 | 株式会社リコー | 情報処理装置、画像投影システムおよびプログラム |
| US9578295B1 (en) * | 2015-12-18 | 2017-02-21 | Canon Kabushiki Kaisha | Calibration feature masking in overlap regions to improve mark detectability |
| US9961318B2 (en) * | 2016-01-20 | 2018-05-01 | Seiko Epson Corporation | Projector |
| JP6798108B2 (ja) * | 2016-01-20 | 2020-12-09 | セイコーエプソン株式会社 | 画像投射システム、及び、画像投射システムの制御方法 |
| US10771751B2 (en) * | 2016-02-02 | 2020-09-08 | Panasonic Intellectual Property Management Co., Ltd. | Projection image adjustment system and projection image adjustment method |
| JP6249248B2 (ja) * | 2016-03-10 | 2017-12-20 | パナソニックIpマネジメント株式会社 | 投影装置 |
| CN105627995B (zh) * | 2016-03-31 | 2018-03-23 | 京东方科技集团股份有限公司 | 摄像装置、转动装置、测距装置、测距系统和测距方法 |
| JPWO2017179272A1 (ja) * | 2016-04-15 | 2019-02-21 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP6756149B2 (ja) * | 2016-05-18 | 2020-09-16 | セイコーエプソン株式会社 | プロジェクター |
| CN107454373B (zh) * | 2016-05-31 | 2019-06-14 | 财团法人工业技术研究院 | 投影系统及其非平面自动校正方法与自动校正处理装置 |
| US20170374331A1 (en) * | 2016-06-27 | 2017-12-28 | Intel Corporation | Auto keystone correction and auto focus adjustment |
| CN108024101B (zh) * | 2016-10-28 | 2020-10-27 | 中强光电股份有限公司 | 投影机以及焦距调整方法 |
| US20180139423A1 (en) * | 2016-11-11 | 2018-05-17 | Christie Digital Systems Usa, Inc. | System and method for digital black level blending |
| US10298893B2 (en) * | 2016-11-11 | 2019-05-21 | Christie Digital Systems Usa, Inc. | System and method for digital black level blending |
| JP6822234B2 (ja) * | 2017-03-15 | 2021-01-27 | セイコーエプソン株式会社 | プロジェクターシステム |
| WO2018167999A1 (ja) * | 2017-03-17 | 2018-09-20 | パナソニックIpマネジメント株式会社 | プロジェクタ及びプロジェクタシステム |
| CN110447220B (zh) * | 2017-03-21 | 2021-03-09 | 奥林巴斯株式会社 | 校准装置、校准方法、光学装置、摄影装置以及投影装置 |
| US20180278922A1 (en) * | 2017-03-22 | 2018-09-27 | Bragi GmbH | Wireless earpiece with a projector |
| JP7008244B2 (ja) * | 2017-07-11 | 2022-01-25 | パナソニックIpマネジメント株式会社 | 投写型映像表示装置 |
| JP2019125830A (ja) * | 2018-01-11 | 2019-07-25 | キヤノン株式会社 | 画像出力装置、投影装置およびそれらの制御方法、システム並びにプログラム |
| JP7145432B2 (ja) * | 2018-06-14 | 2022-10-03 | パナソニックIpマネジメント株式会社 | 投影システム、画像処理装置および投影方法 |
| DE102018004829A1 (de) * | 2018-06-15 | 2019-12-19 | Diehl Aerospace Gmbh | Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul |
| US10867408B1 (en) * | 2018-07-23 | 2020-12-15 | Apple Inc. | Estimation of spatial relationships between sensors of a multi-sensor device |
| AU2018220142A1 (en) * | 2018-08-24 | 2020-03-12 | Canon Kabushiki Kaisha | Method and system for reproducing visual content |
| CN111258158B (zh) * | 2018-11-30 | 2022-10-25 | 中强光电股份有限公司 | 投影机及亮度调整方法 |
-
2017
- 2017-07-28 WO PCT/JP2017/027429 patent/WO2018167999A1/ja not_active Ceased
- 2017-07-28 JP JP2019505684A patent/JPWO2018167999A1/ja active Pending
-
2019
- 2019-08-05 US US16/531,236 patent/US11272147B2/en active Active
-
2022
- 2022-01-27 US US17/585,796 patent/US20220150454A1/en not_active Abandoned
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006270461A (ja) * | 2005-03-24 | 2006-10-05 | Sony Corp | 画像形成装置および方法 |
| JP2010160270A (ja) * | 2009-01-07 | 2010-07-22 | Canon Inc | プロジェクタ・システム及びこれを含むビデオ会議システム |
| WO2012073649A1 (ja) * | 2010-11-30 | 2012-06-07 | 日本電気株式会社 | マルチプロジェクションディスプレイシステム及びその輝度調整方法 |
| JP2012150260A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | マルチプロジェクションシステム、プロジェクター、及び、画像投射制御方法 |
| JP2016122182A (ja) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | 投影装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20220150454A1 (en) | 2022-05-12 |
| US11272147B2 (en) | 2022-03-08 |
| JPWO2018167999A1 (ja) | 2020-01-16 |
| US20190356888A1 (en) | 2019-11-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230028137A1 (en) | Image-capturing device | |
| JP5549230B2 (ja) | 測距装置、測距用モジュール及びこれを用いた撮像装置 | |
| JP2009031150A (ja) | 三次元形状計測装置、三次元形状計測方法、三次元形状計測プログラム、および記録媒体 | |
| KR101207198B1 (ko) | 기판 검사장치 | |
| WO2018200309A3 (en) | Stereoscopic visualization camera and platform | |
| CN108377378A (zh) | 摄像装置 | |
| JPWO2006064751A1 (ja) | 複眼撮像装置 | |
| WO2018137721A1 (zh) | 一种获取全景图像的装置及其组装方法 | |
| CN102192724A (zh) | 距离测量和光度测定装置、以及成像设备 | |
| US20210150744A1 (en) | System and method for hybrid depth estimation | |
| EP3765815B1 (en) | Imaging device, image processing apparatus, and image processing method | |
| WO2018207720A1 (ja) | 特徴量を用いた3次元計測方法およびその装置 | |
| JP2007322128A (ja) | カメラモジュール | |
| JP7653369B2 (ja) | ステレオカメラシステム | |
| US20060076472A1 (en) | Single chip stereo imaging system with dual array design | |
| US9781397B2 (en) | Projector and projector system | |
| US20220150454A1 (en) | Projector and projector system | |
| JP2011215545A (ja) | 視差画像取得装置 | |
| JP6111437B1 (ja) | プロジェクタ及びプロジェクタシステム | |
| US20160156867A1 (en) | Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus | |
| JP2013044827A (ja) | 撮像装置 | |
| JP2013061560A (ja) | 測距装置および撮像装置 | |
| JP5434816B2 (ja) | 測距装置及び撮像装置 | |
| JP2013044893A (ja) | 複眼撮像装置及び距離画像取得装置 | |
| JP3564383B2 (ja) | 3次元動画入力装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17900727 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019505684 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17900727 Country of ref document: EP Kind code of ref document: A1 |