[go: up one dir, main page]

WO2015008587A1 - 撮影装置及び3次元計測装置 - Google Patents

撮影装置及び3次元計測装置 Download PDF

Info

Publication number
WO2015008587A1
WO2015008587A1 PCT/JP2014/066651 JP2014066651W WO2015008587A1 WO 2015008587 A1 WO2015008587 A1 WO 2015008587A1 JP 2014066651 W JP2014066651 W JP 2014066651W WO 2015008587 A1 WO2015008587 A1 WO 2015008587A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
laser
imaging
laser irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/066651
Other languages
English (en)
French (fr)
Inventor
智紀 増田
宏 玉山
渡辺 幹夫
石山 英二
林 大輔
巻島 杉夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2015527234A priority Critical patent/JP5902354B2/ja
Publication of WO2015008587A1 publication Critical patent/WO2015008587A1/ja
Priority to US14/972,292 priority patent/US20160103209A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/40Systems for automatic generation of focusing signals using time delay of the reflected waves, e.g. of ultrasonic waves
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Definitions

  • the present invention relates to a photographing apparatus having a laser distance measuring unit and a three-dimensional measuring apparatus equipped with this photographing apparatus.
  • An imaging device such as a digital camera having a laser distance measuring unit that irradiates a subject with laser light and receives a reflected light of the laser light to obtain a distance to the subject (ranging information) is known (patent) References 1 and 2).
  • the imaging device described in Patent Document 1 includes an image display unit that displays an image obtained by imaging, an instruction unit that indicates any two points in the image displayed on the image display unit, and an instructed 2 A calculation unit that calculates the distance between the points based on distance information by the laser ranging unit and the like.
  • Patent Document 1 measures the distance to the center of an image by irradiating a laser beam almost at the center in the imaging range.
  • Patent Document 1 describes that the irradiation direction of laser light is variable so that the above two points can be directly measured by laser.
  • the imaging device described in Patent Document 2 constitutes a three-dimensional measuring device with an arithmetic device.
  • the arithmetic device acquires three-dimensional information of the subject by analyzing two images taken at two different photographing positions (first and second photographing positions) with respect to the subject by the photographing device.
  • the arithmetic device uses the distance measurement information obtained by the laser distance measuring unit of the image capturing device to obtain the relative position and relative angle of the image capturing device at the first and second image capturing positions necessary for obtaining the three-dimensional information of the subject. Yes.
  • Patent Document 2 describes that the laser ranging unit measures the distances to a plurality of points within the imaging range of the image. However, this laser ranging unit is clearly within the imaging range. The distance to one point is measured. In other words, it can be said that the laser irradiation unit described in Patent Document 2 has a fixed laser irradiation position so as to measure a predetermined position within the imaging range (a center position within the imaging range).
  • Patent Document 1 describes that the irradiation direction of laser light is variable so as to measure an arbitrary position in a photographing range, but laser light cannot be photographed by a general photographing apparatus. Therefore, the laser irradiation position cannot be specified from the image obtained by photographing.
  • Patent Document 1 describes that when the irradiation direction of the laser beam is variable, the irradiation direction of the laser beam is detected by an angle detector such as a potentiometer. It is difficult to accurately specify the laser irradiation position.
  • the imaging apparatus of the present invention includes a first imaging unit, a laser irradiation unit, a laser light receiving unit, a second imaging unit, a laser irradiation position specifying unit, and a distance calculation unit.
  • the first imaging unit captures the first range and generates a first image.
  • the laser irradiation unit can irradiate the laser beam in an arbitrary direction within the first range.
  • the laser light receiving unit and the reflected light of the laser light are received.
  • the second imaging unit images a second range that is within the first range and includes the irradiation position of the laser light, and generates a second image.
  • the laser irradiation position specifying unit searches for a portion matching the second image from the first image, and specifies the irradiation position in the first image.
  • the distance calculating unit calculates the distance to the irradiation position specified by the laser irradiation position specifying unit based on the light reception time of the reflected light by the laser receiving unit.
  • the imaging direction by the second imaging unit is preferably changed in conjunction with the laser irradiation direction of the laser irradiation unit. Moreover, it is preferable that the first imaging unit and the second imaging unit perform imaging at the same time.
  • An image storage unit that stores the first image may be provided, and the irradiation position specified by the laser irradiation position specifying unit may be associated with the first image and stored in the image storage unit.
  • the second imaging unit and the laser irradiation unit have the same optical axis, and include a movable reflection mirror that bends the optical axis. By changing the angle of the reflection mirror with respect to the optical axis, the imaging direction and the laser irradiation direction May be changed in conjunction with.
  • an angle detection unit that detects the angle of the reflection mirror
  • the laser irradiation position specifying unit searches for a portion that matches the second image from the first image based on the angle detected by the angle detection unit. It is preferable to determine the initial position when starting.
  • a camera body having a first imaging unit and a laser distance measuring unit having a laser light receiving unit and a second imaging unit may be provided, and the laser distance measuring unit may be rotatably attached to the camera body. Further, the laser distance measuring unit including the laser light receiving unit and the second imaging unit may be separated from the camera body, and the camera body and the laser distance unit may be able to communicate wirelessly or the like.
  • an angle detection unit that detects the angle of the laser distance measurement unit with respect to the camera body is provided, and the laser irradiation position specifying unit matches the second image from the first image based on the angle detected by the angle detection unit. It is preferable to determine an initial position when starting a search for a portion to be performed.
  • the three-dimensional measuring apparatus includes any one of the above-described photographing apparatuses and an arithmetic device.
  • the arithmetic device includes an image analysis unit and a three-dimensional data creation unit.
  • the image analysis unit extracts a plurality of feature points from the first image obtained by the photographing device at the first photographing position and the first image obtained by the photographing device at the second photographing position, and extracts the extracted feature points.
  • the three-dimensional data creation unit creates three-dimensional data of the subject based on the first images obtained at the first and second imaging positions and the relative position and relative angle calculated by the image analysis unit.
  • the imaging device searches for a portion matching the second image obtained at the first imaging position from the first image obtained at the second imaging position, and notifies the search result.
  • the second imaging unit captures the second range including the irradiation position of the laser light within the first range captured by the first imaging unit, and generates the second image. Since the laser irradiation position specifying unit searches for a portion matching the second image from the first image and specifies the irradiation position in the first image, the laser irradiation position can be specified accurately.
  • laser light can be irradiated in any direction within the first range, it is possible to reliably perform distance measurement even for a subject having a hollow.
  • the digital camera 10 includes a camera body 11, a laser distance measuring unit 12, and a hinge unit 13.
  • the camera body 11 shoots a subject.
  • the laser distance measuring unit 12 measures the distance to the subject.
  • the hinge unit 13 holds the laser distance measuring unit 12 rotatably with respect to the camera body 11.
  • the camera body 11 is provided with a lens barrel 14, a power button 15, a release button 16, a setting operation unit 17, a display unit 18, and the like.
  • the lens barrel 14 is provided on the front surface of the camera body 11 and holds a photographing lens 19 composed of one or a plurality of lenses.
  • the power button 15 and the release button 16 are provided on the upper surface of the camera body 11.
  • the setting operation unit 17 and the display unit 18 are provided on the back surface of the camera body 11.
  • the power button 15 is operated when turning on / off the power (not shown) of the digital camera 10.
  • the release button 16 is operated when shooting is performed.
  • the setting operation unit 17 has various buttons and dials, and is operated when performing various settings of the digital camera 10 and switching of operation modes.
  • the operation mode of the digital camera 10 includes a shooting mode for acquiring a still image, a playback mode for reproducing and displaying the shot image on the display unit 18, a distance measuring mode for acquiring a still image and measuring a subject.
  • the display unit 18 is configured by a liquid crystal display or the like, and displays a captured image and a menu screen for performing various settings by the setting operation unit 17.
  • the display unit 18 displays a live view image until shooting is performed when the operation mode is set to the shooting mode or the distance measurement mode. The user can determine the composition while observing the live view image displayed on the display unit 18.
  • the laser distance measuring unit 12 is attached to the side surface of the camera body 11 via a hinge unit 13.
  • the hinge unit 13 rotatably holds the laser distance measuring unit 12 with the X axis and the Y axis orthogonal to the optical axis L1 of the photographing lens 19 as rotation axes.
  • the X axis and the Y axis are orthogonal.
  • the user can rotate the laser distance measuring unit 12 to a desired angle with respect to the camera body 11.
  • An irradiation window 20 for irradiating the subject with laser light and a light receiving window 21 for receiving reflected light of the laser light are provided on the entire surface of the laser distance measuring unit 12.
  • the angles ⁇ X and ⁇ Y formed by the optical axis L 2 of the laser light emitted from the irradiation window 20 and the optical axis L 1 of the photographing lens 19 change according to the rotation of the laser distance measuring unit 12.
  • a first image sensor 30, a first image processing unit 31, an image storage unit 32, and a first control unit 33 are provided inside a first housing constituting the camera body 11.
  • the first imaging element 30 is a single-plate color imaging type CMOS image sensor or CCD image sensor, and receives visible light (environmental light) VL1 through the photographing lens 19 and performs imaging to generate image data.
  • the photographic lens 19 and the first imaging element 30 constitute a first imaging unit, and image a rectangular first imaging range R1 as shown in FIG.
  • the optical axis L1 is located at the center of the first imaging range R1.
  • the first image processing unit 31 performs image processing such as defect correction processing, demosaic processing, gamma correction processing, white balance correction processing, and YC conversion processing on the image data generated by the first image sensor 30.
  • the image storage unit 32 is a non-volatile memory such as a flash memory, and stores an image (hereinafter, referred to as a first image D1) that has been subjected to image processing by the first image processing unit 31.
  • the first control unit 33 controls each unit of the camera body 11 in accordance with an operation signal input from the release button 16 or the setting operation unit 17. For example, when the operation mode is set to the shooting mode or the distance measurement mode by the setting operation unit 17, the first control unit 33 operates the first image sensor 30 and the first image processing unit 31 to change the first mode every predetermined time. One image D1 is generated, and the generated first image D1 is sequentially displayed on the display unit 18. Thereby, live view display is performed on the display unit 18. When the release button 16 is pressed, the first image D1 generated by the first image sensor 30 and the first image processing unit 31 at that time is stored in the image storage unit 32.
  • a first objective lens 40, a dichroic mirror 41, a second image sensor 42, a laser light source 43, a second image processing unit 44, a second objective lens 45, A light receiving element 46 and a second control unit 47 are provided inside the second housing constituting the laser distance measuring unit 12.
  • the laser light source 43, the dichroic mirror 41, and the first objective lens 40 constitute a laser irradiation unit.
  • the second objective lens 45 and the light receiving element 46 constitute a laser light receiving unit.
  • the first objective lens 40, the dichroic mirror 41, and the second imaging element 42 are sequentially arranged behind the irradiation window 20 along the optical axis L2.
  • the laser light source 43 is disposed in a direction orthogonal to the optical axis L2 from the dichroic mirror 41.
  • the first objective lens 40 is composed of one or a plurality of lenses.
  • the dichroic mirror 41 has an optical characteristic of transmitting visible light and reflecting laser light. As the dichroic mirror 41, for example, a single edge dichroic beam splitter having an edge wavelength of about 400 nm is used.
  • the laser light source 43 is a semiconductor laser, for example, and emits a pulsed laser beam LB toward the dichroic mirror 41.
  • the laser beam LB is reflected by the dichroic mirror 41 in the direction toward the first objective lens 40.
  • the laser beam LB reflected by the dichroic mirror 41 propagates along the optical axis L2, passes through the first objective lens 40, and is emitted from the irradiation window 20.
  • the second imaging element 42 receives visible light (environmental light) VL2 that is incident from the irradiation window 20 and transmitted through the first objective lens 40 and the dichroic mirror 41, and performs imaging to generate image data.
  • the second image processing unit 44 performs image processing similar to that of the first image processing unit 31 described above on the image data generated by the second image sensor 42.
  • the image subjected to the image processing by the second image processing unit 44 (hereinafter referred to as the second image D2) is sent to the camera body 11 by the second control unit 47.
  • the first objective lens 40 and the second imaging element 42 constitute a second imaging unit.
  • the angle of view of the second imaging unit is smaller than the angle of view of the first imaging unit described above. Therefore, as shown in FIG. 4, the second imaging unit images a second imaging range R2 that is smaller than the first imaging range R1.
  • the optical axis L2 is an irradiation optical axis of the laser light LB and a light receiving optical axis of the visible light VL2, and is located at the center of the second imaging range R2. That is, the irradiation position of the laser beam LB is the center of the second imaging range R2.
  • the irradiation direction of the laser beam LB and the imaging direction of the second imaging unit are the same direction, and are changed as the laser ranging unit 12 rotates with respect to the camera body 11.
  • the second objective lens 45 is composed of one or a plurality of lenses and is disposed behind the second objective lens 45.
  • the light receiving element 46 receives the reflected light RB of the laser light LB reflected by the subject through the second objective lens 45.
  • the light receiving element 46 is configured by a photodiode having a light receiving sensitivity of a wavelength band of laser light.
  • the second objective lens 45 is preferably transmissive to laser light and impermeable to visible light (environment light) VL3 incident on the second objective lens 45.
  • the second control unit 47 communicates with the first control unit 33 and controls each unit of the laser ranging unit 12.
  • the second control unit 47 is provided with a distance calculation unit 48.
  • the distance calculation unit 48 measures the time (the round trip time of the laser light LB) until the laser light LB emitted from the laser light source 43 is reflected by the subject and received by the light receiving element 46 as the reflected light RB. Based on the value, a distance from the digital camera 10 to the subject (laser irradiation position) (hereinafter referred to as distance information) is calculated.
  • the second control unit 47 drives the laser light source 43, the light receiving element 46, and the distance calculation unit 48 to perform laser ranging
  • the second control unit 47 drives the second image sensor 42 and the second image processing unit 44 at the same time.
  • Two images D2 are acquired. Therefore, the second image D2 is image information obtained by photographing a local region centered on the irradiation position during the irradiation with the laser beam LB.
  • the second image D2 is sent to the first control unit 33 together with the distance information.
  • the first control unit 33 controls the second control unit 47 at the same time when the first image sensor 30 and the first image processing unit 31 are operated to acquire the first image D1. Two images D2 and distance information are acquired. Note that the simultaneous period includes a case where they are completely simultaneous and a case where they are not completely simultaneous but almost simultaneously.
  • the first control unit 33 is provided with a laser irradiation position specifying unit 34.
  • the laser irradiation position specifying unit 34 uses a pattern matching method such as normalized correlation to match a region (hereinafter referred to as a matching region MR) that matches the second image D2 from the first image D1.
  • the center of the matching region MR is specified as the laser irradiation position IP.
  • the laser irradiation position specifying unit 34 moves the second image D2 in order in the IP first image D1, and overlaps the second image D2 and the second image D2 in the first image D1.
  • the portion having the highest degree of correlation is specified as the matching region MR.
  • the first control unit 33 stores the distance information obtained by the distance calculation unit 48 and the laser irradiation position obtained by the laser irradiation position specifying unit 34 in the image storage unit 32 in association with the first image D1.
  • the distance information and the laser irradiation position may be stored as the first image D1 and one file, or may be stored as another file associated with the first image D1.
  • the first control unit 33 adds the distance information and the laser irradiation position to the second image D2 as image supplementary information, and stores them in the image storage unit 32 as one file.
  • the first control unit 33 finds a case where the subject does not sufficiently reflect the laser beam LB and the light receiving element 46 cannot receive the reflected light RB, or a region in the first image D1 that matches the second image D2. If the laser irradiation position cannot be specified, a message indicating that laser ranging has not been performed normally (error message) is displayed on the display unit 18.
  • the first control unit 33 periodically performs laser ranging while displaying the live view image in the ranging mode, and displays the laser irradiation position and distance information in the live view image.
  • Step S10 the operation of the digital camera 10 will be described with reference to the flowchart of FIG.
  • step S10 the first and second images D1 and D2 and the distance information are acquired.
  • FIG. 7 illustrates the first image D ⁇ b> 1 obtained by the camera body 11.
  • FIG. 8 illustrates the second image D2 acquired by the laser distance measuring unit 12.
  • the laser irradiation position specifying unit 34 performs pattern matching using the first and second images D1 and D2, and detects a matching region MR that matches the second image D2 from the first image D1.
  • the laser irradiation position IP is specified (step S11).
  • the first image D1 is displayed on the display unit 18 as a live view image (step S12).
  • the laser irradiation position IP specified in step S11 is displayed in the first image D1.
  • the user can change the laser irradiation position IP by determining the composition while observing the live view image and adjusting the angle of the laser distance measuring unit 12 with respect to the camera body 11.
  • This laser irradiation position IP can be confirmed on the live view image. For example, when the first image D1 shown in FIG. 7 is displayed in live view, the user confirms the laser irradiation position IP in the first image D1 and sets the laser irradiation position IP at the position where the object exists. Can be set.
  • steps S10 to S12 are repeatedly executed until the user presses the release button 16 and issues a shooting instruction.
  • the release button 16 is pressed and a shooting instruction is issued (YES in step S13)
  • the same imaging operation and laser ranging operation as in step S10 are performed (step S14).
  • an error message is displayed on the display unit 18. (Step S16).
  • step S15 When the laser distance measurement is normally performed (NO determination in step S15), the same operation of specifying the laser irradiation position as in step S11 is performed (step S17). At this time, if the laser irradiation position cannot be specified because the region matching the second image D2 cannot be found from the first image D1, the display unit 18 An error message is displayed (step S16).
  • the first image D1 is displayed on the display unit 18, and the laser irradiation position and distance information are displayed in the first image D1. (Step S19). Then, the distance information and the laser irradiation position are added to the first image D1 as image supplementary information, and stored in the image storage unit 32 (step S19).
  • the user can adjust the angle of the laser distance measuring unit 12 to perform laser distance measurement at a desired position in the first imaging range R1 and accurately know the laser irradiation position in the first image D1. it can.
  • the laser distance measurement and the acquisition of the first and second images D1 and D2 are executed at the same time.
  • the laser distance measurement is executed and the laser distance measurement is normally completed.
  • the acquisition of the first and second images D1 and D2 may be executed.
  • an error message is displayed by displaying an error message on the display unit 18 when the laser distance measurement is not performed normally and when the laser irradiation position cannot be specified.
  • error notification may be performed by voice or lighting of an indicator lamp.
  • the distance calculation unit 48 is provided in the laser distance measurement unit 12.
  • the distance calculation unit 48 may be provided in the camera body 11, or the distance calculation unit 48 may be provided in the camera body 11. It may be provided outside.
  • the digital camera 50 of the second embodiment detects an angle of the laser distance measuring unit 12 with respect to the camera body 11 (that is, angles ⁇ X and ⁇ Y formed by the optical axis L1 and the optical axis L2).
  • a unit 51 is provided.
  • the angle detection unit 51 supplies the detected angles ⁇ X and ⁇ Y to the laser irradiation position specifying unit 34.
  • the angle detection unit 51 is configured by a potentiometer or the like.
  • the laser irradiation position specifying unit 34 obtains an approximate position of the laser irradiation position in the first image D1 based on the angles ⁇ X and ⁇ Y detected by the angle detection unit 51, and calculates this position.
  • the second image D2 is used as an initial position when pattern matching is performed on the first image D1.
  • the laser irradiation position specifying unit 34 determines the laser irradiation position in the first image D1, as shown in FIG. 10, based on the ratio of the angles ⁇ X and ⁇ Y to the field angle of the first imaging range R1. An approximate position (initial position 52) is calculated. Then, the laser irradiation position specifying unit 34 sets the search area 53 centered on the initial position 52 in the first image D1, and moves the second image D2 while moving the search area 53 from the initial position 52 while performing pattern matching. I do. Since the other structure of this embodiment is the same as that of 1st Embodiment, it attaches
  • the laser irradiation position can be specified with high accuracy and at high speed.
  • the angle detection unit 51 detects the angles ⁇ X and ⁇ Y around the X axis and the Y axis, respectively, but detects only one of the angles and detects a region where pattern matching is performed. You may limit only about one angle direction.
  • the laser ranging unit 12 is attached to the side surface of the camera body 11 via the hinge unit 13, but the mounting location of the laser ranging unit 12 can be changed as appropriate.
  • a detachable interchangeable lens barrel 60 is provided on the camera body 11, and the laser distance measuring unit 12 is attached to the side surface of the interchangeable lens barrel 60 via a hinge portion 13. Also good.
  • an accessory shoe 61 for attaching a flash unit or the like may be provided on the upper surface of the camera body 11, and the laser distance measuring unit 12 may be detachably attached to the accessory shoe 61.
  • the accessory shoe 61 functions as the aforementioned hinge part.
  • the laser distance measuring unit 12 may be attached to a jacket 62 that can be attached to and detached from the camera body 11.
  • the jacket 62 is attached so as to cover the outer peripheral surface of the camera body 11.
  • the laser distance measuring section 12 may be separated from the camera body 11 and made independent so that the laser distance measuring section 12 and the camera body 11 can communicate with each other wirelessly.
  • the digital camera 70 of the third embodiment is provided with a laser distance measuring unit 72 in the camera body 71.
  • the camera body 71 has the same configuration as the camera body 11 of the first embodiment.
  • the laser distance measuring unit 72 is provided with a reflection mirror 73 between the first objective lens 40 and the dichroic mirror 41, and the laser axis of the first embodiment is only the point where the optical axis L2 is bent by the reflection mirror 73. Different from the configuration of the distance measuring unit 12.
  • the reflection mirror 73 is a mirror device having a movable reflection surface, and is, for example, a DMD (Digital Mirror Device).
  • the reflection mirror 73 changes the inclination angle of the reflection surface and changes the direction of the optical axis L2 based on the control of the second control unit 47. In conjunction with the change of the optical axis L2, the irradiation direction of the laser beam LB and the position of the second imaging range R2 are changed.
  • the irradiation direction of the laser beam LB can be changed by operating the setting operation unit 17.
  • the second control unit 47 drives the reflection mirror 73 based on the operation signal from the setting operation unit 17. Since the other structure of this embodiment is the same as that of 1st Embodiment, it attaches
  • an angle detector that detects the angle of the reflection mirror 73 is provided, and the approximate position of the laser irradiation position in the first image D1 is determined based on the angle detected by the angle detection unit. This position may be obtained as an initial position when the second image D2 is pattern-matched with the first image D1.
  • the three-dimensional measuring device 80 includes a digital camera 81 and a computing device 82 including a personal computer.
  • the digital camera 81 has the same configuration as the digital camera of any of the above embodiments, and can perform wireless communication with the arithmetic device 82.
  • the digital camera 81 performs shooting at the first shooting position A and the second shooting position B for the same subject.
  • the user moves the digital camera 81 between the first shooting position A and the second shooting position B.
  • the computing device 82 includes a wireless communication unit 83, an image analysis unit 84, a three-dimensional data creation unit 85, and a control unit 86.
  • the wireless communication unit 83 receives from the digital camera 81 the first image D1 acquired by shooting at the first and second shooting positions A and B and the distance information.
  • the wireless communication unit 83 transmits a control signal from the control unit 86 to the digital camera 81.
  • the image analysis unit 84 extracts a plurality of feature points from each of the two first images D1 obtained at the first and second shooting positions A and B based on a known 8-point algorithm, and extracts the extracted feature points. By performing pattern matching, the relative position and relative angle of the digital camera 81 at the first and second photographing positions A and B are calculated. In this method, since the scale (magnification rate) is unknown, the image analysis unit 84 determines the scale based on at least the distance information obtained at the first imaging position A.
  • the three-dimensional data creation unit 85 is based on the first image D1 at the first and second shooting positions A and B, and the relative position and relative angle of the digital camera 81 at the first and second shooting positions A and B. Three-dimensional data of the subject is created using the stereo method.
  • the control unit 86 controls each unit in the arithmetic device 82 and the digital camera 81.
  • control unit 86 controls the digital camera 81 to display the first shooting position during live view display when shooting at the second shooting position B after shooting at the first shooting position A.
  • a region that matches the second image D2 obtained in A is searched from the first image D1 obtained at the second photographing position B during live view display, and the search result is displayed on the display unit 18. Accordingly, the user can easily confirm that the subject that is common to the first photographing position A is photographed at the second photographing position B.
  • the controller 86 can obtain an area that matches the second image D2 obtained at the first photographing position A at the second photographing position B in the same manner after photographing at the second photographing position B.
  • the search is performed from the first image D1
  • the search result is displayed on the display unit 18, and the search result is stored in the image storage unit 32 in association with the first image D1.
  • the control unit 86 causes the display unit 18 to display a message prompting re-shooting.
  • step S30 When the user operates the setting operation unit 17 of the digital camera 81 to set the digital camera 81 to the first shooting mode (step S30), the imaging and laser ranging (as in the digital camera 10 of the first embodiment) are performed. Step S31), laser irradiation position specification (step S32), and live view image display (step S33) are performed. The user determines the composition while observing the live view image, and performs shooting at the first shooting position A.
  • step S34 When the user presses the release button 16 at the first shooting position A and gives a shooting instruction (YES in step S34), as with the digital camera 10 of the first embodiment, imaging and laser ranging (step S35). ), The laser irradiation position is specified (step S38), and the first image D1 is displayed on the display unit 18 (step S40) and stored in the image storage unit 32 (step S41).
  • the user moves the digital camera 81 to a second shooting position B different from the first shooting position A.
  • the camera body 11 captures an image and acquires the first image D1 ( Step S43).
  • laser ranging is not performed, and a search is made for a region that matches the second image D2 obtained in the first imaging mode from the first image D1 obtained in step S43 (step S44).
  • live view display of the first image D1 is performed, and a search result (matching region) is displayed (step S45).
  • the user determines the composition while observing the live view image, and performs shooting at the second shooting position A.
  • step S46 when the user presses the release button 16 and issues a shooting instruction (YES in step S46), as in steps S43 and S44, the shooting (step S47) and the matching area search (step S48) is performed. If this matching area is not detected (YES in step S49), a message prompting re-shooting is displayed on the display unit 18 as an error notification (step S50).
  • step S50 a message prompting re-shooting is displayed on the display unit 18 as an error notification.
  • step S40 the coincidence area is detected (NO determination in step S49)
  • the first image D1 is displayed on the display unit 18 (step S40) and stored in the image storage unit 32 (step S41).
  • the digital at the first and second photographing positions A and B is obtained.
  • the relative position and relative angle of the camera 81 are calculated (step S53).
  • the three-dimensional data creation unit 85 Based on the first image D1 at the first and second shooting positions A and B and the relative position and relative angle calculated by the image analysis unit 84, the three-dimensional data creation unit 85 generates the three-dimensional data of the subject. It is created (step S54).
  • a digital camera is exemplified as a photographing device, but the present invention can be applied to various photographing function-equipped devices (photographing devices) such as a video camera, a mobile phone with a camera, and a smartphone.
  • photographing function-equipped devices such as a video camera, a mobile phone with a camera, and a smartphone.
  • the above embodiments can be combined with each other within a consistent range.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

 本発明は、レーザ照射位置を正確に特定することを可能とする撮影装置、及びこの撮影装置を備えた3次元計測装置を提供する。 レーザ測距部(12)は、ヒンジ部(13)によりカメラ本体(11)に対して回転自在に取り付けられている。カメラ本体(11)は、第1撮像部及びレーザ照射位置特定部を有する。レーザ測距部(12)は、レーザ照射部、レーザ受光部、第2撮像部、距離算出部を有する。第1撮像部は第1範囲を撮像して第1画像を生成する。レーザ照射部は第1範囲内の任意の方向にレーザ光を照射可能である。レーザ受光部はレーザ光の反射光を受光する。第2撮像部は、第1範囲内で、かつレーザ光の照射位置を含む第2範囲を撮像して、第2画像を生成する。レーザ照射位置特定部は、第1画像内から第2画像と一致する部分を探索して、第1画像内の照射位置を特定する。距離算出部は反射光の受光時間に基づき照射位置までの距離を算出する。

Description

撮影装置及び3次元計測装置
 本発明は、レーザ測距部を有する撮影装置、及びこの撮影装置を備えた3次元計測装置に関する。
 被写体に向けてレーザ光を照射し、レーザ光の反射光を受光することにより被写体までの距離(測距情報)を求めるレーザ測距部を有するデジタルカメラ等の撮影装置が知られている(特許文献1、2参照)。
 特許文献1に記載された撮影装置は、撮影により得られた画像を表示する画像表示部と、画像表示部に表示された画像中の任意の2点を指示する指示部と、指示された2点間の距離を、レーザ測距部による距離情報等に基づいて演算する演算部とを備えている。
 特許文献1のレーザ測距部は、撮影範囲内のほぼ中心にレーザ光を照射して、画像の中心までの距離を測定するものである。また、特許文献1には、上記2点を直接レーザ測距することを可能とするように、レーザ光の照射方向を可変とすることが記載されている。
 特許文献2に記載された撮影装置は、演算装置とにより3次元計測装置を構成している。演算装置は、撮影装置により被写体に対して異なる2つの撮影位置(第1及び第2撮影位置)で撮影された2つの画像を解析することにより、被写体の3次元情報を取得する。演算装置は、撮影装置のレーザ測距部により得られる測距情報を用いて、被写体の3次元情報の取得に必要な第1及び第2撮影位置における撮影装置の相対位置及び相対角度を求めている。
 特許文献2には、レーザ測距部が、画像の撮影範囲内の複数の点までの距離を測定するものであることが記載されているが、このレーザ測距部は、明らかに撮影範囲内の1点までの距離を測定するものである。すなわち、特許文献2に記載のレーザ測距部は、撮影範囲内の決められた位置(撮影範囲内の中心位置)を測距するようにレーザ照射位置が固定されていると言える。
特開2004-205222号公報 特開2001-317915号公報
 特許文献1に記載のように、撮影範囲内の決められた位置を測距するようにレーザ照射位置が固定されていると、その測距位置に物体が存在しない場合には、レーザ光の反射光が受光されず、測距を行うことができない。例えば、図18に示すような被写体(凱旋門)を撮影対象とした場合には、撮影範囲100内のレーザ照射位置である中心位置101が被写体の中空部分となり、レーザ光が反射光されないので、測距を行うことができない。
 特許文献1には、撮影範囲の任意の位置を測距するように、レーザ光の照射方向を可変とすることが記載されているが、レーザ光は一般的な撮影装置では撮影することができないため、撮影により得られた画像からは、レーザ照射位置を特定することはできない。
 また、特許文献1には、レーザ光の照射方向を可変とした場合に、ポテンショメータなどの角度検出器よりレーザ光の照射方向を検出することが記載されているが、照射方向から画像中の実際のレーザ照射位置を正確に特定することは難しい。
 本発明は、レーザ照射位置を正確に特定することを可能とする撮影装置、及びこの撮影装置を備えた3次元計測装置を提供することを目的とする。
 上記目的を達成するため、本発明の撮影装置は、第1撮像部と、レーザ照射部と、レーザ受光部と、第2撮像部と、レーザ照射位置特定部と、距離算出部とを備える。第1撮像部は、第1範囲を撮像して第1画像を生成する。レーザ照射部は、第1範囲内の任意の方向にレーザ光が照射可能である。レーザ受光部と、レーザ光の反射光を受光する。第2撮像部は、第1範囲内で、かつ、レーザ光の照射位置を含む第2範囲を撮像して、第2画像を生成する。レーザ照射位置特定部は、第1画像内から第2画像と一致する部分を探索して、第1画像内の照射位置を特定する。距離算出部は、レーザ受光部による反射光の受光時間に基づき、レーザ照射位置特定部により特定された照射位置までの距離を算出する。
 第2撮像部による撮像方向は、レーザ照射部のレーザ照射方向と連動して変更されることが好ましい。また、第1撮像部と第2撮像部とは同時期に撮像を行うことが好ましい。
 第1画像を記憶する画像記憶部を備え、レーザ照射位置特定部により特定された照射位置を第1画像に関連付けて画像記憶部に記憶してもよい。
 第2撮像部とレーザ照射部とは光軸が同一であって、光軸を屈曲させる可動式の反射ミラーを備え、反射ミラーの光軸に対する角度を変更することにより、撮像方向及びレーザ照射方向を連動して変更してもよい。
 この場合、反射ミラーの角度を検出する角度検出部を備え、レーザ照射位置特定部は、角度検出部により検出された角度に基づいて、第1画像内から第2画像と一致する部分の探索を開始する際の初期位置を決定することが好ましい。
 第1撮像部を有するカメラ本体と、レーザ受光部及び第2撮像部を有するレーザ測距部とを備え、レーザ測距部をカメラ本体に対して回転自在に取り付けてもよい。また、レーザ受光部及び第2撮像部を有するレーザ測距部は、カメラ本体から分離されており、カメラ本体とレーザ距離部とが無線等で通信可能であってもよい。
 この場合、カメラ本体に対するレーザ測距部の角度を検出する角度検出部を備え、レーザ照射位置特定部は、角度検出部により検出された角度に基づいて、第1画像内から第2画像と一致する部分の探索を開始する際の初期位置を決定することが好ましい。
 本発明の3次元計測装置は、上記いずれかの撮影装置と、演算装置とにより構成されている。演算装置は、画像解析部と、3次元データ作成部とを備える。画像解析部は、第1撮影位置で撮影装置により得られた第1画像と、第2撮影位置で撮影装置により得られた第1画像とから複数の特徴点を抽出し、抽出した特徴点をパターンマッチングすることにより、第1及び第2撮影位置での撮影装置の相対位置及び相対角度を算出する。3次元データ作成部は、第1及び第2撮影位置で得られた第1画像と、画像解析部により算出された相対位置及び相対角度に基づき、被写体の3次元データを作成する。
 この場合、撮影装置は、第2撮影位置で得られた第1画像内から、第1撮影位置で得られた第2画像に一致する部分を探索し、探索結果を通知することが好ましい。
 本発明によれば、第2撮像部が、第1撮像部により撮像される第1範囲内で、かつ、レーザ光の照射位置を含む第2範囲を撮像して、第2画像を生成し、レーザ照射位置特定部が、第1画像内から第2画像と一致する部分を探索して、第1画像内の照射位置を特定するので、レーザ照射位置を正確に特定することができる。
 また、本発明によれば、第1範囲内の任意の方向にレーザ光が照射可能であるので、中空を有するような被写体であっても確実に測距を行うことができる。
デジタルカメラの前面側斜視図である。 デジタルカメラの背面図である。 デジタルカメラの電気的構成を示すブロック図である。 第1及び第2撮影範囲の関係を説明する図である。 パターンマッチング法を説明する図である。 デジタルカメラの作用を説明するフローチャートである。 第1画像を例示する図である。 第2画像を例示する図である。 第2実施形態のデジタルカメラの電気的構成を示すブロック図である。 第2実施形態におけるパターンマッチングの初期位置及び探索領域を説明する図である。 レーザ測距部の取り付け位置に関する第1変形例を示す斜視図である。 レーザ測距部の取り付け位置に関する第2変形例を示す斜視図である。 レーザ測距部の取り付け位置に関する第3変形例を示す斜視図である。 第3実施形態のデジタルカメラの斜視図である。 第3実施形態のデジタルカメラの電気的構成を示すブロック図である。 3次元計測装置の構成を示す模式図である。 3次元計測装置の作用を説明するフローチャートである。 従来技術の問題点を説明する図である。
[第1実施形態]
 図1及び図2において、デジタルカメラ10は、カメラ本体11、レーザ測距部12、ヒンジ部13により構成されている。カメラ本体11は、被写体の撮影を行う。レーザ測距部12は、被写体までの距離を測定する。ヒンジ部13は、レーザ測距部12をカメラ本体11に対して回転自在に保持する。カメラ本体11には、レンズ鏡筒14、電源ボタン15、レリーズボタン16、設定操作部17、表示部18等が設けられている。
 レンズ鏡筒14は、カメラ本体11の前面に設けられており、1枚または複数枚のレンズからなる撮影レンズ19を保持している。電源ボタン15及びレリーズボタン16は、カメラ本体11の上面に設けられている。設定操作部17及び表示部18は、カメラ本体11の背面に設けられている。
 電源ボタン15は、デジタルカメラ10の電源(図示せず)をオン/オフする際に操作される。レリーズボタン16は、撮影を実行する際に操作される。設定操作部17は、各種ボタンやダイヤルを有し、デジタルカメラ10の各種設定や、動作モードの切り替えを行う際に操作される。
 デジタルカメラ10の動作モードには、静止画像を取得する撮影モードや、撮影画像を表示部18に再生表示する再生モードや、静止画像を取得するとともに被写体の測距を行う測距モード等がある。表示部18は、液晶ディスプレイ等で構成されており、撮影画像や、設定操作部17により各種設定を行うためのメニュー画面を表示する。
 また、表示部18は、動作モードが撮影モードまたは測距モードに設定されている場合に、撮影が実行されるまでの間、ライブビュー画像を表示する。ユーザは、表示部18に表示されるライブビュー画像を観察しながら構図を決定することができる。
 レーザ測距部12は、ヒンジ部13を介してカメラ本体11の側面に取り付けられている。ヒンジ部13は、撮影レンズ19の光軸L1に直交するX軸及びY軸をそれぞれ回転軸としてレーザ測距部12を回転自在に保持している。X軸とY軸とは直交している。ユーザは、レーザ測距部12をカメラ本体11に対して所望の角度に回動させることができる。
 レーザ測距部12の全面には、被写体に向けてレーザ光をする照射するための照射窓20と、レーザ光の反射光を受光するための受光窓21とが設けられている。照射窓20から照射されるレーザ光の光軸L2と撮影レンズ19の光軸L1のなす角度θ,θは、レーザ測距部12の回動に応じて変化する。
 図3において、カメラ本体11を構成する第1筐体の内部には、第1撮像素子30、第1画像処理部31、画像記憶部32、第1制御部33が設けられている。第1撮像素子30は、単板カラー撮像方式のCMOSイメージセンサやCCDイメージセンサであって、撮影レンズ19を介して可視光(環境光)VL1を受光して撮像を行い、画像データを生成する。撮影レンズ19及び第1撮像素子30は、第1撮像部を構成しており、図4に示すように、矩形の第1撮影範囲R1を撮像する。光軸L1は、第1撮影範囲R1の中心に位置する。
 第1画像処理部31は、第1撮像素子30により生成された画像データに対して、欠陥補正処理、デモザイク処理、ガンマ補正処理、ホワイトバランス補正処理、YC変換処理等の画像処理を行う。画像記憶部32は、フラッシュメモリ等の不揮発性メモリであって、第1画像処理部31により画像処理が行われた画像(以下、第1画像D1という)を記憶する。
 第1制御部33は、レリーズボタン16や設定操作部17から入力される操作信号に応じて、カメラ本体11の各部を制御する。例えば、設定操作部17により動作モードが撮影モードまたは測距モードに設定されると、第1制御部33は、第1撮像素子30及び第1画像処理部31を動作させ、所定時間毎に第1画像D1を生成させるとともに、生成された第1画像D1を順次に表示部18に表示させる。これにより、表示部18にライブビュー表示が行われる。そして、レリーズボタン16が押下されると、その時点で第1撮像素子30及び第1画像処理部31により生成された第1画像D1を画像記憶部32に記憶させる。
 レーザ測距部12を構成する第2筐体の内部には、第1対物レンズ40、ダイクロイックミラー41、第2撮像素子42、レーザ光源43、第2画像処理部44、第2対物レンズ45、受光素子46、第2制御部47が設けられている。レーザ光源43、ダイクロイックミラー41、第1対物レンズ40が、レーザ照射部を構成している。第2対物レンズ45及び受光素子46が、レーザ受光部を構成している。
 第1対物レンズ40、ダイクロイックミラー41、第2撮像素子42は、前述の照射窓20の背後に、光軸L2に沿って順に配置されている。レーザ光源43は、ダイクロイックミラー41から光軸L2と直交する方向に配置されている。第1対物レンズ40は、1枚または複数枚のレンズからなる。ダイクロイックミラー41は、可視光を透過させ、レーザ光を反射させる光学特性を有する。このダイクロイックミラー41としては、例えば、エッジ波長が400nm程度のシングルエッジ・ダイクロイック・ビームスプリッタが用いられる。
 レーザ光源43は、例えば半導体レーザであり、ダイクロイックミラー41に向けて、パスル状のレーザ光LBを射出する。このレーザ光LBは、ダイクロイックミラー41により、第1対物レンズ40に向かう方向に反射される。ダイクロイックミラー41により反射されたレーザ光LBは、光軸L2に沿って伝播し、第1対物レンズ40を通過して照射窓20から放出される。
 第2撮像素子42は、照射窓20から入射し、第1対物レンズ40及びダイクロイックミラー41を透過した可視光(環境光)VL2を受光して撮像を行い、画像データを生成する。第2画像処理部44は、第2撮像素子42により生成された画像データに対して、前述の第1画像処理部31と同様の画像処理を行う。第2画像処理部44により画像処理が行われた画像(以下、第2画像D2という)は、第2制御部47により、カメラ本体11に送られる。
 第1対物レンズ40及び第2撮像素子42は、第2撮像部を構成している。第2撮像部の画角は、前述の第1撮像部の画角より小さい。したがって、第2撮像部は、図4に示すように、第1撮影範囲R1より小さい第2撮影範囲R2を撮像する。光軸L2は、レーザ光LBの照射光軸、及び可視光VL2の受光光軸であり、第2撮影範囲R2の中心に位置する。すなわち、レーザ光LBの照射位置は、第2撮影範囲R2の中心である。
 レーザ光LBの照射方向と、第2撮像部の撮像方向は、同一方向であり、カメラ本体11に対するレーザ測距部12の回動に伴って変更される。
 第2対物レンズ45は、1枚または複数枚のレンズからなり、第2対物レンズ45の背後に配置されている。受光素子46は、被写体により反射されたレーザ光LBの反射光RBを、第2対物レンズ45を介して受光する。受光素子46は、レーザ光の波長帯受光感度を有するフォトダイオードにより構成されている。第2対物レンズ45は、レーザ光に対して透過性を有し、第2対物レンズ45に入射する可視光(環境光)VL3に対しては不透過であることが好ましい。
 第2制御部47は、第1制御部33との間で通信を行うとともに、レーザ測距部12の各部を制御する。また、第2制御部47には、距離算出部48が設けられている。距離算出部48は、レーザ光源43から射出されたレーザ光LBが被写体により反射され、反射光RBとして受光素子46により受光されるまでの時間(レーザ光LBの往復時間)を計測し、この計測値に基づいてデジタルカメラ10から被写体(レーザ照射位置)までの距離(以下、距離情報という)を算出する。
 第2制御部47は、レーザ光源43、受光素子46、距離算出部48を駆動してレーザ測距を実施すると同時期に、第2撮像素子42及び第2画像処理部44を駆動して第2画像D2を取得する。したがって、第2画像D2は、レーザ光LBの照射中に、照射位置を中心とする局所領域を撮影した画像情報である。第2画像D2は、距離情報とともに第1制御部33に送られる。
 第1制御部33は、測距モード時には、第1撮像素子30及び第1画像処理部31を動作させて第1画像D1を取得すると同時期に、第2制御部47を制御して、第2画像D2及び距離情報を取得させる。なお、同時期とは、完全に同時である場合と、完全に同時ではないがほぼ同時である場合とを含む。
 第1制御部33には、レーザ照射位置特定部34が設けられている。レーザ照射位置特定部34は、正規化相関などのパターンマッチング法を用いて、図5に示すように、第1画像D1中から第2画像D2に一致する領域(以下、一致領域MRという)を探索し、この一致領域MRの中心をレーザ照射位置IPとして特定する。具体的には、レーザ照射位置特定部34は、IP第1画像D1中で、第2画像D2を順に移動させながら、第2画像D2と第1画像D1中の第2画像D2と重なる部分との相関度を計算し、相関度が最も高い部分を一致領域MRとして特定する。
 第1制御部33は、距離算出部48により得られた距離情報と、レーザ照射位置特定部34により得られたレーザ照射位置とを、第1画像D1に関連付けて画像記憶部32に記憶させる。距離情報及びレーザ照射位置を、第1画像D1と1つのファイルとして保存してもよりし、第1画像D1と関連付けられた別のファイルとして保存してもよい。第1制御部33は、例えば、Exif規格に則って、距離情報及びレーザ照射位置を画像付帯情報として第2画像D2に付加し、1つのファイルとして画像記憶部32に記憶させる。
 また、第1制御部33は、被写体がレーザ光LBを十分に反射せず、受光素子46が反射光RBを受信できない場合や、第1画像D1中から第2画像D2に一致する領域が見つからず、レーザ照射位置を特定することができない場合には、レーザ測距が正常に行えなかった旨(エラーメッセージ)を表示部18に表示させる。
 また、第1制御部33は、測距モードにおいてライブビュー画像の表示中に、レーザ測距を周期的に行わせ、レーザ照射位置及び距離情報をライブビュー画像中に表示させる。
 次に、デジタルカメラ10の作用を、図6のフローチャートに沿って説明する。ユーザにより設定操作部17が操作され、動作モードが測距モードに設定されると、カメラ本体11によりライブビュー画像の撮像動作が行われるとともに、レーザ測距部12によりレーザ測距動作が行われる(ステップS10)。
 このステップS10では、前述の第1及び第2画像D1,D2と距離情報とが取得される。図7は、カメラ本体11により得られる第1画像D1を例示している。図8は、レーザ測距部12により取得される第2画像D2を例示している。
 そして、レーザ照射位置特定部34により、第1及び第2画像D1,D2を用いてパターンマッチングが行われ、第1画像D1中から第2画像D2に一致する一致領域MRを検出することにより、レーザ照射位置IPが特定される(ステップS11)。
 第1画像D1は、ライブビュー画像として表示部18に表示される(ステップS12)。このとき、第1画像D1中には、ステップS11で特定されたレーザ照射位置IPの表示が行われる。ユーザは、ライブビュー画像を観察しながら構図を決定し、カメラ本体11に対するレーザ測距部12の角度を調整することで、レーザ照射位置IPを変更することができる。このレーザ照射位置IPは、ライブビュー画像上で確認することができる。例えば、図7に示す第1画像D1がライブビュー表示されている場合には、ユーザは、第1画像D1中のレーザ照射位置IPを確認しながら、物体が存在する位置にレーザ照射位置IPを設定することができる。
 ステップS10~S12の動作は、ユーザによりレリーズボタン16が押下され、撮影指示がなされるまでの間、繰り返し実行される。レリーズボタン16が押下されて、撮影指示がなされると(ステップS13でYES判定)、ステップS10と同様の撮像動作及びレーザ測距動作が行われる(ステップS14)。このとき、受光素子46が反射光RBを受信できない等の理由で、レーザ測距が正常に行われなかった場合(ステップS15でYES判定)には、表示部18にエラーメッセージの表示が行われる(ステップS16)。
 レーザ測距が正常に行われた場合(ステップS15でNO判定)には、ステップS11と同様のレーザ照射位置の特定動作が行われる(ステップS17)。このとき、第1画像D1中から第2画像D2に一致する領域が見つからない等の理由で、レーザ照射位置を特定することができなかった場合(ステップS18でYES判定)には、表示部18にエラーメッセージの表示が行われる(ステップS16)。
 レーザ照射位置が正常に特定された場合(ステップS18でNO判定)には、第1画像D1が表示部18に表示されるとともに、第1画像D1中にレーザ照射位置及び距離情報が表示される(ステップS19)。そして、第1画像D1は、距離情報及びレーザ照射位置が画像付帯情報として付加され、画像記憶部32に記憶される(ステップS19)。
 このようにユーザは、レーザ測距部12の角度を調整することで、第1撮影範囲R1内の所望の位置をレーザ測距し、第1画像D1内のレーザ照射位置を正確に知ることができる。
 なお、上記第1実施形態では、レーザ測距と、第1及び第2画像D1,D2の取得とを同時期に実行しているが、レーザ測距を実行し、レーザ測距が正常に完了した場合に、第1及び第2画像D1,D2の取得を実行してもよい。
 また、上記第1実施形態では、レーザ測距が正常に行われなかった場合と、レーザ照射位置を特定することができなかった場合に、表示部18にエラーメッセージを表示することで、エラー通知を行っているが、音声やインジケータランプの点灯等によりエラー通知を行ってもよい。
 また、上記第1実施形態では、距離算出部48をレーザ測距部12内に設けているが、距離算出部48をカメラ本体11内に設けてもよいし、距離算出部48をカメラ本体11外に設けてもよい。
[第2実施形態]
 図9において、第2実施形態のデジタルカメラ50は、カメラ本体11に対するレーザ測距部12の角度(すなわち、光軸L1と光軸L2とのなす角度θ,θ)を検出する角度検出部51を備える。角度検出部51は、検出した角度θ,θをレーザ照射位置特定部34に供給する。角度検出部51は、ポテンショメータ等で構成されている。
 本実施形態では、レーザ照射位置特定部34は、角度検出部51により検出された角度θ,θに基づいて、第1画像D1中のレーザ照射位置のおおよその位置を求め、この位置を、第1画像D1に対して第2画像D2をパターンマッチングする際の初期位置とする。
 具体的には、レーザ照射位置特定部34は、第1撮影範囲R1の画角に対する角度θ,θの比率に基づき、図10に示すように、第1画像D1中のレーザ照射位置のおおよその位置(初期位置52)を算出する。そして、レーザ照射位置特定部34は、初期位置52を中心とした探索領域53を第1画像D1内に設定し、第2画像D2を、初期位置52から探索領域53を移動させながら、パターンマッチングを行う。本実施形態のその他の構成は第1実施形態と同一であるので、同一の符号を付し、説明を省略する。
 本実施形態では、パターンマッチングを行う領域が限定されるため、レーザ照射位置の特定を高精度かつ高速に行うことができる。
 本実施形態では、角度検出部51は、X軸及びY軸周りの角度θ,θをそれぞれ検出しているが、いずれか一方の角度のみを検出し、パターンマッチングを行う領域を、検出した1つの角度方向のみについて限定してもよい。
 上記第1及び第2実施形態では、レーザ測距部12をカメラ本体11の側面にヒンジ部13を介して取り付けているが、レーザ測距部12の取り付け箇所は適宜変更可能である。例えば、図11に示すように、カメラ本体11に着脱可能な交換式レンズ鏡筒60を設け、この交換式レンズ鏡筒60の側面に、ヒンジ部13を介してレーザ測距部12を取り付けてもよい。
 また、図12に示すように、カメラ本体11の上面に、フラッシュユニット等を取り付けるためのアクセサリシュー61を設け、このアクセサリシュー61にレーザ測距部12を着脱自在に取り付けてもよい。この場合、アクセサリシュー61が前述のヒンジ部として機能する。また、図13に示すように、カメラ本体11に着脱可能なジャケット62にレーザ測距部12を取り付けてもよい。このジャケット62は、カメラ本体11の外周面を覆うように取り付けられる。
 さらに、レーザ測距部12をカメラ本体11から分離して独立させ、レーザ測距部12とカメラ本体11とを相互に無線等で通信可能としてもよい。
[第3実施形態]
 図14及び図15において、第3実施形態のデジタルカメラ70は、カメラ本体71内にレーザ測距部72が設けられている。カメラ本体71は、第1実施形態のカメラ本体11と同様の構成を有する。レーザ測距部72は、第1対物レンズ40とダイクロイックミラー41との間に反射ミラー73が設けられ、この反射ミラー73によって光軸L2が屈曲されている点のみが、第1実施形態のレーザ測距部12の構成と異なる。
 反射ミラー73は、可動式の反射面を有するミラー装置であり、例えば、DMD(Digital Mirror Device)である。反射ミラー73は、第2制御部47の制御に基づいて、反射面の傾斜角を変更し、光軸L2の方向を変更する。この光軸L2の変更に連動して、レーザ光LBの照射方向、及び第2撮影範囲R2の位置が変更される。
 本実施形態では、設定操作部17の操作により、レーザ光LBの照射方向を変更可能となっている。第2制御部47は、設定操作部17からの操作信号に基づいて、反射ミラー73を駆動する。本実施形態のその他の構成は第1実施形態と同一であるので、同一の符号を付し、説明を省略する。
 なお、第2実施形態と同様に、反射ミラー73の角度を検出する角度検出器を設け、角度検出部により検出された角度に基づいて、第1画像D1中のレーザ照射位置のおおよその位置を求め、この位置を、第1画像D1に対して第2画像D2をパターンマッチングする際の初期位置としてもよい。
[第4実施形態]
 図16において、3次元計測装置80は、デジタルカメラ81と、パーソナルコンピュータ等からなる演算装置82によって構成されている。デジタルカメラ81は、上記いずれかの実施形態のデジタルカメラと同様の構成であって、演算装置82との間で無線通信を行うことが可能である。
 デジタルカメラ81は、同一の被写体を対象として、第1撮影位置Aと第2撮影位置Bとで撮影が行われる。第1撮影位置Aと第2撮影位置Bとの間のデジタルカメラ81の移動は、ユーザにより行われる。
 演算装置82は、無線通信部83、画像解析部84、3次元データ作成部85、制御部86を有している。無線通信部83は、第1及び第2撮影位置A,Bにおける撮影で取得される第1画像D1と、距離情報とをデジタルカメラ81から受信する。また、無線通信部83は、制御部86からの制御信号をデジタルカメラ81に送信する。
 画像解析部84は、周知の8点アルゴリズムに基づき、第1及び第2撮影位置A,Bで得られた2枚の各第1画像D1から複数の特徴点を抽出し、抽出した特徴点をパターンマッチングすることで、第1及び第2撮影位置A,Bでのデジタルカメラ81の相対位置及び相対角度を算出する。また、この方法では、スケール(拡大率)が不明であるため、画像解析部84は、少なくとも第1撮影位置Aで得られた距離情報に基づき、スケールを決定する。
 3次元データ作成部85は、第1及び第2撮影位置A,Bの第1画像D1と、第1及び第2撮影位置A,Bでのデジタルカメラ81の相対位置及び相対角度とに基づき、ステレオ法を用いて被写体の3次元データを作成する。制御部86は、演算装置82内の各部と、デジタルカメラ81とを制御する。
 また、制御部86は、デジタルカメラ81を制御し、第1撮影位置Aで撮影が行われた後、第2撮影位置Bで撮影を行おうとする際のライブビュー表示中に、第1撮影位置Aで得られた第2画像D2に一致する領域を、ライブビュー表示中の第2撮影位置Bで得られた第1画像D1内から探索させ、この探索結果を表示部18に表示させる。これにより、ユーザは、第2撮影位置Bで、第1撮影位置Aと共通する被写体を撮影していることを、容易に確認することができる。
 さらに、制御部86は、第2撮影位置Bで撮影が行われた後も同様に、第1撮影位置Aで得られた第2画像D2に一致する領域を、第2撮影位置Bで得られた第1画像D1内から探索させ、この探索結果を表示部18に表示させるとともに、探索結果を第1画像D1に関連付けて画像記憶部32に記憶させる。特に、制御部86は、第1画像D1内から第2画像D2に一致する領域が存在しない場合には、再撮影を促すメッセージを表示部18に表示させる。
 次に、3次元計測装置80の作用を、図17のフローチャートに沿って説明する。ユーザによりデジタルカメラ81の設定操作部17が操作され、デジタルカメラ81が第1撮影モードに設定されると(ステップS30)、第1実施形態のデジタルカメラ10と同様に、撮像及びレーザ測距(ステップS31)、レーザ照射位置の特定(ステップS32)、ライブビュー画像表示(ステップS33)が行われる。ユーザは、ライブビュー画像を観察しながら構図を決定し、第1撮影位置Aで撮影を行う。
 第1撮影位置Aにおいて、ユーザによりレリーズボタン16が押下され、撮影指示がなされると(ステップS34でYES判定)、第1実施形態のデジタルカメラ10と同様に、撮像及びレーザ測距(ステップS35)、レーザ照射位置の特定(ステップS38)等が行われ、第1画像D1の表示部18への表示(ステップS40)、及び画像記憶部32への記憶(ステップS41)が行われる。
 次いで、ユーザは、第1撮影位置Aとは異なる第2撮影位置Bにデジタルカメラ81を移動する。ユーザによりデジタルカメラ81の設定操作部17が操作され、デジタルカメラ81が第2撮影モードに設定されると(ステップS42)、カメラ本体11により撮像が行われ、第1画像D1が取得される(ステップS43)。この第2撮影モードでは、レーザ測距は行われず、ステップS43で得られた第1画像D1から、第1撮影モードで得られた第2画像D2に一致する領域の探索が行われる(ステップS44)。そして、第1画像D1のライブビュー表示が行われるとともに、探索結果(一致領域)の表示が行われる(ステップS45)。ユーザは、ライブビュー画像を観察しながら構図を決定し、第2撮影位置Aで撮影を行う。
 第2撮影位置Bにおいて、ユーザによりレリーズボタン16が押下され、撮影指示がなされると(ステップS46でYES判定)、ステップS43及びS44と同様に、撮像(ステップS47)及び一致領域の探索(ステップS48)が行われる。この一致領域が検出されない場合(ステップS49でYES判定)には、エラー通知として、再撮影を促すメッセージが表示部18に表示される(ステップS50)。一致領域が検出された場合(ステップS49でNO判定)には、第1画像D1の表示部18への表示(ステップS40)、及び画像記憶部32への記憶(ステップS41)が行われる。
 この後、画像解析部84により、第1及び第2撮影位置A,Bで得られた2枚の第1画像D1、及び距離情報に基づき、第1及び第2撮影位置A,Bでのデジタルカメラ81の相対位置及び相対角度が算出される(ステップS53)。そして、3次元データ作成部85により、第1及び第2撮影位置A,Bの第1画像D1と、画像解析部84により算出された相対位置及び相対角度とに基づき、被写体の3次元データが作成される(ステップS54)。
 上記各実施形態では、撮影装置としてデジタルカメラを例示しているが、本発明は、ビデオカメラ、カメラ付き携帯電話、スマートフォン等の種々の撮影機能付き機器(撮影装置)に適用可能である。また、上記各実施形態は、矛盾しない範囲で相互に組み合わせ可能である。
 14 レンズ鏡筒
 17 設定操作部
 18 表示部
 19 撮影レンズ
 40 第1対物レンズ
 41 ダイクロイックミラー
 45 第2対物レンズ

Claims (10)

  1.  第1範囲を撮像して第1画像を生成する第1撮像部と、
     前記第1範囲内の任意の方向にレーザ光を照射可能なレーザ照射部と、
     前記レーザ光の反射光を受光するレーザ受光部と、
     前記第1範囲内で、かつ、前記レーザ光の照射位置を含む第2範囲を撮像して、第2画像を生成する第2撮像部と、
     前記第1画像内から前記第2画像と一致する部分を探索して、前記第1画像内の前記照射位置を特定するレーザ照射位置特定部と、
     前記レーザ受光部による前記反射光の受光時間に基づき、前記レーザ照射位置特定部により特定された前記照射位置までの距離を算出する距離算出部と、
     を備える撮影装置。
  2.  前記第2撮像部による撮像方向は、前記レーザ照射部のレーザ照射方向と連動して変更される請求項1に記載の撮影装置。
  3.  前記第1撮像部と前記第2撮像部とは同時期に撮像を行う請求項2に記載の撮影装置。
  4.  前記第1画像を記憶する画像記憶部を備え、
     前記レーザ照射位置特定部により特定された前記照射位置は、前記第1画像に関連付けられて前記画像記憶部に記憶される請求項3に記載の撮影装置。
  5.  前記第2撮像部と前記レーザ照射部とは光軸が同一であって、前記光軸を屈曲させる可動式の反射ミラーを備え、
     前記反射ミラーの前記光軸に対する角度を変更することにより、前記撮像方向及び前記レーザ照射方向が連動して変更される請求項2に記載の撮影装置。
  6.  前記反射ミラーの角度を検出する角度検出部を備え、
     前記レーザ照射位置特定部は、前記角度検出部により検出された角度に基づいて、前記第1画像内から前記第2画像と一致する部分の探索を開始する際の初期位置を決定する請求項5に記載の撮影装置。
  7.  第1撮像部を有するカメラ本体と、前記レーザ受光部及び前記第2撮像部を有するレーザ測距部とを備え、
     前記レーザ測距部は、前記カメラ本体に対して回転自在に取り付けられている請求項2に記載の撮影装置。
  8.  前記カメラ本体に対する前記レーザ測距部の角度を検出する角度検出部を備え、
     前記レーザ照射位置特定部は、前記角度検出部により検出された角度に基づいて、前記第1画像内から前記第2画像と一致する部分の探索を開始する際の初期位置を決定する請求項7に記載の撮影装置。
  9.  請求項1から8いずれか1項に記載の撮影装置と、演算装置とにより構成された3次元計測装置において、
     前記演算装置は、
     第1撮影位置で前記撮影装置により得られた前記第1画像と、第2撮影位置で前記撮影装置により得られた前記第1画像とから複数の特徴点を抽出し、抽出した特徴点をパターンマッチングすることにより、前記第1及び第2撮影位置での前記撮影装置の相対位置及び相対角度を算出する画像解析部と、
     前記第1及び第2撮影位置で得られた前記第1画像と、前記画像解析部により算出された前記相対位置及び前記相対角度に基づき、被写体の3次元データを作成する3次元データ作成部と、
     を備える3次元計測装置。
  10.  前記撮影装置は、前記第2撮影位置で得られた前記第1画像内から、前記第1撮影位置で得られた前記第2画像に一致する部分を探索し、探索結果を通知する請求項9に記載の3次元計測装置。
PCT/JP2014/066651 2013-07-16 2014-06-24 撮影装置及び3次元計測装置 Ceased WO2015008587A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015527234A JP5902354B2 (ja) 2013-07-16 2014-06-24 撮影装置及び3次元計測装置
US14/972,292 US20160103209A1 (en) 2013-07-16 2015-12-17 Imaging device and three-dimensional-measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-147636 2013-07-16
JP2013147636 2013-07-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/972,292 Continuation US20160103209A1 (en) 2013-07-16 2015-12-17 Imaging device and three-dimensional-measurement device

Publications (1)

Publication Number Publication Date
WO2015008587A1 true WO2015008587A1 (ja) 2015-01-22

Family

ID=52346059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/066651 Ceased WO2015008587A1 (ja) 2013-07-16 2014-06-24 撮影装置及び3次元計測装置

Country Status (3)

Country Link
US (1) US20160103209A1 (ja)
JP (1) JP5902354B2 (ja)
WO (1) WO2015008587A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017077906A1 (ja) * 2015-11-06 2017-05-11 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
CN106839994A (zh) * 2017-01-17 2017-06-13 上海与德信息技术有限公司 一种用于图像的测量系统
WO2017134882A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017134880A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017134881A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017146202A1 (ja) * 2016-02-25 2017-08-31 大日本印刷株式会社 三次元形状データおよびテクスチャ情報生成システム、撮影制御プログラム、及び三次元形状データおよびテクスチャ情報生成方法
WO2017149852A1 (ja) * 2016-02-29 2017-09-08 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017142483A3 (en) * 2016-02-17 2017-09-28 Heptagon Micro Optics Pte. Ltd. Optoelectronic systems
JP2017203975A (ja) * 2016-05-10 2017-11-16 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、及びソフトウェア
WO2018168507A1 (ja) * 2017-03-17 2018-09-20 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
JP2019219929A (ja) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ 常時キャリブレーションシステム及びその方法
CN110798662A (zh) * 2019-10-31 2020-02-14 浙江大华技术股份有限公司 一种监控系统、方法、装置、控制设备及存储介质
JP2020056777A (ja) * 2018-10-01 2020-04-09 株式会社コムビック 非接触測定装置
WO2022162922A1 (ja) * 2021-01-29 2022-08-04 株式会社ニコンビジョン 距離測定装置及び距離測定方法
JP2024177337A (ja) * 2019-07-31 2024-12-19 キヤノン株式会社 距離検出システム、撮像装置、及び制御方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038159A1 (ja) 2015-08-31 2017-03-09 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
US11255663B2 (en) * 2016-03-04 2022-02-22 May Patents Ltd. Method and apparatus for cooperative usage of multiple distance meters
JP6719494B2 (ja) * 2018-02-07 2020-07-08 直之 村上 追尾レーザー距離計測器の駆動計測で、3次元の数値駆動の制御機器の3次元の駆動数値を演算する方法。
JP7195093B2 (ja) * 2018-09-18 2022-12-23 直之 村上 テレビカメラの映す画像の距離を計測する方法
WO2021199572A1 (ja) * 2020-03-31 2021-10-07 富士フイルム株式会社 撮像補助装置、撮像システム、撮像補助方法、及び撮像補助プログラム
CN114911126B (zh) * 2022-07-15 2022-10-25 北京科技大学 基于双目视觉及振镜扫描的激光三维投影装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124544A (ja) * 1999-10-25 2001-05-11 Asahi Optical Co Ltd 測距装置
JP2002202126A (ja) * 2000-12-28 2002-07-19 Topcon Corp 測量装置と電子的記憶媒体
JP2008032701A (ja) * 2006-07-03 2008-02-14 Pentax Industrial Instruments Co Ltd 測量機
JP2008145263A (ja) * 2006-12-11 2008-06-26 Fujifilm Corp 撮影装置および方法並びにプログラム
JP2010038901A (ja) * 2008-07-05 2010-02-18 Topcon Corp 測量装置及び自動追尾方法
JP2010147554A (ja) * 2008-12-16 2010-07-01 Nikon Corp 電子カメラ
JP2011242479A (ja) * 2010-05-14 2011-12-01 West Japan Railway Co レーザー距離計付き撮影装置
WO2012013914A1 (en) * 2010-07-29 2012-02-02 Adam Lomas Portable hand-holdable digital camera with range finder

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9001227B2 (en) * 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors
TWI524735B (zh) * 2012-03-30 2016-03-01 華晶科技股份有限公司 三維影像產生方法及裝置
US20130271744A1 (en) * 2012-04-13 2013-10-17 Kama-Tech (Hk) Limited Laser rangefinder module for operative association with smartphones and tablet computers
US20140063261A1 (en) * 2012-08-29 2014-03-06 Pocket Optics, LLC Portable distance measuring device with a laser range finder, image sensor(s) and microdisplay(s)
US20150369565A1 (en) * 2014-06-20 2015-12-24 Matthew Flint Kepler Optical Device Having a Light Separation Element

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124544A (ja) * 1999-10-25 2001-05-11 Asahi Optical Co Ltd 測距装置
JP2002202126A (ja) * 2000-12-28 2002-07-19 Topcon Corp 測量装置と電子的記憶媒体
JP2008032701A (ja) * 2006-07-03 2008-02-14 Pentax Industrial Instruments Co Ltd 測量機
JP2008145263A (ja) * 2006-12-11 2008-06-26 Fujifilm Corp 撮影装置および方法並びにプログラム
JP2010038901A (ja) * 2008-07-05 2010-02-18 Topcon Corp 測量装置及び自動追尾方法
JP2010147554A (ja) * 2008-12-16 2010-07-01 Nikon Corp 電子カメラ
JP2011242479A (ja) * 2010-05-14 2011-12-01 West Japan Railway Co レーザー距離計付き撮影装置
WO2012013914A1 (en) * 2010-07-29 2012-02-02 Adam Lomas Portable hand-holdable digital camera with range finder

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074705B2 (en) 2015-11-06 2021-07-27 Fujifilm Corporation Information processing device, information processing method, and program
US12354291B2 (en) 2015-11-06 2025-07-08 Fujifilm Corporation Information processing device, information processing method, and program
CN108351199B (zh) * 2015-11-06 2020-03-06 富士胶片株式会社 信息处理装置、信息处理方法及存储介质
CN108351199A (zh) * 2015-11-06 2018-07-31 富士胶片株式会社 信息处理装置、信息处理方法及程序
US10546381B2 (en) 2015-11-06 2020-01-28 Fujifilm Corporation Information processing device, information processing method, and program
US11727585B2 (en) 2015-11-06 2023-08-15 Fujifilm Corporation Information processing device, information processing method, and program
JPWO2017077906A1 (ja) * 2015-11-06 2018-06-14 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017077906A1 (ja) * 2015-11-06 2017-05-11 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017134881A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
US11181359B2 (en) 2016-02-04 2021-11-23 Fujifilm Corporation Information processing device, information processing method, and program
WO2017134880A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
CN108603745B (zh) * 2016-02-04 2020-04-28 富士胶片株式会社 信息处理装置、信息处理方法及程序
CN108603745A (zh) * 2016-02-04 2018-09-28 富士胶片株式会社 信息处理装置、信息处理方法及程序
CN108603743A (zh) * 2016-02-04 2018-09-28 富士胶片株式会社 信息处理装置、信息处理方法及程序
CN108603743B (zh) * 2016-02-04 2020-03-27 富士胶片株式会社 信息处理装置、信息处理方法及程序
US10401146B2 (en) 2016-02-04 2019-09-03 Fujifilm Corporation Information processing device, information processing method, and program
WO2017134882A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017142483A3 (en) * 2016-02-17 2017-09-28 Heptagon Micro Optics Pte. Ltd. Optoelectronic systems
CN109690247A (zh) * 2016-02-17 2019-04-26 赫普塔冈微光有限公司 光电子系统
JPWO2017146202A1 (ja) * 2016-02-25 2018-03-29 大日本印刷株式会社 三次元形状データおよびテクスチャ情報生成システム、撮影制御プログラム、及び三次元形状データおよびテクスチャ情報生成方法
WO2017146202A1 (ja) * 2016-02-25 2017-08-31 大日本印刷株式会社 三次元形状データおよびテクスチャ情報生成システム、撮影制御プログラム、及び三次元形状データおよびテクスチャ情報生成方法
CN108700408A (zh) * 2016-02-25 2018-10-23 大日本印刷株式会社 三维形状数据及纹理信息生成系统、拍摄控制程序、以及三维形状数据及纹理信息生成方法
CN108700408B (zh) * 2016-02-25 2020-06-30 大日本印刷株式会社 三维形状数据及纹理信息生成系统、方法及拍摄控制方法
WO2017149852A1 (ja) * 2016-02-29 2017-09-08 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017203975A (ja) * 2016-05-10 2017-11-16 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、及びソフトウェア
CN106839994A (zh) * 2017-01-17 2017-06-13 上海与德信息技术有限公司 一种用于图像的测量系统
WO2018168507A1 (ja) * 2017-03-17 2018-09-20 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
JP2019219929A (ja) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ 常時キャリブレーションシステム及びその方法
JP2020056777A (ja) * 2018-10-01 2020-04-09 株式会社コムビック 非接触測定装置
JP7349702B2 (ja) 2018-10-01 2023-09-25 株式会社コムビック 非接触測定装置
JP2024177337A (ja) * 2019-07-31 2024-12-19 キヤノン株式会社 距離検出システム、撮像装置、及び制御方法
CN110798662A (zh) * 2019-10-31 2020-02-14 浙江大华技术股份有限公司 一种监控系统、方法、装置、控制设备及存储介质
JPWO2022162922A1 (ja) * 2021-01-29 2022-08-04
JP2025072476A (ja) * 2021-01-29 2025-05-09 株式会社ニコンビジョン 距離測定装置及び距離測定方法
WO2022162922A1 (ja) * 2021-01-29 2022-08-04 株式会社ニコンビジョン 距離測定装置及び距離測定方法
JP7785988B2 (ja) 2021-01-29 2025-12-15 株式会社ニコンビジョン 距離測定装置及び距離測定方法

Also Published As

Publication number Publication date
JPWO2015008587A1 (ja) 2017-03-02
JP5902354B2 (ja) 2016-04-13
US20160103209A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP5902354B2 (ja) 撮影装置及び3次元計測装置
JP3970046B2 (ja) カメラ
JP6464281B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
JP2015096961A (ja) 撮像装置
JP2014202875A (ja) 被写体追跡装置
CN105704365B (zh) 焦点检测设备和用于焦点检测设备的控制方法
JP2011227372A (ja) 照明装置及びカメラ
JP6653143B2 (ja) 物体の3d座標を測定するための方法および装置
JP2011106931A (ja) 3次元形状測定システムおよび携帯電話機
JP5344608B2 (ja) 撮影システム
JP2011044970A5 (ja)
JP2006279546A (ja) 電子カメラ、画像処理プログラム、および画像処理方法
JP6346484B2 (ja) 画像処理装置およびその制御方法
JP2021056532A (ja) 撮像装置およびその制御方法
JP6494059B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6597233B2 (ja) 追尾装置および撮像装置
JP2019095807A (ja) 焦点検出装置および撮像装置
US8345140B2 (en) Image capturing apparatus and method of controlling same
JP5981898B2 (ja) 撮像装置およびその制御方法
JP6534457B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019219566A (ja) 撮像装置、露出制御方法及びプログラム
JP2015045759A (ja) 撮像装置およびその制御方法
JP2018116290A (ja) 焦点調節装置および撮像装置
JP2011082850A (ja) 撮像装置及び画像表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14826488

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015527234

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14826488

Country of ref document: EP

Kind code of ref document: A1