WO2017134882A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2017134882A1 WO2017134882A1 PCT/JP2016/082147 JP2016082147W WO2017134882A1 WO 2017134882 A1 WO2017134882 A1 WO 2017134882A1 JP 2016082147 W JP2016082147 W JP 2016082147W WO 2017134882 A1 WO2017134882 A1 WO 2017134882A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- imaging
- pixel
- distance
- subject
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
Definitions
- the technology of the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- Japanese Patent Application Laid-Open No. 2012-27000 discloses an image measurement processing device that derives the three-dimensional position coordinates of feature points on a measurement target with a single camera.
- three-dimensional position coordinates are derived by the following steps 1 to 5.
- the image measurement processing device stores in advance the internal orientation elements of the camera and the actual coordinates of at least four feature points of the measurement target.
- the image measurement processing device captures an image obtained by being imaged by the camera and including four feature points in the camera field of view.
- the image measurement processing device corrects distortion on the image based on the internal orientation element with respect to the camera view coordinates of the feature points on the captured image.
- the image measurement processing device derives a camera position and a camera angle in a coordinate system based on the measurement target at the time of image capturing from the camera view coordinates and real coordinates of the feature points.
- the image measurement processing device derives the three-dimensional coordinates of the feature points in the camera reference coordinate system by executing coordinate transformation that makes the derived camera position and camera angle the reference position and reference angle.
- Japanese Patent Application Laid-Open No. 2013-122434 discloses a three-dimensional position measuring apparatus including a monocular imaging apparatus to which an irradiation unit having an irradiation light source for irradiating laser light is fixed.
- the three-dimensional position measuring apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 moves the calibration plate while irradiating the calibration plate with laser light, and images the calibration plate as a subject, or moves the imaging apparatus.
- the calibration plate is imaged as an object from two imaging positions.
- the three-dimensional position measurement apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 calculates the three-dimensional coordinates of the irradiation position of the laser beam in each image from each image obtained by imaging, and calculates the direction vector of the laser beam. Alternatively, a plane equation is calculated.
- the three-dimensional position measurement apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 calculates the three-dimensional coordinates of the object to be irradiated with the laser beam using the calculated direction vector or plane equation.
- International Publication No. WO 97/06406 discloses a distance measuring device that measures a distance from a reference surface to an irradiation position of a laser beam.
- the distance measuring device described in International Publication No. 97/06406 generates an edge image of a captured image by paying attention to an error in measurement according to the characteristics of the object surface to be measured, and the generated edge image. Based on the above, the coordinate position indicating the contour of the object is specified from the coordinate positions of the elements in the space.
- JP2012-27000A, JP2013-122434A, and WO97 / 06406 can be specified in the captured image obtained by imaging.
- 3 is a technique based on the premise that the three-dimensional coordinates cannot be derived when an image of a subject having no identifiable feature point is captured.
- the “three-dimensional coordinates” referred to here indicate three-dimensional coordinates that specify a designated position in the subject.
- a method of deriving the three-dimensional coordinates based on the first captured image, the second captured image, and the imaging position distance by a distance measuring device having a function of performing ranging and imaging can be considered.
- ranging means measuring the distance to the subject based on the round trip time of the laser light emitted toward the subject to be measured.
- the first captured image refers to an image obtained by capturing the subject from the first imaging position
- the second captured image refers to the subject including the subject that is the imaging target from the first imaging position.
- the imaging position distance refers to the distance between the first imaging position and the second imaging position.
- the imaging position distance it is necessary to accurately derive the imaging position distance. If the subject includes identifiable feature points, the distance measurement is performed using the identifiable feature points as the measurement target, and if the subject including the identifiable feature points can be imaged from each of the different imaging positions, imaging is performed. It is possible to derive the position distance.
- feature points that can be specified for a subject do not necessarily exist.
- the actual irradiation position of the laser beam can be specified for the subject by replacing parts in the distance measuring device or changing the angle of view. It is possible that the points do not match.
- the actual irradiation position of the laser light coincides with a identifiable feature point on the subject.
- the distance measuring device immediately recognizes such different states and executes processing corresponding to the state, or the user recognizes the different states immediately and responds to the distance measuring device according to the state. Executing the processes described above can be an important factor in improving work efficiency.
- One embodiment of the present invention provides an information processing apparatus, an information processing method, and a program capable of immediately executing a process according to an irradiation position on a subject with directional light.
- a first captured image obtained by imaging a subject from a first imaging position and a subject is captured from a second imaging position different from the first imaging position.
- Distance between the moving image including the plurality of second captured images obtained and the subject measured by emitting the directional light, which is directional light, to the subject and receiving the reflected light of the directional light
- a deriving unit for deriving an irradiation position pixel coordinate for specifying the position of the pixel corresponding to the irradiation position in space, and each of the plurality of second captured images is identified by the irradiation position pixel coordinate derived by the deriving unit.
- the pixel position is In the case of a position identifiable state that is a position of a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image, a process that is predetermined as a process that is executed in the position identifiable state is executed. And an execution unit.
- the information processing apparatus can immediately execute processing according to the irradiation position on the subject with directional light.
- the information processing apparatus is the information processing apparatus according to the first aspect of the present invention, wherein the predetermined process is a position identifiable state notification for notifying that the state is a position identifiable state. It is said that the process includes a process.
- the pixel whose position specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. It is possible to make the user immediately recognize that the position is.
- the derivation unit corresponds to each of the plurality of second captured images acquired by the acquisition unit. Based on the distance, the irradiation position real space coordinates for specifying the irradiation position in the real space with respect to the subject by the directional light are further derived, and it is notified that the predetermined process is in a position identifiable state.
- the irradiation position real space coordinates, the irradiation position pixel coordinates, and the pixel position corresponding to the pixel position specified by the irradiation position pixel coordinates
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. In the case of this position, the imaging position distance can be derived at the timing requested by the user.
- An information processing device is the information processing device according to any one of the first to third aspects of the present invention, wherein the execution unit includes each of the plurality of second captured images.
- the position of the pixel specified by the irradiation position pixel coordinates is a position that cannot be specified is different from the pixel that can be specified at the position corresponding to each other in each of the first captured image and the second captured image.
- a position unidentifiable state notification process for notifying that the position is unidentifiable state is further executed.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. The user can immediately recognize that the position of the pixel is different.
- the derivation unit corresponds to each of the plurality of second captured images acquired by the acquisition unit. Based on the distance, the irradiation position real space coordinates for specifying the irradiation position in the real space with respect to the subject by the directional light are further derived, and the execution unit performs the second operation in a state where the position specification impossible state is notified.
- each of the first captured image and the second captured image exists in the same planar region as the irradiation position irradiated with directional light in real space
- a plurality of pixel coordinates that are a plurality of coordinates that specify a plurality of three or more pixels that can be specified at positions corresponding to each other, an irradiation position real space coordinate, a focal length of an imaging lens used for imaging a subject, Capture the subject And dimensions of the imaging pixels included in the image pixel group, the imaging position distance is the distance between the first imaging position and a second imaging position to execute the process of deriving based on, there is a.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
- the imaging position distance can be derived at a timing requested by the user.
- the derivation unit corresponds to each of the plurality of second captured images acquired by the acquisition unit. Based on the distance, the irradiation position real space coordinates for specifying the irradiation position on the subject with the directional light in the real space are further derived, and the predetermined processing includes the irradiation position real space coordinates, the irradiation position pixel coordinates, and The pixel position corresponding to the pixel position specified by the irradiation position pixel coordinates, the irradiation position corresponding pixel coordinates specifying the pixel position in the first captured image, and the imaging lens used for imaging the subject
- the processing includes processing for deriving an imaging position distance that is a distance between the first imaging position and the second imaging position based on the focal length and the size of the imaging pixel included in the imaging pixel group that images the subject. When It has been.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. In the case of this position, the imaging position distance can be derived immediately.
- a first captured image obtained by imaging a subject from a first imaging position and a subject is captured from a second imaging position different from the first imaging position.
- Distance between the moving image including the obtained plurality of second captured images and the subject measured by emitting the directional light, which is directional light, to the subject and receiving the reflected light of the directional light
- a deriving unit for deriving an irradiation position pixel coordinate for specifying the position of the pixel corresponding to the irradiation position in space, and each of the plurality of second captured images is identified by the irradiation position pixel coordinate derived by the deriving unit.
- the pixel position is In a case where the position cannot be specified, which is a position of a pixel different from a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image, a process that is executed in the position unspecified state is predetermined. And an execution unit for executing the processed processing.
- the information processing apparatus can immediately execute processing according to the irradiation position of the directional light on the subject.
- the information processing device is the information processing device according to the seventh aspect of the present invention, in which the predetermined process is incapable of specifying the position in a state incapable of specifying the position.
- the process includes a state notification process.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. The user can immediately recognize that the position of the pixel is different.
- the derivation unit sets the corresponding distance acquired by the acquisition unit for each of the plurality of captured images. Based on this, the irradiation position real space coordinates for specifying the irradiation position in the real space with respect to the subject by the directional light are further derived, and the predetermined processing is notified that the position cannot be specified.
- the same planar area as the irradiation position where the directional light is irradiated in real space in each of the first captured image and the second captured image And a plurality of pixel coordinates that are a plurality of coordinates that specify a plurality of three or more pixels that can be specified at positions corresponding to each other, irradiation position real space coordinates, and an imaging lens used for imaging a subject Focal length and
- the processing includes a process of deriving an imaging position distance that is a distance between the first imaging position and the second imaging position based on the dimensions of the imaging pixels included in the imaging pixel group that images the subject. .
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
- the imaging position distance can be derived at a timing requested by the user.
- the execution unit performs irradiation position pixels on each of the plurality of second captured images.
- the position of the pixel specified by the coordinates is a position identifiable state that is a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image, notification that the position is identifiable
- the position specifying state notification process to be performed is further executed.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. It is possible to make the user immediately recognize that the position is.
- the derivation unit corresponds to each of the plurality of second captured images acquired by the acquisition unit. Based on the distance, further derive the irradiation position real space coordinates for specifying the irradiation position on the subject with the directional light in the real space, and the execution unit is notified that the position is in a position identifiable state,
- the position of the pixel corresponding to the position of the pixel specified by the irradiation position real space coordinates, the irradiation position pixel coordinates, and the irradiation position pixel coordinates The irradiation position corresponding pixel coordinates for specifying the position of the pixel in one captured image, the focal length of the imaging lens used for imaging the subject, and the size of the imaging pixel included in the imaging pixel group for imaging the subject Performs a process of deriving a first
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image. In the case of this position, the imaging position distance can be derived at the timing requested by the user.
- the derivation unit corresponds to each of the plurality of second captured images acquired by the acquisition unit. Based on the distance, the irradiation position real space coordinates for specifying the irradiation position on the subject with the directional light in the real space are further derived, and the predetermined processing is performed for each of the first captured image and the second captured image.
- the first imaging position and the first imaging position based on the pixel coordinates, the irradiation space real space coordinates, the focal length of the imaging lens used for imaging the subject, and the dimensions of the imaging pixels included in the imaging pixel group that images the subject. 2 Distance to imaging position A process including a process of deriving the imaging position distance is, there is a.
- the information processing apparatus is a pixel in which the position of the pixel specified by the irradiation position pixel coordinate can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
- the imaging position distance can be derived immediately in the case of the position of the pixel different from.
- An information processing apparatus is the information processing apparatus according to any one of the first aspect to the twelfth aspect of the present invention, wherein the predetermined process is a plurality of second processes. Stores at least one of the second captured image obtained by imaging at a predetermined timing among the captured images and information based on the distance acquired at the timing corresponding to the predetermined timing among the distances acquired by the acquisition unit. It is said that it is a process including the memory
- the information processing apparatus provides a second captured image obtained by capturing at a predetermined timing among a plurality of second captured images according to the irradiation position of the directional light on the subject. And at least one of the information based on the distance acquired at the timing corresponding to the predetermined timing among the distances acquired by the acquisition unit can be immediately stored in the storage unit.
- An information processing device is the information processing device according to any one of the first to thirteenth aspects of the present invention, which emits directional light and receives reflected light. It further includes a measurement unit that measures the distance by doing so, and the acquisition unit acquires the distance measured by the measurement unit.
- the information processing apparatus can use the distance measured by the measurement unit to derive the irradiation position pixel coordinates.
- An information processing device is the information processing device according to any one of the first to fourteenth aspects of the present invention, further including an imaging unit that images a subject.
- the unit is configured to acquire a moving image obtained by being imaged by the imaging unit.
- the information processing apparatus immediately executes a process according to the irradiation position of the directional light on the subject using the moving image captured by the imaging unit. Can do.
- the acquisition unit captures a moving image.
- directional light is emitted to the subject and reflected light is received, and the distance to the subject is obtained.
- the information processing apparatus can immediately execute processing according to the irradiation position of the directional light on the subject while capturing a moving image.
- a first captured image obtained by imaging a subject from a first imaging position and a subject is captured from a second imaging position different from the first imaging position.
- Distance between the moving image including the plurality of second captured images obtained and the subject measured by emitting the directional light, which is directional light, to the subject and receiving the reflected light of the directional light
- the pixel corresponding to the irradiation position on the subject with the directional light in the real space based on the acquired corresponding distance.
- An irradiation position pixel coordinate for specifying the position is derived, and for each of the plurality of second captured images, the position of the pixel specified by the derived irradiation position pixel coordinate is mutually in the first captured image and the second captured image.
- Corresponding position If the localization state is the position of identifiable pixels, it includes performing a predetermined processing as processing performed by the localization state.
- the information processing method can immediately execute processing according to the irradiation position of the subject with directional light.
- a first captured image obtained by imaging a subject from a first imaging position and a subject is captured from a second imaging position different from the first imaging position.
- Distance between the moving image including the plurality of second captured images obtained and the subject measured by emitting the directional light, which is directional light, to the subject and receiving the reflected light of the directional light
- the pixel corresponding to the irradiation position on the subject with the directional light in the real space based on the acquired corresponding distance.
- An irradiation position pixel coordinate for specifying the position is derived, and for each of the plurality of second captured images, the position of the pixel specified by the derived irradiation position pixel coordinate is mutually in the first captured image and the second captured image.
- Corresponding position If localization impossible state is the position of the different pixel and identifiable pixels, it includes performing a predetermined processing as the processing executed by the position specifying impossible state.
- the information processing method can immediately execute processing according to the irradiation position of the subject with directional light.
- a program according to a nineteenth aspect of the present invention is a program in which a computer captures a first captured image obtained by capturing an image of a subject from the first image capturing position and a second image capturing position different from the first image capturing position.
- the moving image including the plurality of second captured images obtained in this manner and the directional light, which is directional light, are emitted to the subject and the reflected light of the directional light is received.
- a pixel corresponding to the irradiation position in real space with respect to the subject by directional light based on the corresponding distance acquired for each of the plurality of second captured images included in the acquired moving image.
- An irradiation position pixel coordinate that specifies the position of the pixel is derived, and for each of the plurality of second captured images, the position of the pixel specified by the derived irradiation position pixel coordinate is determined in each of the first captured image and the second captured image.
- Each other A program for executing a process including executing a predetermined process as a process to be executed in a position-identifiable state in the case of a position-identifiable state that is a position of a pixel that can be specified at a corresponding position. .
- the program according to the nineteenth aspect of the present invention can immediately execute processing according to the irradiation position on the subject with directional light.
- a program according to a twentieth aspect of the present invention is a program in which a computer captures a first captured image obtained by capturing an image of a subject from the first image capturing position and a second image capturing position different from the first image capturing position.
- the moving image including the plurality of second captured images obtained in this manner and the directional light, which is directional light, are emitted to the subject and the reflected light of the directional light is received.
- a pixel corresponding to the irradiation position in real space with respect to the subject by directional light based on the corresponding distance acquired for each of the plurality of second captured images included in the acquired moving image.
- An irradiation position pixel coordinate that specifies the position of the pixel is derived, and for each of the plurality of second captured images, the position of the pixel specified by the derived irradiation position pixel coordinate is determined in each of the first captured image and the second captured image.
- a process including executing a predetermined process as a process executed in the position unspecified state is executed. It is a program for.
- the program according to the twentieth aspect of the present invention can immediately execute processing according to the irradiation position of the directional light on the subject.
- FIG. 9 is a front view showing an example of an appearance of a distance measuring device according to first to seventh embodiments.
- FIG. 6 is a block diagram illustrating an example of a hardware configuration of a distance measuring apparatus according to first to sixth embodiments.
- 10 is a time chart showing an example of a measurement sequence by the distance measuring apparatus according to the first to eighth embodiments. 10 is a time chart showing an example of a laser trigger, a light emission signal, a light reception signal, and a count signal required for performing one measurement by the distance measuring apparatus according to the first to eighth embodiments.
- FIG. 6 is a block diagram showing an example of a hardware configuration of a main control unit included in a distance measuring device according to the first to sixth embodiments.
- FIG. 10 is a schematic plan view illustrating an example of a positional relationship between a distance measuring apparatus according to the first to sixth embodiments and an eighth embodiment and a subject.
- FIG. 6 is a conceptual diagram illustrating an example of a positional relationship among a part of a subject, a first captured image, a second captured image, a principal point of an imaging lens at a first imaging position, and a principal point of the imaging lens at a second imaging position.
- FIG. 10 is a block diagram showing an example of main functions of a CPU according to the first to eighth embodiments. It is a figure for demonstrating the derivation method of the irradiation position real space coordinate which concerns on 1st-8th embodiment.
- FIG. 10 is a diagram for explaining a method for deriving second irradiation position pixel coordinates according to the first to eighth embodiments.
- FIG. 10 is a flowchart showing an example of a flow of second position measurement imaging processing according to the first embodiment and third to sixth embodiments. It is a continuation of the flowchart shown in FIG. It is a continuation of the flowchart shown in FIG. 14, FIG. 33, FIG. 36, and FIG. It is a continuation of the flowchart shown in FIG. FIG. 16 is a conceptual diagram illustrating an example of a subject included in a shooting range of the imaging device according to the first to eighth embodiments.
- FIG. 3 is a schematic image diagram illustrating an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in a state in which a target pixel is designated. It is a schematic image figure which shows an example of the 2nd picked-up image obtained by picking up with the image pick-up device concerning a 1st embodiment, and the distance to an irradiation position mark and a subject is superimposed and displayed.
- FIG. 6 is a schematic image diagram illustrating an example of a second captured image obtained by capturing an image with the imaging apparatus according to the first embodiment, on which a mismatch message is superimposed and displayed.
- FIG. 6 is a schematic image diagram illustrating an example of a second captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and on which an imaging position distance is superimposed and displayed.
- FIG. 3 is a schematic image diagram showing an example of a second captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in which a target pixel and first to third pixels are specified. is there. It is a flowchart which shows an example of the flow of the three-dimensional coordinate derivation process which concerns on 1st Embodiment. It is a schematic image figure which shows the example of the 2nd picked-up image obtained by picking up with the image pick-up device concerning a 1st embodiment, and the image pick-up position distance and specified pixel three-dimensional coordinates were superimposed and displayed. .
- FIG. 3 is a schematic image diagram showing an example of a first captured image that is a second captured image obtained by being captured by the imaging apparatus according to the first embodiment and in which the first to third pixels are specified. It is a flowchart which shows an example of the flow of the 2nd position measurement imaging process which concerns on 2nd Embodiment. It is a continuation of the flowchart shown in FIG. It is a continuation of the flowchart shown in FIG. It is a flowchart which shows an example of the flow of the 2nd position measurement imaging process included in the imaging position distance derivation process which concerns on 3rd Embodiment. It is a continuation of the flowchart shown in FIG.
- a first captured image (second captured image) obtained by imaging with the imaging device according to the third and fifth embodiments (imaging device according to the fourth embodiment), and a coordinate acquisition target region is designated It is a schematic image figure which shows an example of the 1st captured image (2nd captured image) of a state.
- FIG. 1 It is a flowchart which shows an example of the flow of the 2nd position measurement imaging process which concerns on 6th Embodiment, Comprising: It is a continuation of the flowchart shown in FIG. It is a continuation of the flowchart shown in FIG. It is a schematic image figure showing an example of the 2nd picked-up image obtained by picking up with the image pick-up device concerning a 6th embodiment, and the last image pick-up position distance was superimposed and displayed. It is a flowchart which shows an example of the flow of the three-dimensional coordinate derivation
- FIG. 14 is a schematic image diagram showing an example of a second captured image obtained by capturing an image with the imaging apparatus according to the sixth embodiment, in which a final imaging position distance and a specified pixel three-dimensional coordinate are superimposed and displayed. is there.
- It is a schematic plan view which shows an example of the positional relationship with two ranging devices, PC, and a to-be-included object included in the information processing system according to the seventh embodiment.
- It is a block diagram which shows an example of the hardware constitutions of PC concerning 7th Embodiment.
- FIG. 10 is a front view showing a modified example of the appearance of the distance measuring apparatus according to the first to seventh embodiments.
- Example of a time chart showing an example of the flow of processing when the timing at which the distance to the subject is measured and the timing at which the moving image is captured alternately, and an example of the screen while the distance to the subject is being measured.
- the distance from the distance measuring device 10A to the subject to be measured is also simply referred to as “distance” or “distance to the subject”.
- the angle of view with respect to the subject is also simply referred to as “angle of view”.
- a distance measuring device 10 ⁇ / b> A that is an example of an information processing device according to the technology of the present disclosure includes a distance measuring unit 12 and an imaging device 14.
- the distance measurement unit 12 and a distance measurement control unit 68 (see FIG. 2) described later are examples of a measurement unit according to the technique of the present disclosure
- the imaging device 14 is an imaging unit according to the technique of the present disclosure. It is an example.
- the imaging device 14 includes a lens unit 16 and an imaging device body 18, and the lens unit 16 is detachably attached to the imaging device body 18.
- a hot shoe 20 is provided on the left side of the image pickup apparatus main body 18 when viewed from the front, and the distance measuring unit 12 is detachably attached to the hot shoe 20.
- the distance measuring device 10A includes a distance measuring function for performing distance measurement by emitting a distance measuring laser beam to the distance measuring unit 12, and an image capturing function for obtaining a captured image by causing the image capturing device 14 to capture an image of a subject. ing.
- the captured image is also simply referred to as “image”.
- the optical axis L1 (see FIG. 2) of the laser light emitted from the distance measuring unit 12 is the same height as the optical axis L2 (see FIG. 2) of the lens unit 16. It is assumed that this is the case.
- the distance measuring device 10A operates the distance measuring system function to perform one measurement sequence (see FIG. 3) in response to one instruction, and finally, one measurement sequence is performed. The distance is output.
- the ranging device 10A has a still image capturing mode and a moving image capturing mode as operation modes of the image capturing system function.
- the still image capturing mode is an operation mode for capturing a still image
- the moving image capturing mode is an operation mode for capturing a moving image.
- the still image capturing mode and the moving image capturing mode are selectively set according to a user instruction.
- the distance measuring unit 12 includes an emitting unit 22, a light receiving unit 24, and a connector 26.
- the connector 26 can be connected to the hot shoe 20, and the distance measuring unit 12 operates under the control of the imaging apparatus main body 18 with the connector 26 connected to the hot shoe 20.
- the emission unit 22 includes an LD (Laser Diode) 30, a condenser lens (not shown), an objective lens 32, and an LD driver 34.
- LD Laser Diode
- condenser lens not shown
- objective lens 32 an objective lens
- LD driver 34 an LD driver
- the condenser lens and objective lens 32 are provided along the optical axis L1 of the laser light emitted from the LD 30, and are arranged in the order of the condenser lens and objective lens 32 along the optical axis L1 from the LD 30 side. .
- the LD 30 emits laser light for distance measurement, which is an example of directional light according to the technology of the present disclosure.
- the laser beam emitted by the LD 30 is a colored laser beam. For example, if the laser beam is within a range of about several meters from the emission unit 22, the irradiation position of the laser beam is visually recognized in real space and imaged. It is also visually recognized from a captured image obtained by imaging by the device 14.
- the condensing lens condenses the laser light emitted by the LD 30 and passes the condensed laser light.
- the objective lens 32 faces the subject and emits laser light that has passed through the condenser lens to the subject.
- the LD driver 34 is connected to the connector 26 and the LD 30 and drives the LD 30 in accordance with an instruction from the imaging apparatus main body 18 to emit laser light.
- the light receiving unit 24 includes a PD (photodiode: Photo Diode) 36, an objective lens 38, and a light reception signal processing circuit 40.
- the objective lens 38 is disposed on the light receiving surface side of the PD 36, and reflected laser light, which is laser light reflected by the laser light emitted by the emission unit 22 when hitting the subject, is incident on the objective lens 38.
- the objective lens 38 passes the reflected laser light and guides it to the light receiving surface of the PD 36.
- the PD 36 receives the reflected laser light that has passed through the objective lens 38, and outputs an analog signal corresponding to the amount of received light as a light reception signal.
- the light reception signal processing circuit 40 is connected to the connector 26 and the PD 36, amplifies the light reception signal input from the PD 36 by an amplifier (not shown), and performs A / D (Analog / Digital) conversion on the amplified light reception signal. I do. Then, the light reception signal processing circuit 40 outputs the light reception signal digitized by A / D conversion to the imaging apparatus body 18.
- the imaging device 14 includes mounts 42 and 44.
- the mount 42 is provided in the imaging apparatus main body 18, and the mount 44 is provided in the lens unit 16.
- the lens unit 16 is attached to the imaging apparatus main body 18 in a replaceable manner by coupling the mount 44 to the mount 42.
- the lens unit 16 includes an imaging lens 50, a zoom lens 52, a zoom lens moving mechanism 54, and a motor 56.
- Subject light that is reflected light from the subject enters the imaging lens 50.
- the imaging lens 50 passes the subject light and guides it to the zoom lens 52.
- a zoom lens 52 is attached to the zoom lens moving mechanism 54 so as to be slidable with respect to the optical axis L2. Further, a motor 56 is connected to the zoom lens moving mechanism 54, and the zoom lens moving mechanism 54 slides the zoom lens 52 along the optical axis L2 direction by receiving the power of the motor 56.
- the motor 56 is connected to the imaging apparatus main body 18 via mounts 42 and 44, and the drive is controlled in accordance with a command from the imaging apparatus main body 18.
- a stepping motor is applied as an example of the motor 56. Accordingly, the motor 56 operates in synchronization with the pulse power in accordance with a command from the imaging apparatus main body 18.
- the imaging device main body 18 includes an imaging device 60, a main control unit 62, an image memory 64, an image processing unit 66, a distance measurement control unit 68, a motor driver 72, an imaging device driver 74, an image signal processing circuit 76, and a display control unit 78. It has.
- the imaging device main body 18 includes a touch panel I / F (Interface) 79, a reception I / F 80, and a media I / F 82.
- the main control unit 62, the image memory 64, the image processing unit 66, the distance measurement control unit 68, the motor driver 72, the image sensor driver 74, the image signal processing circuit 76, and the display control unit 78 are connected to the bus line 84.
- a touch panel I / F 79, a reception I / F 80, and a media I / F 82 are also connected to the bus line 84.
- the imaging element 60 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and includes a color filter (not shown).
- the color filter includes a G filter corresponding to G (Green: green) that contributes most to obtain a luminance signal, an R filter corresponding to R (Red: red), and a B filter corresponding to B (Blue: blue).
- the imaging element 60 includes an imaging pixel group 60A including a plurality of imaging pixels 60A1 arranged in a matrix. Each of the imaging pixels 60A1 is assigned with any one of an R filter, a G filter, and a B filter included in the color filter, and the imaging pixel group 60A captures the subject by receiving the subject light.
- the subject light that has passed through the zoom lens 52 forms an image on the imaging surface, which is the light receiving surface of the imaging device 60, and charges corresponding to the amount of light received by the subject light are accumulated in the imaging pixel 60A1.
- the imaging element 60 outputs the electric charge accumulated in each imaging pixel 60A1 as an image signal indicating an image corresponding to a subject image obtained by imaging subject light on the imaging surface.
- the main control unit 62 controls the entire distance measuring device 10 ⁇ / b> A via the bus line 84.
- the motor driver 72 is connected to the motor 56 via the mounts 42 and 44, and controls the motor 56 in accordance with instructions from the main control unit 62.
- the imaging device 14 has a view angle changing function.
- the angle of view changing function is a function of changing the angle of view by moving the zoom lens 52.
- the angle of view changing function includes the zoom lens 52, the zoom lens moving mechanism 54, the motor 56, and the motor driver 72. , And the main control unit 62.
- the optical angle-of-view changing function by the zoom lens 52 is illustrated, but the technology of the present disclosure is not limited to this, and an electronic angle of view that does not use the zoom lens 52. It may be a change function.
- the image sensor driver 74 is connected to the image sensor 60 and supplies drive pulses to the image sensor 60 under the control of the main control unit 62.
- Each imaging pixel 60A1 included in the imaging pixel group 60A is driven according to a driving pulse supplied to the imaging element 60 by the imaging element driver 74.
- the image signal processing circuit 76 is connected to the image sensor 60, and reads an image signal for one frame from the image sensor 60 for each imaging pixel 60A1 under the control of the main control unit 62.
- the image signal processing circuit 76 performs various processes such as correlated double sampling processing, automatic gain adjustment, and A / D conversion on the read image signal.
- the image signal processing circuit 76 converts the image signal digitized by performing various processes on the image signal into a specific frame rate (for example, several tens frames / s) defined by the clock signal supplied from the main control unit 62. Second) for every frame.
- the image memory 64 temporarily holds the image signal input from the image signal processing circuit 76.
- the imaging apparatus body 18 includes a display unit 86, a touch panel 88, a receiving device 90, and a memory card 92.
- the display unit 86 is connected to the display control unit 78 and displays various information under the control of the display control unit 78.
- the display unit 86 is realized by, for example, an LCD (Liquid Crystal Display).
- the touch panel 88 which is an example of the first and second receiving units according to the technology of the present disclosure, is superimposed on the display screen of the display unit 86, and receives contact with a user's finger or an indicator such as a touch pen.
- the touch panel 88 is connected to the touch panel I / F 79 and outputs position information indicating the position touched by the indicator to the touch panel I / F 79.
- the touch panel I / F 79 operates the touch panel 88 according to an instruction from the main control unit 62 and outputs position information input from the touch panel 88 to the main control unit 62.
- the touch panel 88 is illustrated as an example of the first and second receiving units according to the technology of the present disclosure.
- the touch panel 88 is not limited thereto, and the touch panel 88 is connected to the distance measuring device 10A.
- a mouse (not shown) that is used may be applied. Further, the touch panel 88 and a mouse may be used in combination.
- the receiving device 90 includes a measurement imaging button 90A, an imaging button 90B, an imaging system operation mode switching button 90C, a wide-angle instruction button 90D, and a telephoto instruction button 90E.
- the receiving device 90 also includes an imaging position distance derivation button 90F, a three-dimensional coordinate derivation button 90G, and the like, and accepts various instructions from the user.
- the reception device 90 is connected to the reception I / F 80, and the reception I / F 80 outputs an instruction content signal indicating the content of the instruction received by the reception device 90 to the main control unit 62.
- the measurement imaging button 90A is a press-type button that receives an instruction to start measurement and imaging.
- the imaging button 90B is a push button that receives an instruction to start imaging.
- the imaging system operation mode switching button 90C is a push-type button that receives an instruction to switch between the still image capturing mode and the moving image capturing mode.
- the wide-angle instruction button 90D is a push-type button that accepts an instruction to change the angle of view.
- the amount of change of the angle of view to the wide-angle side is within an allowable range, and the pressing on the wide-angle instruction button 90D is continued. It depends on the pressing time.
- the telephoto instruction button 90E is a push-type button that accepts an instruction to change the angle of view.
- the amount of change in the angle of view to the telephoto side is within an allowable range, and the pressure on the telephoto instruction button 90E continues. It depends on the pressing time.
- the imaging position distance deriving button 90F is a press-type button that receives an instruction to start an imaging position distance deriving process described later.
- the three-dimensional coordinate derivation button 90G is a push button that receives an instruction to start an imaging position distance derivation process described later and a three-dimensional coordinate derivation process described later.
- the manual focus mode and the autofocus mode are selectively set according to a user instruction via the reception device 90.
- the release button receives a two-stage pressing operation of an imaging preparation instruction state and an imaging instruction state.
- the imaging preparation instruction state refers to, for example, a state where the release button is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state refers to the final pressed position (full-pressed when the release button exceeds the intermediate position). The position is pressed down to (position).
- half-pressed state the state where the release button is pressed from the standby position to the half-pressed position
- full-pressed state the state where the release button is pressed from the standby position to the full-pressed position”. Is referred to as a “fully pressed state”.
- the imaging condition is adjusted by pressing the release button halfway, and then the main exposure is performed when the release button is fully pressed.
- the release button is pressed halfway, the exposure adjustment is performed by the AE (Automatic Exposure) function, and then the focus adjustment is performed by the AF (Auto-Focus) function.
- the main exposure is performed.
- the main exposure refers to exposure performed to obtain a still image file described later.
- exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
- exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
- the main control unit 62 performs exposure adjustment by the AE function and focus adjustment by the AF function. Moreover, although the case where exposure adjustment and focus adjustment are performed is illustrated in the present embodiment, the technology of the present disclosure is not limited to this, and exposure adjustment or focus adjustment may be performed. .
- the image processing unit 66 acquires an image signal for each frame from the image memory 64 at a specific frame rate, and performs various processes such as gamma correction, luminance conversion, color difference conversion, and compression processing on the acquired image signal. Do.
- the image processing unit 66 outputs an image signal obtained by performing various processes to the display control unit 78 frame by frame at a specific frame rate. Further, the image processing unit 66 outputs an image signal obtained by performing various processes to the main control unit 62 in response to a request from the main control unit 62.
- the display control unit 78 outputs the image signal input from the image processing unit 66 to the display unit 86 at a specific frame rate for each frame under the control of the main control unit 62.
- the display unit 86 displays images, character information, and the like.
- the display unit 86 displays the image indicated by the image signal input at a specific frame rate from the display control unit 78 as a live view image.
- the live view image is a continuous frame image obtained by continuously capturing images, and is also referred to as a through image.
- the display unit 86 also displays a still image that is a single frame image obtained by imaging in a single frame. Further, the display unit 86 displays a playback image, a menu screen, and the like in addition to the live view image.
- the image processing unit 66 and the display control unit 78 are realized by ASIC (Application Specific Integrated Circuit), but the technology of the present disclosure is not limited to this.
- each of the image processing unit 66 and the display control unit 78 may be realized by an FPGA (Field-Programmable Gate Array).
- the image processing unit 66 may be realized by a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
- the display control unit 78 may also be realized by a computer including a CPU, a ROM, and a RAM.
- each of the image processing unit 66 and the display control unit 78 may be realized by a combination of a hardware configuration and a software configuration.
- the main control unit 62 controls the image sensor driver 74 to cause the image sensor 60 to perform exposure for one frame when an instruction to capture a still image is received by the release button in the still image capturing mode.
- the main control unit 62 acquires an image signal obtained by performing exposure for one frame from the image processing unit 66, performs a compression process on the acquired image signal, and performs still image processing in a specific still image format. Generate an image file.
- the specific still image format refers to, for example, JPEG (Joint Photographic Experts Group).
- the main control unit 62 When an instruction to capture a moving image is received by the release button in the moving image capturing mode, the main control unit 62 outputs an image signal output from the image processing unit 66 to the display control unit 78 as a live view image for a specific frame. Get every frame at the rate. Then, the main control unit 62 performs a compression process on the image signal acquired from the image processing unit 66 to generate a moving image file in a specific moving image format.
- the specific moving image format refers to, for example, MPEG (Moving Picture Experts Group).
- MPEG Motion Picture Experts Group
- the media I / F 82 is connected to the memory card 92, and records and reads image files from and to the memory card 92 under the control of the main control unit 62. Note that the image file read from the memory card 92 by the media I / F 82 is decompressed by the main control unit 62 and displayed on the display unit 86 as a reproduced image.
- the main control unit 62 associates the distance information input from the distance measurement control unit 68 with the image file, and stores it in the memory card 92 via the media I / F 82.
- the distance information is read from the memory card 92 through the media I / F 82 by the main control unit 62 together with the image file, and the distance indicated by the read distance information is displayed together with the reproduced image by the related image file. Displayed on the part 86.
- the distance measurement control unit 68 controls the distance measurement unit 12 under the control of the main control unit 62.
- the ranging control unit 68 is realized by an ASIC, but the technology of the present disclosure is not limited to this.
- the distance measurement control unit 68 may be realized by an FPGA.
- the distance measurement control unit 68 may be realized by a computer including a CPU, a ROM, and a RAM. Further, the distance measurement control unit 68 may be realized by a combination of a hardware configuration and a software configuration.
- the hot shoe 20 is connected to the bus line 84, and the distance measurement control unit 68 controls the LD driver 34 under the control of the main control unit 62 to control the light emission of the laser beam by the LD 30.
- a light reception signal is acquired from the signal processing circuit 40.
- the distance measurement control unit 68 derives the distance to the subject based on the timing at which the laser light is emitted and the timing at which the light reception signal is acquired, and outputs distance information indicating the derived distance to the main control unit 62.
- the measurement of the distance to the subject by the distance measurement control unit 68 will be described in more detail.
- one measurement sequence by the distance measuring device 10A is defined by a voltage adjustment period, an actual measurement period, and a pause period.
- the voltage adjustment period is a period for adjusting the drive voltage of the LD 30 and the PD 36.
- the actual measurement period is a period during which the distance to the subject is actually measured. In the actual measurement period, the operation of causing the LD 30 to emit laser light and causing the PD 36 to receive reflected laser light is repeated several hundred times. Based on the timing at which the laser light is emitted and the timing at which the received light signal is obtained, Is derived.
- the pause period is a period for stopping the driving of the LD 30 and the PD 36. Therefore, in one measurement sequence, the distance to the subject is measured several hundred times.
- each of the voltage adjustment period, the actual measurement period, and the rest period is set to several hundred milliseconds.
- the distance measurement control unit 68 is supplied with a count signal that defines the timing at which the distance measurement control unit 68 gives an instruction to emit laser light and the timing at which the light reception signal is acquired.
- the count signal is generated by the main control unit 62 and supplied to the distance measurement control unit 68, but is not limited thereto, and is generated by a dedicated circuit such as a time counter connected to the bus line 84. You may make it supply to the ranging control part 68.
- the ranging control unit 68 outputs a laser trigger for emitting laser light to the LD driver 34 in accordance with the count signal.
- the LD driver 34 drives the LD 30 to emit laser light according to the laser trigger.
- the laser light emission time is set to several tens of nanoseconds.
- the time until the laser light emitted toward the subject several kilometers ahead by the emitting unit 22 is received by the PD 36 as reflected laser light is “several kilometers ⁇ 2 / light speed” ⁇ several microseconds. Therefore, in order to measure the distance to the subject several kilometers away, as shown in FIG. 3 as an example, a minimum required time of several microseconds is required.
- the measurement time of one time is set to several milliseconds.
- the round trip time of the laser beam depends on the distance to the subject. Since they are different, the measurement time per time may be varied according to the assumed distance.
- the distance measurement control unit 68 derives the distance to the subject based on the measurement values obtained from several hundred measurements in one measurement sequence, for example, a histogram of the measurement values obtained from several hundred measurements To derive the distance to the subject.
- the horizontal axis is the distance to the subject
- the vertical axis is the number of measurements
- the number of measurements is derived by the distance measurement control unit 68 as a distance measurement result.
- the histogram shown in FIG. 5 is merely an example, based on the round trip time of the laser beam (elapsed time from light emission to light reception) or 1/2 of the round trip time of the laser beam instead of the distance to the subject. A histogram may be generated.
- the main control unit 62 includes a CPU 100, a primary storage unit 102, and a secondary storage unit 104, which are examples of an acquisition unit, a derivation unit, and an execution unit according to the technology of the present disclosure.
- the CPU 100 controls the entire distance measuring device 10A.
- the primary storage unit 102 is a volatile memory used as a work area or the like when executing various programs.
- An example of the primary storage unit 102 is a RAM.
- the secondary storage unit 104 is a non-volatile memory that stores in advance a control program for controlling the operation of the distance measuring apparatus 10A, various parameters, or the like. Examples of the secondary storage unit 104 include an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash memory.
- the CPU 100, the primary storage unit 102, and the secondary storage unit 104 are connected to each other via the bus line 84.
- the distance measuring device 10A has a three-dimensional coordinate derivation function.
- the three-dimensional coordinate derivation function is based on Equation (1) based on the first designated pixel coordinates described later, the second designated pixel coordinates described later, the imaging position distance described later, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. This refers to the function of deriving the designated pixel three-dimensional coordinates, which will be described later.
- Equation (1) “u L ” indicates the X coordinate of the first designated pixel coordinate. In the formula (1), “v L ” indicates the Y coordinate of the first designated pixel coordinate. In Equation (1), “u R ” refers to the X coordinate of the second designated pixel coordinate. In Formula (1), “B” refers to the imaging position distance (see FIGS. 7 and 8). In Formula (1), “f” indicates (focal length of the imaging lens 50) / (dimension of the imaging pixel 60A1). Further, in the formula (1), (X, Y, Z) indicates designated pixel three-dimensional coordinates.
- the first designated pixel coordinates are two-dimensional coordinates that specify a first designated pixel whose position in the real space is designated as a corresponding pixel in a first captured image described later.
- the second designated pixel coordinates are two-dimensional coordinates that specify a second designated pixel designated as a pixel corresponding to a position in real space in a second captured image described later. That is, the first designated pixel and the second designated pixel are pixels designated as pixels corresponding to positions in the real space, and correspond to each other in each of the first captured image and the second captured image. It is a pixel that can be specified at the position to be.
- the first designated pixel coordinates are two-dimensional coordinates on the first captured image
- the second designated pixel coordinates are two-dimensional coordinates on the second captured image.
- the designated pixel three-dimensional coordinate refers to a three-dimensional coordinate that is a coordinate in the real space corresponding to the first designated pixel coordinate and the second designated pixel coordinate.
- the first captured image refers to a captured image obtained by imaging the subject from the first imaging position by the imaging device 14.
- the second captured image is an image of a subject including a subject that is an imaging target from the first imaging position from a second imaging position different from the first imaging position.
- the captured image obtained by being imaged by the device 14 is indicated.
- not only the first captured image and the second captured image but also a captured image obtained by being captured by the imaging device 14 including a still image and a moving image will be described separately. When it is not necessary, it is simply referred to as “captured image”.
- the first measurement position and the second measurement position are shown as the positions of the ranging unit 12.
- the first measurement position refers to the position of the distance measurement unit 12 when the subject is imaged by the image pickup device 14 from the first image pickup position with the distance measurement unit 12 correctly attached to the image pickup device 14.
- the first measurement position is the distance measurement unit when the subject is imaged from the second image capture position by the image capture device 14 with the distance measurement unit 12 being correctly attached to the image capture device 14. 12 points.
- the imaging position distance refers to the distance between the first imaging position and the second imaging position.
- an imaging position distance as shown in FIG. 8, the main point of the imaging lens 50 of the imaging device 14 at the principal point O L and a second imaging position of the imaging lens 50 of the imaging apparatus 14 in the first imaging position O R
- the technology of the present disclosure is not limited to this.
- the distance between the imaging pixel 60A1 positioned at the center of the imaging device 60 of the imaging device 14 at the first imaging position and the imaging pixel 60A1 positioned at the center of the imaging device 60 of the imaging device 14 at the second imaging position is the imaging position distance. It may be said.
- the pixels P L included in the first image is a first designated pixel
- the pixel P R included in the second image is a second designated pixel
- the pixel P L, P R is , The pixel corresponding to the point P of the subject.
- the first designated pixel coordinates are two-dimensional coordinates of the pixel P L (u L, v L )
- the second designated pixel coordinates are two-dimensional coordinates of the pixel P R (u R, v R ) is This corresponds to the designated pixel three-dimensional coordinates (X, Y, Z) which is the three-dimensional coordinates of the point P.
- Equation (1) “v R ” is not used.
- designated pixels when it is not necessary to distinguish between the first designated pixel and the second designated pixel, they are referred to as “designated pixels”. In the following, for convenience of explanation, when there is no need to distinguish between the first designated pixel coordinates and the second designated pixel coordinates, they are referred to as “designated pixel coordinates”.
- the ranging device 10A derives the designated pixel three-dimensional coordinates based on Equation (1) by using the three-dimensional coordinate derivation function, it is preferable to derive the imaging position distance with high accuracy. This is because “B”, which is the imaging position distance, is included in Equation (1).
- the secondary storage unit 104 stores an imaging position distance deriving program 106A that is an example of a program according to the technique of the present disclosure.
- the CPU 100 reads out the imaging position distance derivation program 106A from the secondary storage unit 104, develops it in the primary storage unit 102, and executes the imaging position distance derivation program 106A.
- the secondary storage unit 104 stores a three-dimensional coordinate derivation program 108A.
- the CPU 100 reads the three-dimensional coordinate derivation program 108A from the secondary storage unit 104, develops it in the primary storage unit 102, and executes the three-dimensional coordinate derivation program 108A.
- the CPU 100 operates as the acquisition unit 110A, the derivation unit 111A, and the execution unit 112A as illustrated in FIG. 9 as an example by executing the imaging position distance derivation program 106A.
- the acquisition unit 110A acquires the first captured image, the moving image, and the distance to the subject.
- the “distance to the subject” refers to the distance to the subject measured based on the laser light emitted by the distance measuring unit 12 at the second measurement position while the moving image is captured.
- the moving image acquired by the acquiring unit 110A indicates a plurality of second captured images obtained at a specific frame rate. Therefore, for example, when the specific frame rate is 30 frames / second, 30 second captured images are acquired by the acquisition unit 110A per second.
- the distance to the subject acquired by the acquisition unit 110A is measured by emitting laser light to the subject and receiving reflected light of the laser light every time a plurality of second captured images are captured. The distance to the subject.
- the derivation unit 111A uses the laser light irradiation position in real space, that is, by the laser light.
- the irradiation position real space coordinates for specifying the irradiation position on the subject in the real space are derived.
- the irradiation space real space coordinates are three-dimensional coordinates, and as an example, the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the distance between reference points M shown in FIG. Is derived.
- (x Laser , y Laser , z Laser ) indicates irradiation space real space coordinates.
- y Laser 0, which means that the optical axis L1 is at the same height as the optical axis L2 in the vertical direction.
- y Laser is a positive value.
- y Laser is a negative value.
- the half angle of view ⁇ indicates half of the angle of view.
- the emission angle ⁇ refers to an angle at which laser light is emitted from the emission unit 22.
- the distance between reference points M refers to the distance between the first reference point P1 defined in the imaging device 14 and the second reference point P2 defined in the distance measuring unit 12.
- An example of the first reference point P1 is the principal point of the imaging lens 50.
- An example of the second reference point P2 is a point set in advance as the origin of coordinates that can specify the position of the three-dimensional space in the distance measuring unit 12.
- one end of the left and right ends of the objective lens 38 when viewed from the front, or one corner of the casing when the casing (not shown) of the distance measuring unit 12 is a rectangular parallelepiped, that is, one apex. .
- the deriving unit 111A derives irradiation position pixel coordinates for each of the plurality of second captured images included in the moving image acquired by the acquiring unit 110A based on the distance acquired by the acquiring unit 110A.
- the irradiation position pixel coordinates refer to coordinates that specify the position of the pixel corresponding to the irradiation position in real space with respect to the subject by laser light.
- irradiation position in real space with respect to the subject by laser light refers to, for example, an irradiation position specified by the coordinates of the actual position of the irradiation position.
- the plurality of second captured images included in the moving image acquired by the acquiring unit 110A refers to, for example, the second captured images of all the frames included in the moving image. Is not limited to this.
- a plurality of second captured images included in the moving image acquired by the acquisition unit 110 ⁇ / b> A is a plurality of second captured images obtained for each of a plurality of predetermined frames (for example, two frames). May be.
- the plurality of second captured images included in the moving image acquired by the acquisition unit 110A” may be a plurality of second captured images randomly selected from the second captured images included in the moving image. .
- the irradiation position pixel coordinates are roughly divided into first irradiation position pixel coordinates and second irradiation position pixel coordinates.
- the first irradiation position pixel coordinates are two-dimensional coordinates that specify the position of a pixel corresponding to the irradiation position specified by the irradiation position real space coordinates in the first captured image.
- the second irradiation position pixel coordinate is a two-dimensional coordinate that specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinates in the second captured image.
- the first irradiation position pixel coordinate is a pixel position corresponding to the pixel position specified by the second irradiation position pixel coordinate, and can be said to be a two-dimensional coordinate specifying the pixel position in the first captured image.
- the first irradiation position pixel coordinates are an example of “irradiation position corresponding pixel coordinates” according to the technique of the present disclosure
- the second irradiation position pixel coordinates are an example of “irradiation position pixel coordinates” according to the technique of the present disclosure. It is. In the following, for convenience of explanation, when it is not necessary to distinguish between the first irradiation position pixel coordinates and the second irradiation position pixel coordinates, they are referred to as “irradiation position pixel coordinates”.
- the derivation method of the X coordinate of the second irradiation position pixel coordinate and the derivation method of the Y coordinate of the second irradiation position pixel coordinate are the same in the principle of the derivation method except that the target coordinate axes are different. That is, the method of deriving the X coordinate of the second irradiation position pixel coordinate is a method of deriving the pixel in the row direction in the image sensor 60, whereas the method of deriving the Y coordinate of the second irradiation position pixel coordinate is The difference is that this is a derivation method for pixels in the column direction in the image sensor 60.
- the row direction means the left-right direction of the image pickup surface of the image pickup device 60
- the column direction means the up-down direction of the image pickup surface of the image pickup device 60 when viewed from the front.
- the X coordinates of the second irradiation position pixel coordinates are based on the following formulas (3) to (5) from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M shown in FIG. Derived.
- row direction pixel at irradiation position refers to a pixel at a position corresponding to the irradiation position of the laser light in real space among the pixels in the row direction of the image sensor 60.
- “Half the number of pixels in the row direction” refers to half of the number of pixels in the row direction in the image sensor 60.
- the deriving unit 111A substitutes the distance M between the reference points and the injection angle ⁇ into the equation (3), substitutes the half angle of view ⁇ and the injection angle ⁇ into the equation (4), and sets the distance L as the equations (3) and ( Substitute in 4).
- the deriving unit 111A substitutes ⁇ x and X obtained in this way and the above-mentioned “half of the number of pixels in the row direction” into Expression (5), thereby specifying the position of the “row direction pixel in the irradiation position”.
- the X coordinate which is the coordinate is derived.
- the X coordinate specifying the position of the “irradiation position row direction pixel” is the X coordinate of the second irradiation position pixel coordinate.
- the derivation unit 111A derives, as the first irradiation position pixel coordinates, coordinates that specify the pixel positions corresponding to the pixel positions specified by the second irradiation position pixel coordinates among the pixels of the first captured image.
- Execution unit 112A for each of the plurality of second captured images included in the moving image acquired by acquisition unit 110A, is a process that is determined in advance as a process that is executed in a position-identifiable state in the case of a position-identifiable state.
- the position specifiable state is a state in which the position of the pixel specified by the second irradiation position pixel coordinate is a position of a pixel that can be specified at a position corresponding to each other in each of the second captured image and the first captured image. Point to.
- the execution unit 112A performs in advance as a process to be executed in the position unidentifiable state for each of the plurality of second captured images included in the moving image acquired by the acquisition unit 110A when the position cannot be specified. Execute the specified process.
- the position unidentifiable state is a pixel whose position specified by the second irradiation position pixel coordinates is different from a pixel that can be specified at a position corresponding to each other in each of the second captured image and the first captured image. Refers to a state that is a position.
- An example of a process that is predetermined as a process that is executed in a position-identifiable state is a process that includes a first derivation process that will be described later.
- a process that includes a second derivation process that will be described later can be cited.
- the second derivation process refers to a process of deriving the imaging position distance based on a plurality of pixel coordinates, irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1, which will be described later.
- the plurality of pixel coordinates are present in the same planar area as the laser light irradiation position in the real space in each of the first captured image and the second captured image acquired by the acquisition unit 110A, and It refers to a plurality of two-dimensional coordinates that specify a plurality of pixels of three or more pixels that can be specified at corresponding positions.
- the parameters used for the second derivation process are not limited to the multiple pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
- a plurality of parameters obtained by further adding one or more fine adjustment parameters to the plurality of pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1 are used in the first derivation process. You may be made to do.
- the first derivation process refers to a process for deriving the imaging position distance based on the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
- the parameters used in the first derivation process are not limited to the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
- a plurality of parameters obtained by further adding one or more fine adjustment parameters to the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are the second derivation process. It may be used.
- the actual irradiation position of the laser light is a position in the real space corresponding to the position of a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
- the imaging position distance can be derived with higher accuracy than the second derivation processing.
- the first derivation process is a process for deriving the imaging position distance based on a plurality of parameters smaller than the number of parameters used in the derivation of the imaging position distance by the second derivation process.
- the “plurality of parameters” referred to here refers to, for example, irradiation position pixel coordinates, irradiation position real space coordinates, focal length of the imaging lens 50, and dimensions of the imaging pixel 60A1.
- the execution unit 112A calculates the three-dimensional coordinates in the real space corresponding to the plurality of pixel coordinates based on the plurality of pixel coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1.
- the orientation of the plane defined by the plane equation indicating the plane to be included is derived.
- the execution unit 112A determines a plane equation based on the derived plane direction and irradiation position real space coordinates, the determined plane equation, a plurality of pixel coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1.
- the imaging position distance is derived based on
- deriving “the orientation of the plane” means deriving a, b, and c in the equation (6), and determinating the “plane equation” by deriving d in the equation (6). Means to determine a, b, c, d of the plane equation.
- the imaging range 119 of the imaging device 14 of the distance measuring device 10A includes an area including the outer wall surface 121 of the office building 120 as a subject. This will be explained as a premise. Further, the outer wall surface 121 will be described on the assumption that it is a main subject and a laser light irradiation target.
- the outer wall surface 121 is formed in a planar shape, and is an example of a planar region according to the technique of the present disclosure.
- the outer wall surface 121 is provided with a plurality of rectangular windows 122.
- a laterally long rectangular pattern 124 is drawn on the lower side of each window 122 on the outer wall surface 121, but not limited thereto, the outer wall surface 121 is attached to the outer wall surface 121. It may be dirt or wrinkles.
- the “planar shape” includes not only a flat surface but also a planar shape in a range that allows slight unevenness due to a window or a vent, for example, by visual observation or an existing image. Any plane or plane shape recognized as “planar” by an analysis technique may be used.
- the distance measurement apparatus 10A will be described on the assumption that the distance to the outer wall surface 121 is measured by irradiating the outer wall surface 121 with laser light.
- first position the position of the distance measuring device 10A when the distance measuring unit 12 is located at the first measurement position and the image pickup device 14 is located at the first image pickup position.
- second position the position of the distance measuring device 10A when the distance measuring unit 12 is located at the second measurement position and the imaging device 14 is located at the second imaging position.
- the acquisition unit 110A determines whether or not a still image has been captured by the imaging device 14 when the imaging button 90B is turned on at the first position. judge.
- the first position only needs to be a position where an area including the outer wall surface 121 can be imaged as a subject.
- step 200 when the imaging button 90B is turned on at the first position and the imaging device 14 has not executed imaging of a still image, the determination is denied and the process proceeds to step 202.
- step 200 when the imaging device 14 executes imaging of a still image by turning on the imaging button 90B at the first position, the determination is affirmed and the process proceeds to step 204.
- step 202 the acquisition unit 110A determines whether or not a condition for ending the imaging position distance derivation process is satisfied.
- the condition for ending the imaging position distance derivation process is, for example, a condition that an instruction to end the imaging position distance derivation process is received from the touch panel 88, or a first determination without affirmative determination after the process of step 200 is started. 1 Indicates the condition that a predetermined time has passed.
- the first predetermined time refers to, for example, 1 minute.
- step 202 if the conditions for ending the imaging position distance deriving process are not satisfied, the determination is negative and the routine proceeds to step 200.
- step 202 when the condition for ending the imaging position distance deriving process is satisfied, the determination is affirmed and the imaging position distance deriving process ends.
- Step 204 the acquisition unit 110A acquires a first captured image signal indicating a first captured image obtained by performing imaging at the first position. Then, the acquisition unit 110A stores the acquired first captured image signal in a predetermined storage area of the secondary storage unit 104, and then proceeds to step 206.
- the first captured image is a still image obtained by capturing an image in a focused state at the first position.
- step 206 the acquisition unit 110A causes the display unit 86 to start displaying the first captured image indicated by the acquired first captured image signal, as shown in FIG. Transition.
- a target pixel designation guidance message (not shown) is displayed superimposed on the first captured image.
- the notice pixel designation guidance message refers to a message for guiding the designation of the notice pixel from the first captured image via the touch panel 88, for example.
- the attention pixel designation guidance message there is a message “Please specify one pixel to be noticed (attention point)”.
- the attention pixel designation guidance message is not displayed, for example, when a pixel of interest is designated in the processing of step 208 described later and when the condition for ending the imaging position distance derivation processing is satisfied in the processing of step 210 described later. Is done.
- step 208 the acquisition unit 110A determines whether or not the pixel of interest has been designated from the first captured image via the touch panel 88 by the user.
- step 208 If it is determined in step 208 that the target pixel is not designated from the first captured image by the user via the touch panel 88, the determination is negative and the process proceeds to step 210. If the target pixel is designated from the first captured image by the user via the touch panel 88 in step 208, the determination is affirmed and the process proceeds to step 212.
- step 210 the acquisition unit 110A determines whether or not a condition for ending the imaging position distance derivation process is satisfied. If the conditions for ending the imaging position distance deriving process are not satisfied in step 210, the determination is negative and the routine proceeds to step 208. In step 210, when the condition for ending the imaging position distance deriving process is satisfied, the determination is affirmed and the imaging position distance deriving process ends.
- step 212 the acquiring unit 110A acquires the target pixel coordinates that specify the target pixel 126 (see FIG. 19) designated by the user via the touch panel 88 in the first captured image, and then proceeds to step 214.
- the target pixel 126 indicates a pixel in the lower left corner of the image corresponding to the central window on the second floor of the outer wall surface in the first captured image.
- the outer wall surface second floor central window refers to the window 122 at the center of the second floor of the office building 120 among the windows 122 provided on the outer wall surface 121.
- the pixel-of-interest coordinates indicate two-dimensional coordinates that specify the pixel-of-interest 126 in the first captured image.
- step 214 the acquisition unit 110A ends the display of the first captured image on the display unit 86, and then proceeds to step 216.
- step 216 the acquisition unit 110A causes the display unit 86 to start displaying a measurement imaging instruction guidance message (not shown), and then proceeds to step 218.
- the measurement imaging instruction guidance message refers to, for example, a message that prompts the user to turn on the measurement imaging button 90A after installing the distance measuring device 10A at the second position where the same subject enters the imaging range.
- a message “Please turn on the measurement imaging button 90A after installing the distance measuring device 10A at another position so that the same subject enters the imaging range”. Can be mentioned.
- Step 218 the acquisition unit 110A determines whether or not the measurement imaging button 90A is turned on at the second position. In step 218, if the measurement imaging button 90A is not turned on at the second position, the determination is negative and the routine proceeds to step 220. In step 218, when the measurement imaging button 90A is turned on at the second position, the determination is affirmed, and the process proceeds to step 224.
- step 210 the acquisition unit 110A determines whether or not a condition for ending the imaging position distance derivation process is satisfied. If the conditions for ending the imaging position distance deriving process are not satisfied in step 210, the determination is negative and the process proceeds to step 218. If the condition for ending the imaging position distance deriving process is satisfied in step 220, the determination is affirmed and the routine proceeds to step 222.
- step 222 the acquisition unit 110A causes the display unit 86 to finish displaying the measurement imaging instruction guidance message, and then ends the imaging position distance derivation process.
- step 224 the acquisition unit 110A ends the display of the measurement imaging instruction guidance message on the display unit 86, and then proceeds to step 226.
- step 226 the acquisition unit 110A executes the second position measurement imaging process illustrated in FIGS. 13 to 16 as an example, and thereafter ends the imaging position distance derivation process.
- the second captured image signal indicating the second captured image is described on the premise that the frame is input from the image memory 64 to the image processing unit 66 for each frame at a specific frame rate. .
- step 230 the acquisition unit 110 ⁇ / b> A causes the distance measurement unit 12 and the distance measurement control unit 68 to measure the distance to the subject, and then proceeds to step 232. Transition.
- step 232 the acquisition unit 110A determines whether or not a second captured image signal is newly input from the image memory 64 to the image processing unit 66. In step 232, when the second captured image signal is not newly input from the image memory 64 to the image processing unit 66, the determination is negative and the determination in step 232 is performed again. If a second captured image signal is newly input from the image memory 64 to the image processing unit 66 in step 232, the determination is affirmed and the process proceeds to step 234.
- step 234 the acquisition unit 110A determines whether or not a matching message 137A described later or a mismatch message 137B described later is already displayed on the display unit 86.
- display of the match message 137A is started by executing a process of step 254 described later
- display of the mismatch message 137B is started by executing a process of step 256 described later.
- step 234 if the match message 137A or the mismatch message 137B is already displayed on the display unit 86, the determination is affirmed and the process proceeds to step 236. In step 234, if neither the match message 137 A nor the mismatch message 137 B is displayed on the display unit 86, the determination is negative and the process proceeds to step 238.
- step 236 when the matching message 137A is already displayed on the display unit 86, the acquisition unit 110A ends the display of the matching message 137A on the display unit 86, and then proceeds to step 238.
- the acquisition unit 110A ends the display of the mismatch message 137B on the display unit 86, and then proceeds to step 238.
- step 238 the acquisition unit 110A acquires the second captured image signal for one frame from the image processing unit 66, and then proceeds to step 240.
- Step 240 the acquisition unit 110A causes the display unit 86 to display the second captured image indicated by the second captured image signal acquired in the process of Step 238, and then proceeds to Step 242.
- step 242 the deriving unit 111A derives the irradiation space real space coordinates from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M based on the mathematical formula (2), and then in step 244.
- the distance L used in the processing of step 242 indicates the distance to the subject measured by executing the processing of step 230.
- step 244 the deriving unit 111A derives the second irradiation position pixel coordinates from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M based on the equations (3) to (5). Thereafter, the process proceeds to step 246.
- the distance L used in the process of step 244 indicates the distance to the subject measured by executing the process of step 230.
- step 246 the derivation unit 111A determines whether or not an irradiation position mark 136 and a distance L described later are displayed. In step 246, when the irradiation position mark 136 and the distance L are displayed, the determination is affirmed and the process proceeds to step 248. If the irradiation position mark 136 is not displayed at step 246, the determination is negative and the routine proceeds to step 250. Note that the distance L displayed by executing the process of step 246 indicates the distance to the subject measured by executing the process of step 230.
- step 248 the derivation unit 111A ends the display of the irradiation position mark 136 and the distance L on the display unit 86, and then proceeds to step 250.
- step 250 the derivation unit 111A causes the display unit 86 to start displaying the irradiation position mark 136 and the distance L superimposed on the second captured image, as shown in FIG. 20 as an example, and then proceeds to step 252. Transition.
- the numerical value “1333325.0” corresponds to the distance L measured by the distance measuring device 10 ⁇ / b> A at the second position, and the unit is millimeters.
- the irradiation position mark 136 is a mark indicating the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the processing of step 244.
- step 252 the execution unit 112A determines whether or not the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the process of step 244 matches the identifiable pixel position.
- the identifiable pixel position refers to each other in each of the second captured image and the first captured image indicated by the first captured image signal stored in the predetermined storage area by executing the process of step 204. The pixel position that can be specified at the corresponding position is indicated.
- step 252 if the position of the pixel specified by the second irradiation position pixel coordinate derived by executing the process of step 244 matches the identifiable pixel position, the determination is affirmed and the process proceeds to step 254. Transition. In step 252, when the position of the pixel specified by the second irradiation position pixel coordinate derived by executing the processing of step 244 does not match the identifiable pixel position, the determination is negative and the process proceeds to step 256. Transition.
- the case where the determination in step 252 is affirmed means the case where the position can be specified
- the case where the determination is negative in step 252 means the case where the position cannot be specified. means.
- step 254 the execution unit 112A causes the display unit 86 to start displaying the match message 137A superimposed on the second captured image, as shown in FIG. 21 as an example, and then proceeds to step 258 shown in FIG. Transition.
- the coincidence message 137A is a message indicating that the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the processing of step 244 matches the identifiable pixel position. Therefore, when the process of step 254 is executed, the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the process of step 244 may coincide with the identifiable pixel position. The user is notified.
- step 254 is an example of a position-identifiable state notification process according to the technique of the present disclosure.
- the position identifiable state notification process according to the technique of the present disclosure refers to a process for notifying that the position identifiable state is described above.
- the match message 137A is “the laser beam irradiation position matches the characteristic position of the subject. Double-tap the screen to continue the process.” Although a message is shown, the technology of the present disclosure is not limited to this. For example, only the message “the laser beam irradiation position matches the characteristic position of the subject” in the matching message 137A may be adopted.
- any message may be used as long as it is a message notifying the coincidence between the pixel position specified by the second irradiation position pixel coordinates derived by executing the processing of step 244 and the identifiable pixel position. Also good.
- the match message 137A is visually displayed.
- an audible display such as an audio output by an audio playback device (not shown) or a permanent visual display such as an output of a printed matter by a printer. May be performed instead of visible display, or may be used in combination.
- step 256 the execution unit 112A causes the display unit 86 to start displaying the mismatch message 137B superimposed on the second captured image, as shown in FIG. 22 as an example, and then proceeds to step 290 shown in FIG. Transition.
- the mismatch message 137B is a message indicating that the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the processing of step 244 does not match the identifiable pixel position.
- “the position of the pixel specified by the second irradiation position pixel coordinates does not coincide with the identifiable pixel position”, in other words, the position of the pixel specified by the second irradiation position pixel coordinates can be specified. This means that the pixel position is different from the pixel position.
- step 256 when the process of step 256 is executed, the position of the pixel specified by the second irradiation position pixel coordinates derived by executing the process of step 244 matches the identifiable pixel position. The user is notified that it has not.
- the process of step 256 is an example of a position specification impossible state notification process according to the technique of the present disclosure.
- the position unidentifiable state notification process according to the technique of the present disclosure refers to a process of notifying that the position is unidentifiable state described above.
- the mismatch message 137B is “the laser light irradiation position did not match the characteristic position of the subject. Double-tap the screen to continue the process.” Although a message is shown, the technology of the present disclosure is not limited to this. For example, only the message of “the laser beam irradiation position did not match the characteristic position of the subject” in the mismatch message 137B may be adopted.
- any message can be used as long as it is a message notifying the discrepancy between the pixel position specified by the second irradiation position pixel coordinates derived by executing the processing of step 244 and the identifiable pixel position. Also good.
- the example shown in FIG. 22 shows a case where the discrepancy message 137B is displayed visually, but an audible display such as output of sound by an audio reproduction device (not shown) or a permanent visual display such as output of printed matter by a printer. May be performed instead of visible display, or may be used in combination.
- step 258 shown in FIG. 14 the execution unit 112A determines whether or not a subsequent process permission flag indicating that the execution of the process after step 268 described later and the process after step 300 described later is permitted is turned on. . If it is determined in step 258 that the subsequent process permission flag is not turned on, the determination is negative and the routine proceeds to step 260. If the subsequent process permission flag is turned on in step 258, the determination is affirmed and the routine proceeds to step 268.
- step 260 the execution unit 112A determines whether or not there has been a subsequent process permission instruction that is an instruction to permit the execution of the processes in and after step 268.
- the subsequent processing permission instruction indicates, for example, a double tap performed by the user on the touch panel 88 after the display of the matching message 137A is disclosed.
- the subsequent process permission instruction is not limited to a double tap, and may be a predetermined instruction received by the receiving device 90.
- predetermined instruction examples include, for example, a long press or flick on a specific area on the touch panel 88 (for example, an area corresponding to a closed area where a specific color is applied in the screen).
- a long press or flick is a long press or flick to the touch panel 88 in a state where a guidance message “Please perform a long press or flick” is displayed on the screen. Also good.
- a specific button (not shown) provided on the receiving device 90 is turned on.
- step 260 if there is no subsequent process permission instruction, the determination is denied and the routine proceeds to step 262.
- step 260 if there is a subsequent process permission instruction, the determination is affirmed and the routine proceeds to step 264. If the determination in step 260 is affirmative, the execution unit 112A causes the display unit 86 to finish displaying the match message 137A.
- step 262 the execution unit 112A determines whether or not a predetermined measurement execution timing has arrived as a timing for executing the processing of step 230.
- a measurement execution timing predetermined as a timing for executing the process of step 230 is simply referred to as “measurement execution timing”.
- the measurement execution timing refers to a predetermined timing at which ranging is executed for each frame of the live view image.
- the measurement execution timing there is a timing that periodically arrives at every time interval corresponding to one frame rate.
- step 262 if the measurement execution timing has not arrived, the determination is denied, and the routine proceeds to step 258. In step 262, when the measurement execution timing has arrived, the determination is affirmed, and the process proceeds to step 230 shown in FIG.
- step 264 the execution unit 112A turns on the subsequent process permission flag, and then proceeds to step 266.
- step 266 the execution unit 112A determines whether or not the measurement execution timing has arrived. If it is determined in step 266 that the measurement execution timing has not arrived, the determination is negative and the process proceeds to step 268. If it is determined in step 266 that the measurement execution timing has come, the determination is affirmed, and the process proceeds to step 230 shown in FIG.
- step 268 the acquisition unit 110 ⁇ / b> A specifies a corresponding target pixel that is a pixel corresponding to the target pixel 126 among the pixels included in the second captured image, and specifies the corresponding corresponding target pixel coordinate. Then, the process proceeds to step 270.
- the corresponding target pixel coordinates refer to two-dimensional coordinates that identify the corresponding target pixels in the second captured image.
- the corresponding target pixel is specified by performing existing image analysis such as pattern matching on the first and second captured images as analysis targets.
- the corresponding target pixel corresponds to the above-described second designated pixel, and when the target pixel 126 is specified from the first captured image, the processing of this step 268 is executed, so that the corresponding target pixel is uniquely determined from the second captured image. Identified.
- step 270 the deriving unit 111A derives the first irradiation position pixel coordinates, and then proceeds to step 272. That is, in this step 270, the deriving unit 111A determines the position of the pixel corresponding to the position of the pixel specified by the second irradiation position pixel coordinate derived in the process of step 244 among the pixels of the specific first captured image.
- the specified coordinates are derived as the first irradiation position pixel coordinates.
- the specific first captured image refers to a first captured image stored in a predetermined storage area by executing the process of step 204.
- the pixel corresponding to the position of the pixel specified by the second irradiation position pixel coordinate is the same as the above-described method of specifying the corresponding target pixel coordinate. It is specified by performing existing image analysis such as pattern matching on the captured image as an analysis target.
- step 272 the execution unit 112A derives the imaging position distance based on the irradiation position real space coordinates, the irradiation position pixel coordinates, the focal length of the imaging lens 50, the size of the imaging pixel 60A1, and the formula (1), and then Then, the process proceeds to step 274 shown in FIG. Note that the processing in step 272 is an example of processing included in “predetermined processing” according to the technique of the present disclosure.
- the execution unit 112A determines whether or not the imaging position distance is already displayed on the display unit 86. In step 274, when the imaging position distance is already displayed on the display unit 86, the determination is affirmed and the process proceeds to step 276. If it is determined in step 274 that the imaging position distance is not already displayed on the display unit 86, the determination is negative and the process proceeds to step 278.
- step 276 the execution unit 112A ends the display of the imaging position distance on the display unit 86, and then proceeds to step 278.
- step 278 the execution unit 112A causes the display unit 86 to start displaying the imaging position distance derived in step 272 on the second captured image, as shown in FIG. Control goes to step 280.
- the numerical value “144656.1” corresponds to the imaging position distance derived by the processing in step 272, and the unit is millimeters.
- step 280 the execution unit 112A generates a still image file from the second captured image signal acquired in the process of step 238, and then proceeds to step 282.
- the second captured image used in the processing of this step 280 is the latest second captured image, and is an example of “a second captured image obtained by capturing at a predetermined timing” according to the technique of the present disclosure. It is.
- predetermined timing refers to the timing at which the latest second captured image is captured.
- the second captured image used in the processing of this step 280 is not limited to the latest second captured image.
- a predetermined number of frames for example, one frame or more than the latest second captured image. It may be a second captured image obtained by imaging two frames) before.
- step 282 the execution unit 112A stores the still image file, the latest distance, and the latest imaging position distance in the secondary storage unit 104, and then proceeds to step 284.
- the latest distance and the latest imaging position distance stored in the secondary storage unit 104 by executing the process of step 282 are acquired at a timing corresponding to a predetermined timing according to the technique of the present disclosure. It is an example of “information based on the measured distance”.
- the processing in step 282 is an example of “storage processing” according to the technique of the present disclosure.
- the still image file stored in the secondary storage unit 104 by executing the process of step 282 is the still image file generated by the process of step 280.
- the latest distance stored in the secondary storage unit 104 by executing the process of step 282 is the latest distance among the distances to the subject measured by executing the process of step 230. It is.
- the latest imaging position distance stored in the secondary storage unit 104 by executing the processing in step 282 is the latest imaging position distance derived from the imaging position distance derived in step 272 or step 310 described later. The position distance.
- the distance and the imaging position distance stored in the secondary storage unit 104 by executing the processing of step 282 may not be the latest distance and the latest imaging position distance.
- the distance acquired at the timing corresponding to the imaging timing of the second captured image used in the process of step 280 and the imaging position distance may be used.
- the distance stored in the secondary storage unit 104 is, for example, that the second captured image used in the process of step 280 is captured before a predetermined number of frames before the latest second captured image, and the second captured image is obtained. In this case, the distance measured at the imaging timing of the second captured image may be used.
- storage part 104 should just be an imaging position distance derived
- the distance acquired at the timing corresponding to the imaging timing of the second captured image indicates, for example, the distance measured at the imaging timing before a predetermined number of frames from the latest second captured image.
- the imaging position distance acquired at the timing corresponding to the imaging timing of the second captured image is based on the distance measured at the imaging timing before the predetermined number of frames from the latest second captured image. This refers to the derived imaging position distance.
- the still image file, the distance to the subject, and the imaging position distance are stored in the secondary storage unit 104, but the technology of the present disclosure is not limited to this. Absent.
- any one or more of the still image file, the distance to the subject, and the imaging position distance may be stored in the secondary storage unit 104, or the still image file, the distance to the subject, and the imaging position Information other than the distance may be stored in the secondary storage unit.
- Other information includes, for example, parameters used in measuring the distance to the subject, current time, and GPS (Global Positioning System) information that can specify the current position.
- step 284 the execution unit 112A turns off the subsequent process permission flag, and then proceeds to step 286.
- step 286 the execution unit 112A determines whether a condition for ending the second position measurement imaging process is satisfied.
- the condition for ending the second position measurement imaging process indicates the same condition as the condition described in the description of step 202 above.
- step 286 if the condition for ending the second position measurement imaging process is not satisfied, the determination is negative and the process proceeds to step 288. In step 286, if the condition for ending the second position measurement imaging process is satisfied, the determination is affirmed, and the second position measurement imaging process ends.
- step 288 the execution unit 112A determines whether or not the measurement execution timing has arrived. If the measurement execution timing has not arrived at step 288, the determination is negative and the routine proceeds to step 286. If the measurement execution timing has come in step 288, the determination is affirmed and the routine proceeds to step 230 shown in FIG.
- step 290 shown in FIG. 16 the execution unit 112A determines whether or not the subsequent process permission flag is turned on. If it is determined in step 290 that the subsequent process permission flag is not turned on, the determination is negative and the process proceeds to step 292. If the subsequent process permission flag is turned on in step 290, the determination is affirmed and the routine proceeds to step 300.
- step 292 the execution unit 112 ⁇ / b> A determines whether or not there is a subsequent process permission instruction that is an instruction for permitting the execution of the processes in and after step 300.
- the subsequent process permission instruction indicates, for example, a double tap performed by the user on the touch panel 88 after the display of the mismatch message 137B is disclosed.
- the subsequent process permission instruction is not limited to a double tap, but is accepted by a predetermined operation on the touch panel 88 or by the accepting device 90. It may be a predetermined instruction.
- step 292 if there is no subsequent process permission instruction, the determination is denied and the routine proceeds to step 294. If there is a subsequent process permission instruction in step 292, the determination is affirmed and the routine proceeds to step 296. If the determination in step 292 is affirmative, the execution unit 112A causes the display unit 86 to end displaying the mismatch message 137B.
- step 294 the execution unit 112A determines whether or not the measurement execution timing has arrived. If the measurement execution timing has not arrived at step 294, the determination is negative and the routine proceeds to step 290. In step 294, when the measurement execution timing has come, the determination is affirmed, and the routine proceeds to step 230 shown in FIG.
- step 296 the execution unit 112A turns on the subsequent process permission flag, and then proceeds to step 298.
- step 298 the execution unit 112A determines whether or not the measurement execution timing has arrived. If the measurement execution timing has not arrived at step 298, the determination is negative and the routine proceeds to step 300. If it is determined in step 266 that the measurement execution timing has come, the determination is affirmed, and the process proceeds to step 230 shown in FIG.
- step 300 the acquisition unit 110 ⁇ / b> A identifies the corresponding attention pixel that is the pixel corresponding to the attention pixel 126 among the pixels included in the second captured image, as in the process of step 268, and the identified corresponding attention. Corresponding target pixel coordinates for specifying a pixel are acquired.
- the execution unit 112A acquires the three characteristic pixel coordinates that specify the positions of the characteristic three pixels in the outer wall surface image 128 (the hatched area in the example illustrated in FIG. 24) of the second captured image. Thereafter, the process proceeds to step 304.
- the “characteristic three pixels” referred to here is an example of “multiple pixels” according to the technology of the present disclosure.
- the outer wall surface image 128 refers to an image showing the outer wall surface 121 (see FIG. 17) in the second captured image.
- the characteristic three pixels are pixels that can be specified at positions corresponding to each other in each of the first captured image and the second captured image.
- the characteristic three pixels in the second captured image are more than a predetermined number of pixels away from each other, and image analysis is performed based on the spatial frequency of the image corresponding to the pattern or building material in the outer wall surface image 128.
- the three characteristic pixel coordinates correspond to the above-described plural pixel coordinates.
- the characteristic three pixels are the first pixel 130, the second pixel 132, and the third pixel 134.
- the first pixel 130 is a pixel in the upper left corner of the image corresponding to the central window on the second floor of the outer wall surface in the outer wall image 128.
- the second pixel 132 is a pixel at the upper right corner of the image corresponding to the central window on the second floor of the outer wall surface.
- the third pixel 134 is a pixel at the lower left corner of the image corresponding to the pattern 124 close to the lower part of the central window on the third floor of the outer wall.
- the outer wall surface third floor central window refers to the window 122 at the center of the third floor of the office building 120 among the windows 122 provided on the outer wall surface 121.
- the acquisition unit 110A identifies the characteristic three pixels in the outer wall image corresponding to the outer wall image 128 (see FIG. 24) in the first captured image, and identifies the identified characteristic three pixels.
- Corresponding feature pixel coordinates are acquired, and then the process proceeds to step 306.
- the corresponding feature pixel coordinates refer to two-dimensional coordinates that specify the characteristic three pixels specified in the first captured image.
- the corresponding feature pixel coordinates are also two-dimensional coordinates corresponding to the three feature pixel coordinates acquired by the processing in step 302 in the first captured image, and correspond to the above-described plurality of pixel coordinates.
- the characteristic three pixels of the first captured image are subjected to an existing image analysis such as pattern matching with the first and second captured images being analyzed, as in the above-described method of identifying the corresponding target pixel. It is specified by that.
- step 306 the execution unit 112A derives a, b, and c of the plane equation shown in Expression (6) from the three feature pixel coordinates, the corresponding feature pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. By doing so, the orientation of the plane defined by the plane equation is derived.
- the three feature pixel coordinates are (u L1 , v L1 ), (u L2 , v L2 ), (u L3 , v L3 ), and the corresponding feature pixel coordinates are (u R1 , v R1 ), (u R2 , Assuming v R2 ), (u R3 , v R3 ), the first to third feature pixel three-dimensional coordinates are defined by the following equations (7) to (9).
- the first feature pixel three-dimensional coordinates refer to three-dimensional coordinates corresponding to (u L1 , v L1 ) and (u R1 , v R1 ).
- the second feature pixel three-dimensional coordinates refer to three-dimensional coordinates corresponding to (u L2 , v L2 ) and (u R2 , v R2 ).
- the third feature pixel three-dimensional coordinate refers to a three-dimensional coordinate corresponding to (u L3 , v L3 ) and (u R3 , v R3 ).
- equations (7) to (9) “v R1 ”, “v R2 ”, and “v R3 ” are not used.
- the execution unit 112A has three mathematical formulas in an equivalent relationship obtained by substituting each of the first to third characteristic pixel three-dimensional coordinates shown in the mathematical formulas (7) to (9) into the mathematical formula (6). From the above, a, b, and c in Expression (6) are optimized to derive a, b, and c in Expression (6). Thus, a, b, and c in Equation (6) being derived means that the orientation of the plane defined by the plane equation shown in Equation (6) is derived.
- step 308 the execution unit 112 ⁇ / b> A determines the plane equation shown in equation (6) based on the irradiation position real space coordinates derived in the processing in step 242, and then proceeds to step 310.
- the execution unit 112A substitutes the a, b, c derived in the processing in step 306 and the irradiation position real space coordinates derived in the processing in step 242 into the mathematical formula (6). 6) Confirm d. Since a, b, and c of Expression (6) are derived in the process of Step 306, when d of Expression (6) is determined in the process of Step 308, the plane equation shown in Expression (6) is determined. Is done.
- step 310 the execution unit 112A derives the imaging position distance based on the feature pixel three-dimensional coordinates and the plane equation, and then proceeds to step 274 shown in FIG. Note that the processing in step 310 is an example of processing included in “predetermined processing” according to the technique of the present disclosure.
- the feature pixel three-dimensional coordinates used in the processing of step 310 indicate the first feature pixel three-dimensional coordinates.
- the feature pixel three-dimensional coordinates used in the process of step 310 are not limited to the first feature pixel three-dimensional coordinates, and may be the second feature pixel three-dimensional coordinates or the third feature pixel three-dimensional coordinates.
- the plane equation used in step 310 refers to the plane equation determined in step 308L.
- “B” that is the imaging position distance is derived by substituting the three-dimensional feature pixel coordinates into the plane equation.
- step 272 shown in FIG. 14 corresponds to the above-described first derivation process
- step 310 shown in FIG. 16 corresponds to the above-described second derivation process. That is, the processing in step 272 does not require the use of a plane equation unlike the processing in step 310. Therefore, the first derivation process has a smaller load on the derivation of the imaging position distance than the second derivation process.
- the derivation accuracy of the imaging position distance by the first derivation process is equal to the imaging position distance by the second derivation process. It becomes higher than the derivation accuracy.
- step 350 the execution unit 112A determines whether or not the imaging position distance has already been derived in the process of step 272 or the process of step 310. In step 350, if the imaging position distance has not been derived in any of the processing in step 272 and the processing in step 310, the determination is negative and the processing proceeds to step 358. In step 350, when the imaging position distance has already been derived in the process of step 272 or the process of step 310, the determination is affirmed and the process proceeds to step 352.
- the execution unit 112A determines whether a condition for starting the derivation of the designated pixel three-dimensional coordinates (hereinafter referred to as a “derivation start condition”) is satisfied.
- the derivation start condition include a condition that an instruction to start derivation of the designated pixel three-dimensional coordinates is accepted by the touch panel 88, a condition that the imaging position distance is displayed on the display unit 86, and the like.
- step 352 if the derivation start condition is not satisfied, the determination is denied and the process proceeds to step 358. If the derivation start condition is satisfied in step 352, the determination is affirmed and the routine proceeds to step 354.
- step 354 the execution unit 112A calculates the designated pixel three-dimensional coordinates based on the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, the dimensions of the imaging pixel 60A1, and the mathematical expression (1). Then, the process proceeds to step 356.
- the pixel-of-interest coordinates used in the process of step 354 indicate the pixel-of-interest coordinates acquired in the process of step 212.
- the corresponding target pixel coordinates used in the process of step 354 indicate the corresponding target pixel coordinates acquired by the process of step 268 or the process of step 300.
- the imaging position distance used in the process of step 354 indicates the imaging position distance derived by the process of step 272 or the process of step 310.
- the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are substituted into the mathematical formula (1), thereby specifying the designated pixel three-dimensional coordinates. Is derived.
- step 356 as shown in FIG. 26 as an example, the execution unit 112A causes the display unit 86 to display the designated pixel three-dimensional coordinates derived in step 354 superimposed on the second captured image.
- the execution unit 112A stores the designated pixel three-dimensional coordinates derived in the process of step 354 in the secondary storage unit 104, and then proceeds to step 358.
- (20161, 50134, 136892) corresponds to the designated pixel three-dimensional coordinates derived in the processing of step 354.
- the designated pixel three-dimensional coordinates are displayed close to the target pixel 126. Note that the target pixel 126 may be highlighted so as to be distinguishable from other pixels.
- step 358 the execution unit 112A determines whether or not a condition for ending the three-dimensional coordinate derivation process is satisfied.
- a condition that an instruction for ending the three-dimensional coordinate derivation process is received from the touch panel 88 can be given.
- Another example of the condition for ending the three-dimensional coordinate derivation process is a condition that the second predetermined time has passed without the determination being affirmed in step 350 after the determination in step 350 is denied.
- the second predetermined time refers to, for example, 30 minutes.
- step 358 If it is determined in step 358 that the conditions for ending the three-dimensional coordinate derivation process are not satisfied, the determination is negative and the routine proceeds to step 350. If it is determined in step 358 that the condition for ending the three-dimensional coordinate derivation process is satisfied, the determination is affirmed and the three-dimensional coordinate derivation process is ended.
- the acquisition unit 110A acquires the second captured image as a live view image. Further, each time the second captured image is captured by the acquisition unit 110A, the distance to the subject measured by the distance measurement unit 12 and the distance measurement control unit 68 is acquired. In addition, for each second captured image acquired by the acquisition unit 110A, the second irradiation position pixel coordinates are derived by the deriving unit 111A based on the distance to the subject acquired by the acquisition unit 110A. Then, in the case where the position of the pixel specified by the second irradiation position pixel coordinate is the identifiable pixel position for each second captured image, the processing of Step 254, Step 272, and Steps 278 to 282 (FIGS. 13 to 15).
- Step 254, Step 256, Step 272, Step 310, and Steps 278 to 282, which are processing according to the irradiation position of the laser light on the subject, can be executed immediately. it can.
- step 252: Y When the position of the pixel specified by the second irradiation position pixel coordinates is an identifiable pixel position (step 252: Y), at least one of the processing in step 254, the processing in step 272, and the processing in steps 278 to 282. If one process is performed, the technique of this indication will be materialized. Further, when the position of the pixel specified by the second irradiation position pixel coordinates is not the identifiable pixel position (step 252: N), at least one of the processing in step 256, the processing in step 310, and the processing in steps 278 to 282. If one process is performed, the technique of this indication will be materialized.
- processing such as processing in step 254 is performed when the pixel position specified by the second irradiation position pixel coordinates is the identifiable pixel position. If so, the technology of the present disclosure is established. In addition, the technique of the present disclosure is established if processing such as the processing of step 256 is performed when the position of the pixel specified by the second irradiation position pixel coordinates is not the identifiable pixel position.
- the processing in step 256 and the like refers to, for example, at least one of the processing in step 256, the processing in step 272, and the processing in steps 278 to 282.
- a step is performed.
- the process 254 (see FIG. 13) is executed.
- the match message 137A is displayed by executing the processing of step 254 (see FIG. 21).
- the distance measuring apparatus 10A it is possible to prompt the user to recognize immediately that the position of the pixel specified by the second irradiation position pixel coordinate is the identifiable pixel position.
- the execution unit 112A executes the process of step 272 (see FIG. 14).
- the imaging position distance can be derived at a timing requested by the user.
- step 256 if the position of the pixel specified by the second irradiation position pixel coordinate is not the identifiable pixel position for each second captured image acquired by the acquisition unit 110A, the process of step 256 (FIG. 13) is executed. By executing the processing of step 256, a mismatch message 137B is displayed (see FIG. 22).
- the distance measuring apparatus 10A it is possible to make the user immediately recognize that the position of the pixel specified by the second irradiation position pixel coordinates is not the identifiable pixel position.
- step 292 when the subsequent process permission instruction is received in a state where the mismatch message 137B is displayed (step 292: Y), the execution unit 112A performs the process of step 310 (see FIG. 16). Executed.
- the imaging position distance can be derived at a timing requested by the user.
- the latest second captured image among the plurality of second captured images acquired as the live view image and the subject measured by the distance measuring unit 12 and the distance measurement control unit 68 are also displayed.
- Information based on the latest distance among the distances is stored in the secondary storage unit 104.
- the latest second captured image and information based on the latest distance can be immediately stored in the secondary storage unit 104 in accordance with the irradiation position of the laser light on the subject. .
- the distance measuring device 10A includes the distance measuring unit 12 and the distance measuring control unit 68, and the distance to the subject measured by the distance measuring unit 12 and the distance measuring control unit 68 is acquired by the acquiring unit 110A.
- the distance to the subject measured by the distance measuring unit 12 and the distance measurement control unit 68 can be used for deriving the second irradiation position pixel coordinates.
- the distance measuring device 10A includes the imaging device 14, and a plurality of second captured images obtained by imaging the subject by the imaging device 14 are acquired by the acquisition unit 110A.
- the steps 254, 256, and 256 which are processes according to the irradiation position of the laser light on the subject, using the plurality of second captured images obtained by the imaging device 14. 272, Step 310, and Steps 278 to 282 can be executed immediately.
- the first captured image is captured as a still image by the distance measuring device 10A at the first position, but the technology of the present disclosure is not limited to this.
- the first captured image may be captured as a live view image at the first position.
- the first captured image may be captured as a moving image for recording on the memory card 92 at the first position.
- the second captured image is captured as a live view image at the second position, but the technology of the present disclosure is not limited to this.
- the second captured image may be captured as a moving image for recording on the memory card 92 at the second position.
- three feature pixel coordinates are exemplified, but the technology of the present disclosure is not limited to this.
- two-dimensional coordinates that specify each of a predetermined number of characteristic four or more pixels may be adopted.
- the case where the pixel-of-interest coordinates are acquired from the coordinates on the first captured image and the corresponding pixel-of-interest coordinates are acquired from the coordinates on the second captured image is exemplified.
- the target pixel coordinates may be acquired from the coordinates on the second captured image
- the corresponding target pixel coordinates may be acquired from the coordinates on the first captured image.
- the case where the three feature pixel coordinates are acquired from the coordinates on the first captured image and the corresponding feature pixel coordinates are acquired from the coordinates on the second captured image is illustrated.
- the technology is not limited to this.
- three feature pixel coordinates may be acquired from coordinates on the second captured image, and corresponding feature pixel coordinates may be acquired from coordinates on the first captured image.
- the technology of the present disclosure is not limited to this.
- two-dimensional coordinates that specify each of the first pixel 130A, the second pixel 132A, and the third pixel 134A may be acquired by the acquisition unit 110A.
- the first pixel 130 ⁇ / b> A, the second pixel 132 ⁇ / b> A, and the third pixel 134 ⁇ / b> A are three pixels that have the maximum area surrounded by the outer wall surface image 128.
- the number of pixels is not limited to three pixels, but may be a predetermined number of pixels that is three or more pixels that maximizes the area surrounded by the outer wall surface image 128.
- the three pixels having the maximum area surrounded by the outer wall surface image 128 are identified as characteristic three pixels, and the two-dimensional coordinates relating to the identified three pixels are defined as the three characteristic pixel coordinates. Obtained by the obtaining unit 110A.
- the corresponding feature pixel coordinates corresponding to the three feature pixel coordinates are also acquired by the acquisition unit 110A. Therefore, according to the distance measuring device 10A, as compared with the case where three characteristic pixel coordinates and corresponding characteristic pixel coordinates that specify a plurality of pixels whose surrounding area is not the maximum are acquired as characteristic three pixels, the imaging position distance is set. It can be derived with high accuracy.
- the imaging position distance deriving process is realized when the three-dimensional coordinate deriving button 90G is turned on has been described, but the technology of the present disclosure is not limited to this.
- the imaging position distance derivation process may be executed when the imaging position distance derivation button 90F is turned on.
- the imaging position distance deriving process described in the first embodiment is an example in the case where the ultimate purpose is to derive three-dimensional coordinates.
- the target pixel coordinates and corresponding target pixel coordinates required for deriving the three-dimensional coordinates are acquired by the imaging position distance deriving process.
- the target pixel in the imaging position distance deriving process is obtained. It is not necessary to acquire coordinates and corresponding target pixel coordinates. Therefore, when the imaging position distance derivation button 90F is turned on, the execution unit 112A derives the imaging position distance without acquiring the target pixel coordinates and the corresponding target pixel coordinates, and then the three-dimensional coordinate derivation button 90G is turned on. In this case, the target pixel coordinates and the corresponding target pixel coordinates may be acquired.
- the execution unit 112A acquires the target pixel coordinates and the corresponding target pixel coordinates between the processing in step 352 and the processing in step 354 of the three-dimensional coordinate derivation processing illustrated in FIG. And the corresponding target pixel coordinates may be used in the process of step 354.
- the distance measuring device 10B has an imaging position distance derivation program 106B in place of the imaging position distance derivation program 106A in the secondary storage unit 104, as compared to the distance measurement device 10A. Is different in that is stored.
- the CPU 100 operates as the acquisition unit 110B, the derivation unit 111B, and the execution unit 112B by executing the imaging position distance derivation program 106B (see FIG. 9).
- the acquisition unit 110B corresponds to the acquisition unit 110A described in the first embodiment
- the derivation unit 111B corresponds to the derivation unit 111A described in the first embodiment
- the execution unit 112B corresponds to the first embodiment. This corresponds to the execution unit 112A described above.
- the second embodiment only the parts different from the first embodiment will be described with respect to the acquisition unit 110B, the derivation unit 111B, and the execution unit 112B.
- the execution unit 112B performs the first derivation process described in the first embodiment when the predetermined first condition described in the first embodiment is satisfied for each second captured image acquired by the acquisition unit 110B. Execute.
- the second position measurement imaging process included in the imaging position distance derivation process realized by the CPU 100 executing the imaging position distance derivation program 106B This will be described with reference to FIGS. Note that the same steps as those in the flowcharts shown in FIGS. 13 to 16 are denoted by the same step numbers, and description thereof is omitted.
- the second position measurement imaging process according to the second embodiment is different from the second position measurement imaging process according to the first embodiment in that it does not have the processes of step 234 and step 236 (FIGS. 13 and 28). reference). Further, the second position measurement imaging process according to the second embodiment does not include the processes of Step 254, Step 256, and Steps 258 to 266, compared to the second position measurement imaging process according to the first embodiment. The points are different (see FIGS. 13, 14, and 28). Further, the second position measurement imaging process according to the second embodiment is different from the second position measurement imaging process according to the first embodiment in that the step 284 is not provided (see FIGS. 15 and 29). Furthermore, the second position measurement imaging process according to the second embodiment is different from the second position measurement imaging process according to the first embodiment in that it does not have the processes of steps 290 to 298 (FIGS. 16 and 16). 30).
- the acquisition unit 110B acquires the second captured image as a live view image (see step 238). Further, every time the second captured image is captured by the acquisition unit 110B, the distance to the subject measured by the distance measurement unit 12 and the distance measurement control unit 68 is acquired (see step 230). Also, for each second captured image acquired by the acquisition unit 110B, the irradiation position real space coordinates are derived by the deriving unit 111B based on the distance to the subject acquired by the acquisition unit 110B (see step 242). . Then, for each second captured image, when the pixel position specified by the second irradiation position pixel coordinate is the identifiable pixel position, the processing of step 272 and steps 278 to 282 (see FIGS.
- step 310 and steps 278 to 282 (see FIGS. 28 and 29). ) Is executed.
- Step 272 it is possible to immediately execute the processing of Step 272, Step 310, and Steps 278 to 282, which are processing according to the irradiation position of the laser light on the subject.
- the distance measuring apparatus 10C has an imaging position distance derivation program 106C in place of the imaging position distance derivation program 106A in the secondary storage unit 104, as compared to the distance measurement apparatus 10A. Is different in that is stored.
- the CPU 100 operates as the acquisition unit 110C, the derivation unit 111C, and the execution unit 112C by executing the imaging position distance derivation program 106C (see FIG. 9).
- the acquisition unit 110C corresponds to the acquisition unit 110A described in the first embodiment
- the derivation unit 111C corresponds to the derivation unit 111A described in the first embodiment
- the execution unit 112C corresponds to the first embodiment. This corresponds to the execution unit 112A described above.
- the third embodiment only the portions different from the first embodiment will be described with respect to the acquisition unit 110C, the derivation unit 111C, and the execution unit 112C.
- FIG. 13 and FIGS. 31 to 33 show the imaging position distance derivation processing realized by the CPU 100 executing the imaging position distance derivation program 106C.
- the description will be given with reference. Note that the same steps as those in the flowcharts shown in FIGS. 13 to 16 are denoted by the same step numbers, and description thereof is omitted.
- the processing of step 400 to step 412 is performed between the process of step 212 and the process of step 214 as compared with the imaging position distance deriving process according to the first embodiment. It has a different point (see FIGS. 12, 31, and 32). Further, the second position measurement imaging process according to the third embodiment is different from the second position measurement imaging process according to the first embodiment in that it does not have the process of step 302 (see FIGS. 16 and 33). ). Furthermore, the second position measurement imaging process according to the third embodiment is different from the second position measurement imaging process according to the first embodiment in that it includes a process of step 414 instead of the process of step 304 ( FIG. 16 and FIG. 33).
- step 400 shown in FIG. 31 the execution unit 112C specifies the outer wall surface image 128 (see FIG. 34) from the first captured image, and then proceeds to step 402.
- step 402 the execution unit 112 ⁇ / b> C causes the display unit 86 to display the outer wall surface image 128 specified in the process of step 400 in a highlighted manner so as to be distinguishable from other regions in the display region of the first captured image. Thereafter, the process proceeds to step 404.
- Step 404 the execution unit 112C determines whether or not the area designation information is received by the touch panel 88 and the coordinate acquisition target area is specified by the received area designation information.
- step 404 when the coordinate acquisition target area is not designated by the area designation information, the determination is denied and the process proceeds to step 406.
- step 404 when the coordinate acquisition target area is designated by the area designation information, the determination is affirmed and the process proceeds to step 408.
- step 406 the execution unit 112C determines whether or not a condition for ending the imaging position distance derivation process is satisfied. If the conditions for ending the imaging position distance deriving process are not satisfied in step 406, the determination is negative and the process proceeds to step 404. If the condition for ending the imaging position distance deriving process is satisfied in step 406, the determination is affirmed and the imaging position distance deriving process is terminated.
- the execution unit 112C includes the characteristic three pixels described in the first embodiment in the coordinate acquisition target region 158 (see FIG. 34) designated by the region designation information received by the touch panel 88. It is determined whether or not.
- a pattern image 160 showing a pattern 124 is displayed in the coordinate acquisition target area 158. It is included.
- the coordinate acquisition target region 158 includes a first pixel 162, a second pixel 164, and a third pixel 166 as characteristic three pixels.
- the first pixel 162 is a pixel at the upper left corner of the pattern image 160 in front view
- the second pixel 164 is a pixel at the lower left corner of the pattern image 160 in front view
- the third pixel 166 is , The pixel at the lower right corner of the pattern image 160 when viewed from the front.
- step 408 if there are no characteristic three pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is negative and the process proceeds to step 410.
- step 408 if there are three characteristic pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is affirmed and the process proceeds to step 412. Note that the case where an affirmative determination is made in step 408 indicates, for example, a case where the coordinate acquisition target region 158 including the pattern image 160 is designated by the region designation information received by the touch panel 88 as shown in FIG. .
- step 410 the execution unit 112C causes the display unit 86 to start displaying the redesignation message superimposed on the predetermined area of the first captured image, and then proceeds to step 404.
- the re-designation message indicates, for example, a message “Please specify a closed area including a characteristic pattern or building material”. Note that the redesignation message displayed by executing the processing of step 410 is not displayed when the determination in step 404 is affirmed.
- the technology of the present disclosure is not limited to this, and an audible display such as audio output by an audio playback device (not shown)
- the permanent visible display such as the output of the printed matter by the printer may be performed instead of the visible display, or may be used in combination.
- step 412 the execution unit 112 ⁇ / b> C acquires the three characteristic pixel coordinates that specify the characteristic three pixels in the coordinate acquisition target area 158 specified by the area specification information received by the touch panel 88, and then, as illustrated in FIG. 32. Control goes to step 214.
- the two-dimensional coordinates that specify each of the first pixel 162, the second pixel 164, and the third pixel 166 are set as the three characteristic pixel coordinates by executing the process of step 412. Obtained by the execution unit 112C.
- the execution unit 112C specifies three characteristic pixels in the outer wall surface image corresponding to the outer wall surface image 128 (see FIG. 34) in the second captured image, and specifies the specified characteristic.
- Corresponding feature pixel coordinates specifying three pixels are acquired, and then the process proceeds to step 306.
- the corresponding characteristic pixel coordinates indicate two-dimensional coordinates that specify the characteristic three pixels specified in the second captured image.
- the corresponding feature pixel coordinates are also two-dimensional coordinates corresponding to the three feature pixel coordinates acquired by the processing in step 412 in the second captured image, and correspond to the above-described plurality of pixel coordinates.
- the characteristic three pixels of the second captured image are subjected to an existing image analysis such as pattern matching with the first and second captured images as analysis targets in the same manner as the above-described method of identifying the corresponding target pixel. It is specified by that.
- the outer wall surface image 128 is displayed on the display unit 86 so as to be distinguishable from other regions in the first captured image.
- area designation information is received by the touch panel 88, and a coordinate acquisition target area that is a part of the outer wall surface image 128 is designated by the received area designation information.
- the execution target 112C includes three characteristic pixels in the coordinate acquisition target area, three characteristic pixel coordinates that specify the characteristic three pixels are acquired (step 412), and the three characteristic pixel coordinates are supported. Corresponding feature pixel coordinates are also acquired (step 414).
- the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired with a smaller load than when the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired for the entire outer wall surface image 128. be able to.
- the distance measuring device 10D has an imaging position distance derivation program 106D in place of the imaging position distance derivation program 106A in the secondary storage unit 104, as compared to the distance measurement device 10A. Is different in that is stored.
- the CPU 100 operates as the acquisition unit 110D, the derivation unit 111D, and the execution unit 112D by executing the imaging position distance derivation program 106D (see FIG. 9).
- the acquisition unit 110D corresponds to the acquisition unit 110A described in the first embodiment
- the derivation unit 111D corresponds to the derivation unit 111A described in the first embodiment
- the execution unit 112D corresponds to the first embodiment. This corresponds to the execution unit 112A described above.
- the fourth embodiment only the parts different from the first embodiment will be described with respect to the acquisition unit 110D, the derivation unit 111D, and the execution unit 112D.
- the second position measurement imaging process included in the imaging position distance derivation process realized by the CPU 100 executing the imaging position distance derivation program 106D This will be described with reference to FIGS. Note that the same steps as those in the flowcharts shown in FIGS. 13 to 16 are denoted by the same step numbers, and description thereof is omitted.
- the execution unit 112D specifies the outer wall surface image 128 (see FIG. 34) from the second captured image, and then proceeds to step 452.
- step 452 the execution unit 112D starts displaying the outer wall surface image 128 identified in the process of step 450 on the display unit 86 in such a manner that the outer wall image 128 is distinguished from other regions in the display region of the second captured image. Then, the process proceeds to step 454.
- step 454 the execution unit 112D determines whether or not the area designation information is received by the touch panel 88 and the coordinate acquisition target area is specified by the received area designation information.
- step 454 if the coordinate acquisition target area is not designated by the area designation information, the determination is denied and the routine proceeds to step 456.
- step 454 when the coordinate acquisition target area is designated by the area designation information, the determination is affirmed and the process proceeds to step 460.
- step 456 the execution unit 112D determines whether or not the measurement execution timing described in the first embodiment has arrived. If the measurement execution timing has not arrived at step 456, the determination is negative and the routine proceeds to step 454. If it is determined in step 456 that the measurement execution timing has arrived, the determination is affirmed and the routine proceeds to step 458.
- step 458 the execution unit 112D ends the display in which the outer wall surface image 128 is highlighted so as to be distinguishable from other regions in the display region of the second captured image on the display unit 86, and then, as illustrated in FIG. Control goes to step 230.
- the redesignation message is not displayed by executing this step 458.
- the execution unit 112D has the characteristic three pixels described in the first embodiment in the coordinate acquisition target region 158 (see FIG. 34) designated by the region designation information received by the touch panel 88. It is determined whether or not.
- the coordinate acquisition target area 158 specified for the second captured image includes the first pixel 162, the second pixel 164, and the third pixel 166 as characteristic three pixels. It is.
- step 460 if there are no characteristic three pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is negative and the process proceeds to step 462.
- step 460 if there are three characteristic pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is affirmed and the process proceeds to step 470. Note that the case where an affirmative determination is made in step 460 indicates, for example, a case where the coordinate acquisition target region 158 including the pattern image 160 is designated by the region designation information received by the touch panel 88 as shown in FIG. .
- step 462 the execution unit 112D causes the display unit 86 to start displaying the re-designation message described in the third embodiment on the predetermined area of the second captured image, and then proceeds to step 464.
- the redesignation message displayed by executing the processing of step 462 is not displayed when the determination in step 454 is affirmed.
- a case where the re-designation message is displayed visually is illustrated, but the technology of the present disclosure is not limited to this, and an audible display such as audio output by an audio playback device (not shown)
- the permanent visible display such as the output of the printed matter by the printer may be performed instead of the visible display, or may be used in combination.
- step 464 the execution unit 112D determines whether or not the measurement execution timing described in the first embodiment has arrived. If the measurement execution timing has not arrived at step 464, the determination is negative and the routine proceeds to step 454. If it is determined in step 464 that the measurement execution timing has arrived, the determination is affirmed and the routine proceeds to step 466.
- step 466 the execution unit 112D ends the display on the display unit 86 in such a manner that the outer wall surface image 128 is highlighted so as to be distinguishable from other regions in the display region of the second captured image, and then the process proceeds to step 468. To do.
- step 468 the execution unit 112D causes the display unit 86 to stop displaying the redesignation message, and then proceeds to step 230 shown in FIG.
- step 470 the execution unit 112 ⁇ / b> D acquires first feature pixel coordinates that specify three characteristic pixels in the coordinate acquisition target region 158 specified by the region specification information received by the touch panel 88, and then proceeds to step 472. Transition. Note that, by executing the processing of step 470, two-dimensional coordinates that specify each of the first pixel 162, the second pixel 164, and the third pixel 166 of the second captured image are executed as the first feature pixel coordinates. Obtained by the unit 112D.
- step 472 the execution unit 112D ends the display on the display unit 86 in such a manner that the outer wall surface image 128 is emphasized so as to be distinguishable from other regions in the display region of the second captured image, and then the process proceeds to step 474. To do.
- the execution unit 112D specifies the characteristic three pixels in the outer wall surface image corresponding to the outer wall surface image 128 of the first captured image, and specifies the specified characteristic three pixels.
- the coordinates are acquired, and then the process proceeds to step 476.
- the second characteristic pixel coordinate refers to a two-dimensional coordinate that specifies the characteristic three pixels specified in the first captured image.
- the second feature pixel coordinate is also a two-dimensional coordinate corresponding to the first feature pixel coordinate acquired by the processing in step 470 in the first captured image, and corresponds to the above-described plurality of pixel coordinates.
- the characteristic three pixels of the first captured image are subjected to an existing image analysis such as pattern matching with the first and second captured images being analyzed, as in the above-described method of identifying the corresponding target pixel. It is specified by that.
- step 476 the execution unit 112D determines the a, b, c of the plane equation shown in Equation (6) from the first feature pixel coordinates, the second feature pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. To derive the orientation of the plane defined by the plane equation.
- the orientation of the plane is derived by a derivation method similar to the derivation method used in the process of step 306 described in the first embodiment.
- Step 478 the execution unit 112D determines the plane equation shown in Expression (6) based on the irradiation position real space coordinates derived in the processing in Step 242, and then proceeds to Step 480.
- the execution unit 112D substitutes the a, b, c derived in the processing in step 476 and the irradiation position real space coordinates derived in the processing in step 242 into the mathematical formula (6). 6) Confirm d. Since a, b, and c in Expression (6) are derived in the process of Step 476, when d in Expression (6) is determined in the process of Step 478, the plane equation shown in Expression (6) is determined. Is done.
- step 480 the execution unit 112D derives the imaging position distance based on the feature pixel three-dimensional coordinates and the plane equation, and then proceeds to step 274 shown in FIG. Note that the processing in step 480 is an example of processing included in “predetermined processing” according to the technique of the present disclosure.
- step 284 when the subsequent process permission flag is turned on, the process of step 284 shown in FIG. 15 is executed, but the subsequent process permission flag is turned off. If YES in step 284, the process in step 284 is not executed and the process proceeds to step 286.
- the outer wall surface image 128 is displayed on the display unit 86 so as to be distinguishable from other regions in the second captured image.
- a coordinate acquisition target area that is a part of the outer wall surface image 128 is designated for the second captured image.
- the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired with a small load compared to the case where the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired for the entire outer wall image 128. be able to.
- the distance measuring device 10E has an imaging position distance derivation program 106E in place of the imaging position distance derivation program 106A in the secondary storage unit 104, as compared with the distance measurement device 10A. Is different in that is stored.
- the CPU 100 operates as the acquisition unit 110E, the derivation unit 111E, and the execution unit 112E by executing the imaging position distance derivation program 106E (see FIG. 9).
- the acquisition unit 110E corresponds to the acquisition unit 110A described in the first embodiment
- the derivation unit 111E corresponds to the derivation unit 111A described in the first embodiment
- the execution unit 112E corresponds to the first embodiment. This corresponds to the execution unit 112A described above.
- the fifth embodiment only the parts different from the first embodiment will be described regarding the acquisition unit 110E, the derivation unit 111E, and the execution unit 112E.
- the imaging position distance deriving process according to the fifth embodiment is different from the imaging position distance deriving process according to the third embodiment in that it includes the process of step 500 instead of the process of step 404 (FIGS. 31 and 31). 37). Moreover, the imaging position distance deriving process according to the fifth embodiment is different from the imaging position distance deriving process according to the third embodiment in that it includes the process of step 502 (see FIGS. 31 and 37). Further, the imaging position distance deriving process according to the fifth embodiment is different from the imaging position distance deriving process according to the third embodiment in that it includes the process of step 504 instead of the process of step 408 (FIG. 31). And FIG. 37).
- the imaging position distance derivation process according to the fifth embodiment is different from the imaging position distance derivation process according to the third embodiment in that it includes the process of step 506 instead of the process of step 412 (FIG. 31). And FIG. 37). Furthermore, the imaging position distance deriving process according to the fifth embodiment is different from the imaging position distance deriving process according to the third embodiment in the steps 518 to 558 instead of the processes in steps 414 and 306 to 310. It differs in having processing (refer to FIG. 33 and FIG. 38).
- step 500 shown in FIG. 37 the execution unit 112E determines whether or not the area designation information is received by the touch panel 88, and the first coordinate acquisition target area 178 (see FIG. 34) is designated by the received area designation information.
- the first coordinate acquisition target area is an area corresponding to the coordinate acquisition target area 158 described in the third embodiment.
- step 500 when the first coordinate acquisition target area 178 is not designated by the area designation information, the determination is denied and the process proceeds to step 406. If the first coordinate acquisition target area 178 is designated by the area designation information in step 500, the determination is affirmed and the routine proceeds to step 502.
- step 502 the execution unit 112E sets the first coordinate acquisition target region 178 specified by the region specification information received by the touch panel 88 to the display unit 86 as another region in the display region of the first captured image. Start highlighting in a distinguishable manner. Note that the display in which the first coordinate acquisition target region 178 is highlighted ends when the determination in step 504 described later is affirmed.
- the execution unit 112E determines whether or not three characteristic pixels are designated by the pixel designation information received by the touch panel 88.
- the first coordinate acquisition target area 178 when the first coordinate acquisition target area 178 is specified by the area specification information received by the touch panel 88, the first coordinate acquisition target area 178 includes a pattern image 160.
- the characteristic three pixels refer to the first pixel 162, the second pixel 164, and the third pixel 166, which are pixels present at the three corners of the pattern image 160, as shown in FIG.
- step 504 if the characteristic three pixels are not designated by the pixel designation information received by the touch panel 88, the determination is negative and the process proceeds to step 410. In step 504, when three characteristic pixels are designated by the pixel designation information received by the touch panel 88, the determination is affirmed and the process proceeds to step 506.
- step 506 the execution unit 112E acquires the first characteristic pixel coordinates that specify the characteristic three pixels designated by the pixel designation information received by the touch panel 88, and then proceeds to step 214 shown in FIG. . Note that, by executing the processing of step 506, two-dimensional coordinates that specify each of the first pixel 162, the second pixel 164, and the third pixel 166 of the first captured image are executed as the first feature pixel coordinates. Obtained by the unit 112E.
- the execution unit 112E specifies a corresponding outer wall surface image that is an outer wall surface image corresponding to the outer wall surface image 128 from the second captured image, and then proceeds to step 520.
- step 520 the execution unit 112E starts display on the display unit 86 in such a manner that the corresponding outside wall surface image identified in the processing in step 518 is emphasized so as to be distinguishable from other regions in the display region of the second captured image. Then, the process proceeds to step 522.
- the display in which the non-corresponding wall surface image is highlighted so as to be distinguishable from the other areas in the display area of the second captured image ends when the determination in step 540 is affirmed.
- step 522 the execution unit 112E determines whether or not the area designation information is received by the touch panel 88, and the second coordinate acquisition target area is specified by the received area designation information.
- the second coordinate acquisition target area is an area specified by the user via the touch panel 88 as an area corresponding to the first coordinate acquisition target area 178 (see FIG. 34) in the second captured image.
- step 522 if the second coordinate acquisition target area is not designated by the area designation information, the determination is denied and the process proceeds to step 524. If the second coordinate acquisition target area is specified by the area specifying information in step 522, the determination is affirmed and the process proceeds to step 530. Note that the process of step 522 is executed in a state where a re-designation message to be described later is displayed. If the determination in step 522 is affirmative, the re-designation message is hidden.
- step 524 the execution unit 112E determines whether or not the measurement execution timing described in the first embodiment has arrived. If the measurement execution timing has not arrived at step 524, the determination is negative and the routine proceeds to step 522. If the measurement execution timing has come in step 524, the determination is affirmed and the routine proceeds to step 526.
- step 526 the execution unit 112E ends the display in which the non-corresponding wall surface image is highlighted so as to be distinguishable from other regions in the display region of the second captured image on the display unit 86, and then, as illustrated in FIG. Control goes to step 230. Note that when the process of step 526 is executed in a state where a re-designation message described later is displayed, the re-designation message is not displayed.
- step 530 the execution unit 112E sets the second coordinate acquisition target area designated by the area designation information received by the touch panel 88 to the display unit 86, with other areas in the display area of the second captured image. Start display with distinct highlighting. Note that the display in which the second coordinate acquisition target area is highlighted ends when the determination in step 540 described later is affirmed.
- the execution unit 112E determines whether or not three characteristic pixels are designated by the pixel designation information received by the touch panel 88.
- the characteristic three pixels indicate, for example, pixels corresponding to the first pixel 162, the second pixel 164, and the third pixel 166, respectively.
- step 540 if three characteristic pixels are not designated by the pixel designation information received by the touch panel 88, the determination is negative and the routine proceeds to step 542. In step 540, when three characteristic pixels are designated by the pixel designation information received by the touch panel 88, the determination is affirmed and the process proceeds to step 550.
- step 542 the execution unit 112E causes the display unit 86 to start displaying the re-designation message described in the third embodiment on the predetermined area of the second captured image, and then proceeds to step 544. .
- step 544 the execution unit 112E determines whether or not the measurement execution timing described in the first embodiment has arrived. If the measurement execution timing has not arrived at step 544, the determination is negative and the routine proceeds to step 522. If it is determined in step 544 that the measurement execution timing has arrived, the determination is affirmed and the routine proceeds to step 546.
- step 546 the execution unit 112E ends the display in which the second coordinate acquisition target region is highlighted so as to be distinguishable from other regions in the display region of the second captured image on the display unit 86, and then step 548 is performed.
- step 548 the execution unit 112E ends the display of the re-designation message on the display unit 86, and then proceeds to step 230 shown in FIG.
- step 550 the execution unit 112E acquires the second feature pixel coordinates that specify the specified three characteristic pixels in the coordinate acquisition target region 158 specified by the region specification information received by the touch panel 88, and then The process proceeds to step 552.
- step 552 the execution unit 112E ends the display in which the second coordinate acquisition target area is highlighted so as to be distinguishable from other areas in the display area of the second captured image on the display unit 86, and then step 554 is performed.
- step 554 the execution unit 112E determines the a, b, c of the plane equation shown in Expression (6) from the first feature pixel coordinates, the second feature pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. To derive the orientation of the plane defined by the plane equation. In step 554, the orientation of the plane is derived by a derivation method similar to the derivation method used in the processing of step 306 described in the first embodiment.
- step 556 the execution unit 112E determines the plane equation shown in the mathematical formula (6) based on the irradiation position real space coordinates derived in the processing in step 242, and then proceeds to step 558. That is, in this step 556, the execution unit 112E substitutes the a, b, c derived in the processing in step 554 and the irradiation position real space coordinates derived in the processing in step 242 into the mathematical formula (6). 6) Confirm d. Since a, b, and c in Expression (6) are derived in the process of Step 554, when d in Expression (6) is determined in the process of Step 556, the plane equation shown in Expression (6) is determined. Is done.
- step 558 the execution unit 112E derives the imaging position distance based on the feature pixel three-dimensional coordinates and the plane equation, and then proceeds to step 274 shown in FIG. Note that the processing in step 558 is an example of processing included in “predetermined processing” according to the technique of the present disclosure.
- the characteristic three pixels are designated via the touch panel 88 in the first captured image, and the first characteristic pixel coordinates that specify the designated characteristic three pixels are the execution unit. Obtained by 112E (step 506). Further, in the second captured image, characteristic three pixels corresponding to the characteristic three pixels of the first captured image are designated via the touch panel 88 (step 540: Y). In addition, the execution unit 112E acquires second characteristic pixel coordinates that specify three characteristic pixels designated via the touch panel 88 in the second captured image (step 550).
- the execution unit 112E performs imaging based on the target pixel coordinates, the corresponding target pixel coordinates, the first feature pixel coordinates, the second feature pixel coordinates, the focal position coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
- a position distance is derived.
- the imaging position distance can be derived based on the first feature pixel coordinates and the second feature pixel coordinates acquired according to the user's intention.
- the distance measuring device 10F according to the fourth embodiment is different from the distance measuring device 10A in that an imaging position distance deriving program 106F is stored in the secondary storage unit 104 instead of the imaging position distance deriving program 106A. Further, the distance measuring device 10F differs from the distance measuring device 10A in that a three-dimensional coordinate derivation program 108B is stored in the secondary storage unit 104 instead of the three-dimensional coordinate derivation program 108A.
- the CPU 100 operates as the acquisition unit 110F, the derivation unit 111F, and the execution unit 112F by executing the imaging position distance derivation program 106F (see FIG. 9).
- the acquisition unit 110F corresponds to the acquisition unit 110A described in the first embodiment
- the derivation unit 111F corresponds to the derivation unit 111A described in the first embodiment
- the execution unit 112F corresponds to the first embodiment. This corresponds to the execution unit 112A described above.
- the fifth embodiment only the parts different from the first embodiment will be described with respect to the acquisition unit 110F, the derivation unit 111F, and the execution unit 112F.
- FIG. 13 and FIGS. 39 to 41 are shown with respect to an imaging position distance derivation process realized by the CPU 100 executing the imaging position distance derivation program 106F.
- the description will be given with reference.
- the same steps as those in the flowcharts shown in FIG. 13 and FIGS. 12 to 16 are denoted by the same step numbers, and the description thereof is omitted.
- the description will be made on the assumption that the determination is negative in step 252 shown in FIG.
- the imaging position distance derivation process according to the sixth embodiment is different from the imaging position distance derivation process according to the first embodiment described above in place of the processes of step 200, step 204, and step 206. The difference is that the processing in step 604 is included (see FIGS. 12 and 39).
- the imaging position distance derivation process according to the sixth embodiment is different from the imaging position distance derivation process according to the first embodiment described above in that the processes in steps 608 to 616 are performed instead of the processes in steps 308 and 310. It has a different point (see FIGS. 16 and 40).
- the imaging position distance derivation processing according to the sixth embodiment is different from the imaging position distance derivation processing according to the first embodiment described above in that the processing of steps 618 to 626 is performed instead of the processing of steps 274 to 282. It has a different point (see FIGS. 15 and 41).
- the acquisition unit 110F determines whether distance measurement and imaging have been executed at the first position by the distance measuring device 10F.
- the first position may be a position where the outer wall surface 121 can be irradiated with laser light and an area including the outer wall surface 121 can be imaged as a subject.
- step 600 if distance measurement and imaging have not been executed at the first position by the distance measuring device 10F, the determination is negative and the routine proceeds to step 202.
- step 600 when distance measurement and imaging are executed at the first position by the distance measuring device 10F, the determination is affirmed and the process proceeds to step 602.
- the acquisition unit 110F includes a reference distance that is a distance measured at the first position, and a first captured image signal that indicates the first captured image obtained by performing imaging at the first position. To get. Then, the acquisition unit 110F stores the acquired reference distance and the first captured image signal in a predetermined storage area of the secondary storage unit 104, and then proceeds to step 604.
- step 604 the acquisition unit 110F causes the display unit 86 to start displaying the first captured image indicated by the acquired first captured image signal, as shown in FIG. Transition.
- step 606 shown in FIG. 40 the execution unit 112F determines the first plane equation, which is the plane equation shown in the equation (6), based on the irradiation position real space coordinates derived in the process of step 242. Move to 608.
- step 608 the execution unit 112F derives the imaging position distance based on the feature pixel three-dimensional coordinates and the first plane equation, and then proceeds to step 610.
- step 610 the execution unit 112F calculates the reference distance, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M acquired by the acquisition unit 110F in the process of step 602, based on Equation (2).
- the reference irradiation position real space coordinates are derived, and then the process proceeds to step 612.
- the reference distance used in the processing of step 610 is a distance corresponding to the distance L described in the first embodiment.
- step 612 the execution unit 112F determines the second plane equation, which is the plane equation shown in Equation (6), based on the reference irradiation position real space coordinates derived in the processing of step 610, and then proceeds to step 614. To do. That is, in this step 612, the execution unit 112F substitutes the reference irradiation position real space coordinates derived in the processing of step 610 into a formula (6) by a, b, c derived in the processing of step 306. Determine d in equation (6). Since a, b, and c of Expression (6) are derived in the process of Step 306, when d of Expression (6) is determined in the process of Step 612, the second plane equation is determined.
- the second plane equation is determined.
- a reference imaging position distance is derived based on the feature pixel three-dimensional coordinates and the second plane equation, and then the process proceeds to step 616.
- the reference imaging position distance corresponds to, for example, “B” shown in Equation (7), and is derived by substituting the first feature pixel three-dimensional coordinates into the second plane equation.
- step 616 the execution unit 112F refers to the reference imaging position distance derived in step 614 and adjusts the imaging position distance derived in step 608 to derive the final imaging position distance. Thereafter, the process proceeds to step 618 shown in FIG.
- adjusting the imaging position distance means, for example, obtaining an average value of the imaging position distance and the reference imaging position distance, and multiplying the average value of the imaging position distance and the reference imaging position distance by the first adjustment coefficient. Or, it means multiplying the imaging position distance by the second adjustment coefficient.
- the first adjustment coefficient and the second adjustment coefficient are both coefficients that are uniquely determined according to, for example, the reference imaging position distance.
- the first adjustment coefficient is, for example, a correspondence table in which the reference imaging position distance and the first adjustment coefficient are associated in advance, or the reference imaging position distance is an independent variable, and the first adjustment coefficient is dependent. It is derived from an arithmetic expression that is a variable.
- the second adjustment coefficient is similarly derived.
- the correspondence table or the calculation formula is for deriving derived from the result of the computer simulation based on the test of the distance measuring device 10F or the design specification of the distance measuring device 10F at the stage before the shipment of the distance measuring device 10F. Derived from a table or arithmetic expression.
- an average value of the imaging position distance and the reference imaging position distance a value obtained by multiplying the average value of the imaging position distance and the reference imaging position distance by the first adjustment coefficient, or A value obtained by multiplying the imaging position distance by the second adjustment coefficient can be given.
- step 618 shown in FIG. 41 the execution unit 112F determines whether or not the final imaging position distance is already displayed on the display unit 86. If the final imaging position distance has already been displayed on the display unit 86 at step 618, the determination is affirmed and the routine proceeds to step 620. In step 618, if the final imaging position distance is not already displayed on the display unit 86, the determination is negative and the process proceeds to step 622.
- step 620 the execution unit 112F ends the display of the final imaging position distance on the display unit 86, and then proceeds to step 622.
- step 622 the execution unit 112F causes the display unit 86 to start display in which the final imaging position distance derived in step 616 is superimposed on the second captured image, and thereafter The process proceeds to step 624.
- the numerical value “1444621.7” corresponds to the final imaging position distance derived by the processing in step 616, and the unit is millimeters.
- step 624 the execution unit 112F generates a still image file from the second captured image signal acquired in the process of step 238, and then proceeds to step 282.
- the second captured image used in the process of step 624 is the latest second captured image, and is an example of the “latest captured image” according to the technique of the present disclosure.
- step 626 the execution unit 112F stores the still image file, the latest distance, and the latest final imaging position distance in the secondary storage unit 104, and then proceeds to step 284.
- the latest distance and the latest final imaging position distance stored in the secondary storage unit 104 by executing the processing of step 626 are examples of “information based on the latest distance” according to the technology of the present disclosure. It is.
- the latest final imaging position distance stored in the secondary storage unit 104 by executing the process of step 282 is the latest final imaging position distance of the final imaging position distances derived in the process of step 616. It is.
- step 650 the execution unit 112F determines whether or not the final imaging position distance has already been derived in the process of step 616 included in the imaging position distance derivation process. .
- step 650 when the final imaging position distance is not derived in the process of step 616 included in the imaging position distance deriving process, the determination is negative and the process proceeds to step 658.
- step 650 if the final imaging position distance has already been derived in the processing of step 616 included in the imaging position distance derivation process, the determination is affirmed and the routine proceeds to step 652.
- step 652 the execution unit 112F determines whether or not the derivation start condition described in the first embodiment is satisfied. If it is determined in step 652 that the derivation start condition is not satisfied, the determination is negative and the process proceeds to step 658. If the derivation start condition is satisfied in step 652, the determination is affirmed and the routine proceeds to step 654.
- step 654 the execution unit 112F determines the designated pixel three-dimensional coordinates based on the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, the dimensions of the imaging pixel 60A1, and the mathematical expression (1). Then, the process proceeds to step 656.
- the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are substituted into the mathematical formula (1), so that the designated pixel three-dimensional. Coordinates are derived.
- step 656 as shown in FIG. 44 as an example, the execution unit 112F causes the display unit 86 to display the designated pixel three-dimensional coordinates derived in the process of step 654 superimposed on the second captured image.
- the execution unit 112F stores the designated pixel three-dimensional coordinates derived in step 654 in a predetermined storage area, and then proceeds to step 658.
- (20160, 50132, 137810) corresponds to the designated pixel three-dimensional coordinates derived in the processing of step 454.
- the designated pixel three-dimensional coordinates are displayed close to the target pixel 126.
- step 658 the execution unit 184 determines whether a condition for ending the three-dimensional coordinate derivation process is satisfied. If it is determined in step 658 that the conditions for ending the three-dimensional coordinate derivation process are not satisfied, the determination is negative and the routine proceeds to step 650. If the condition for ending the three-dimensional coordinate derivation process is satisfied in step 658, the determination is affirmed and the three-dimensional coordinate derivation process is ended.
- the distance from the first position to the subject is measured, and the reference distance that is the measured distance is acquired by the acquisition unit 110F (step 602).
- the execution unit 112F derives the reference irradiation position real space coordinates based on the reference distance (step 610).
- the execution unit 112F performs based on the target pixel coordinates, the corresponding target pixel coordinates, the three characteristic pixel coordinates, the corresponding characteristic pixel coordinates, the reference irradiation position real space coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1.
- the reference imaging position distance is derived (step 614).
- the execution unit 112F refers to the imaging position distance for reference and adjusts the imaging position distance to derive the final imaging position distance (step 616). Therefore, according to the distance measuring device 10F, the distance between the first imaging position and the second imaging position can be derived with higher accuracy than when the reference imaging position distance is not used.
- the designated pixel three-dimensional coordinates are derived based on the final imaging position distance derived by the imaging position distance deriving process (see FIG. 43). Therefore, according to the distance measuring device 10F, the designated pixel three-dimensional coordinates can be derived with higher accuracy than when the final imaging position distance is not used.
- the designated pixel three-dimensional coordinates are defined based on the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 ( Formula (1) reference). Therefore, according to the distance measuring device 10F, when the designated pixel three-dimensional coordinate is not defined based on the final imaging position distance, the target pixel coordinate, the corresponding target pixel coordinate, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1. In comparison, the designated pixel three-dimensional coordinates can be derived with high accuracy.
- the distance measured based on the laser light emitted from the first position is used as the reference distance, but the technology of the present disclosure is not limited to this.
- the distance measured based on the laser light emitted from the second position may be used as the reference distance.
- the imaging position distance deriving programs 106A, 106B, 106C, 106D, 106E, and 106F are referred to as “imaging position distance deriving programs” without reference numerals when there is no need to distinguish between them.
- the three-dimensional coordinate derivation programs 108A and 108B are referred to as “three-dimensional coordinate derivation programs” without reference numerals.
- the imaging position distance derivation program and the three-dimensional coordinate derivation program are collectively referred to as a “derivation program”.
- the acquisition units 110A, 110B, 110C, 110D, 110E, and 110F are referred to as “acquisition unit 110” when it is not necessary to distinguish between them.
- the derivation units 111A, 111B, 111C, 111D, 111E, and 111F are referred to as “derivation unit 111” when it is not necessary to distinguish between them.
- the execution units 112A, 112B, 112C, 112D, 112E, and 112F are referred to as “execution unit 112” when it is not necessary to distinguish between them.
- an information processing system 700 includes distance measuring devices 10G1 and 10G2 and a PC 702.
- the PC 702 can communicate with the distance measuring devices 10G1 and 10G2.
- the PC 702 is an example of an information processing apparatus according to the technology of the present disclosure.
- the distance measuring device 10G1 is arranged at the first position, and the distance measuring device 10G2 is arranged at a second position different from the first position.
- the distance measuring devices 10G1 and 10G2 have the same configuration.
- the distance measuring devices 10G1 and 10G2 are referred to as “ranging device 10G” when it is not necessary to distinguish between them.
- the distance measuring device 10G is different from the distance measuring device 10A in that it includes an imaging device 15 instead of the imaging device 14.
- the imaging device 15 is different from the imaging device 14 in that an imaging device body 19 is provided instead of the imaging device body 18.
- the imaging device main body 19 is different from the imaging device main body 18 in having a communication I / F 83.
- the communication I / F 83 is connected to the bus line 84 and operates under the control of the main control unit 62.
- the communication I / F 83 is connected to a communication network (not shown) such as the Internet, and controls transmission / reception of various information to / from the PC 702 connected to the communication network.
- a communication network such as the Internet
- the PC 702 includes a main control unit 703.
- the main control unit 703 includes a CPU 704, a primary storage unit 706, and a secondary storage unit 708.
- the CPU 704, the primary storage unit 706, and the secondary storage unit 708 are connected to each other via the bus line 710.
- the PC 702 includes a communication I / F 712.
- the communication I / F 712 is connected to the bus line 710 and operates under the control of the main control unit 703.
- the communication I / F 712 is connected to a communication network and manages transmission / reception of various information to / from the distance measuring device 10G connected to the communication network.
- the PC 702 includes a reception unit 713 and a display unit 714.
- the reception unit 713 is connected to the bus line 710 via a reception I / F (not shown), and the reception I / F receives an instruction content signal indicating the content of the instruction received by the reception unit 713.
- the data is output to 703.
- the reception unit 713 is realized by, for example, a keyboard, a mouse, and a touch panel.
- the display unit 714 is connected to the bus line 710 via a display control unit (not shown), and displays various types of information under the control of the display control unit.
- the display unit 714 is realized by an LCD, for example.
- the secondary storage unit 708 stores the imaging position distance derivation program and the three-dimensional coordinate derivation program described in the above embodiments.
- the CPU 704 acquires the first captured image signal, the target pixel coordinate, the distance, and the like from the distance measuring device 10G1 via the communication I / F 712. In addition, the CPU 704 acquires the second captured image signal, the corresponding target pixel coordinates, the distance, and the like from the distance measuring device 10G2 via the communication I / F 712.
- the CPU 704 reads out the imaging position distance derivation program and the three-dimensional coordinate derivation program from the secondary storage unit 708, develops them in the primary storage unit 706, and executes the imaging position distance derivation program and the three-dimensional coordinate derivation program.
- the imaging position distance derivation program and the three-dimensional coordinate derivation program are collectively referred to as “derivation program”.
- the CPU 704 operates as the acquisition unit 110, the derivation unit 111, and the execution unit 112 by executing the imaging position distance derivation program. For example, when the CPU 704 executes the imaging position distance deriving program 106A, the imaging position distance deriving process described in the first embodiment is realized. Further, for example, the CPU 704 executes the three-dimensional coordinate derivation program 108A, thereby realizing the three-dimensional coordinate derivation process described in the first embodiment.
- the PC 702 acquires the first captured image signal, the second captured image signal, the target pixel coordinate, the distance, and the like from the distance measuring device 10E via the communication I / F 712, and executes the derivation program.
- the same operations and effects as those of the above embodiments can be obtained.
- the distance measuring device 10A is realized by the distance measuring unit 12 and the imaging device 14 is exemplified.
- the device 10H will be described. Note that in the eighth embodiment, the same components as those in the above embodiments are denoted by the same reference numerals, description thereof will be omitted, and only parts different from those in the above embodiments will be described.
- the distance measuring device 10H according to the eighth embodiment is different from the distance measuring device 10A according to the first embodiment in that an imaging device 800 is provided instead of the imaging device 14. .
- the distance measuring device 10H is different from the distance measuring device 10A in that it includes a smart device 802.
- the imaging device 800 is different from the imaging device 14 in that it has an imaging device body 803 instead of the imaging device body 18.
- the imaging apparatus body 803 is different from the imaging apparatus body 18 in that the imaging apparatus body 803 includes a wireless communication unit 804 and a wireless communication antenna 806.
- the wireless communication unit 804 is connected to the bus line 84 and the wireless communication antenna 806.
- the main control unit 62 outputs transmission target information, which is information to be transmitted to the smart device 802, to the wireless communication unit 804.
- the wireless communication unit 804 transmits the transmission target information input from the main control unit 62 to the smart device 802 via the wireless communication antenna 806 by radio waves.
- the radio communication unit 804 acquires a signal corresponding to the received radio wave and outputs the acquired signal to the main control unit 62.
- the smart device 802 includes a CPU 808, a primary storage unit 810, and a secondary storage unit 812.
- the CPU 808, the primary storage unit 810, and the secondary storage unit 812 are connected to the bus line 814.
- the CPU 808 controls the entire distance measuring device 10H including the smart device 802.
- the primary storage unit 810 is a volatile memory used as a work area or the like when executing various programs.
- An example of the primary storage unit 810 is a RAM.
- the secondary storage unit 812 is a non-volatile memory that stores in advance a control program for controlling the overall operation of the distance measuring apparatus 10H including the smart device 802, various parameters, or the like.
- An example of the secondary storage unit 812 is a flash memory or an EEPROM.
- the smart device 802 includes a display unit 815, a touch panel 816, a wireless communication unit 818, and a wireless communication antenna 820.
- the display unit 815 is connected to the bus line 814 via a display control unit (not shown), and displays various types of information under the control of the display control unit.
- the display unit 815 is realized by an LCD, for example.
- the touch panel 816 is overlaid on the display screen of the display unit 815 and accepts contact by an indicator.
- the touch panel 816 is connected to the bus line 814 via a touch panel I / F (not shown), and outputs position information indicating the position touched by the indicator to the touch panel I / F.
- the touch panel I / F operates the touch panel I / F in accordance with an instruction from the CPU 808, and outputs position information input from the touch panel 816 to the CPU 808.
- the display unit 815 includes a measurement / imaging button 90A, an imaging button 90B, an imaging system operation mode switching button 90C, a wide-angle instruction button 90D, a telephoto instruction button 90E, an imaging position distance derivation button 90F, a three-dimensional coordinate derivation button 90G, and the like. Are displayed (see FIG. 49).
- a measurement / imaging button 90A1 that functions as the measurement / imaging button 90A is displayed as a soft key on the display unit 815, and is pressed by the user via the touch panel 816.
- an imaging button 90B1 that functions as the imaging button 90B is displayed as a soft key, and is pressed by the user via the touch panel 816.
- an imaging system operation mode switching button 90 ⁇ / b> C ⁇ b> 1 that functions as the imaging system operation mode switching button 90 ⁇ / b> C is displayed as a soft key on the display unit 815 and pressed by the user via the touch panel 816.
- the display unit 815 displays a wide-angle instruction button 90D1 that functions as the wide-angle instruction button 90D as a soft key, and is pressed by the user via the touch panel 816.
- a telephoto instruction button 90E1 that functions as the telephoto instruction button 90E is displayed as a soft key on the display unit 815, and is pressed by the user via the touch panel 816.
- an imaging position distance deriving button 90F1 that functions as the imaging position distance deriving button 90F is displayed as a soft key and is pressed by the user via the touch panel 816.
- the display unit 815 displays a 3D coordinate derivation button 90G1 that functions as the 3D coordinate derivation button 90G as a soft key, and is pressed by the user via the touch panel 816.
- the wireless communication unit 818 is connected to the bus line 814 and the wireless communication antenna 820.
- the wireless communication unit 818 transmits a signal input from the CPU 808 to the imaging apparatus main body 803 via radio waves via the wireless communication antenna 820.
- the radio communication unit 818 acquires a signal corresponding to the received radio wave and outputs the acquired signal to the CPU 808. Accordingly, the imaging apparatus main body 803 is controlled by the smart device 802 by performing wireless communication with the smart device 802.
- the secondary storage unit 812 stores a derivation program.
- the CPU 808 reads out the derived program from the secondary storage unit 812, develops it in the primary storage unit 810, and executes the derived program.
- the CPU 808 operates as the acquisition unit 110, the derivation unit 111, and the execution unit 112 by executing the imaging position distance derivation program. For example, when the CPU 808 executes the imaging position distance deriving program 106A, the imaging position distance deriving process described in the first embodiment is realized. Further, for example, the CPU 808 executes the three-dimensional coordinate derivation program 108A, thereby realizing the three-dimensional coordinate derivation process described in the first embodiment.
- the smart device 802 executes the derivation program, so that the same operations and effects as in the above embodiments can be obtained. Further, according to the distance measuring device 10H, compared with the case where the imaging position distance derivation process and the three-dimensional derivation process are executed by the imaging apparatus 800, the load applied to the imaging apparatus 800 in obtaining the effects described in the above embodiments. Can be reduced.
- the corresponding target pixel is specified by performing image analysis using the second captured image as an analysis target, and the corresponding target pixel coordinates specifying the specified corresponding target pixel are acquired (
- the technology of the present disclosure is not limited to this.
- the user may designate a pixel corresponding to the target pixel from the second captured image via the touch panel 88 as the corresponding target pixel.
- the execution unit 112 has exemplified the case where the irradiation position real space coordinates, the plane orientation, the imaging position distance, the designated pixel three-dimensional coordinates, and the like are derived using the arithmetic expressions.
- the technology is not limited to this.
- the execution unit 112 uses the table with the independent variable of the arithmetic expression as an input and the output of the dependent variable of the arithmetic expression as an output, the irradiation position real space coordinates, the plane orientation, the imaging position distance, the specified pixel three-dimensional coordinates, etc. May be derived.
- the derivation program may be first stored in an arbitrary portable storage medium 900 such as an SSD (Solid State Drive) or a USB (Universal Serial Bus) memory.
- the derivation program of the storage medium 900 is installed in the distance measuring device 10A (10B, 10C, 10D, 10E, 10F) (hereinafter referred to as “the distance measuring device 10A etc.”) or the PC 702.
- the installed derivation program is executed by the CPU 100 (704).
- the derived program is stored in a storage unit such as the distance measuring device 10A or the like or another computer or server device connected to the PC 702 via a communication network (not shown), and the derived program is stored in the distance measuring device 10A or the like. It may be downloaded on demand. In this case, the downloaded derivation program is executed by the CPU 100 (704).
- the case where various types of information such as the irradiation position mark 136, the imaging position distance, and the designated pixel three-dimensional coordinates are displayed on the display unit 86 is illustrated, but the technology of the present disclosure is limited to this. It is not something.
- various types of information may be displayed on a display unit of an external device that is used by being connected to the distance measuring device 10A or the like or the PC 702.
- the external device there is a PC or a glasses-type or watch-type wearable terminal device.
- the irradiation position mark 136, the imaging position distance, the specified pixel three-dimensional coordinates, and the like are visually displayed on the display unit 86 , but the technology of the present disclosure is limited to this. is not.
- an audible display such as sound output by a sound reproduction device or a permanent visual display such as output of a printed matter by a printer may be performed instead of the visible display, or may be used in combination.
- the irradiation position mark 136, the imaging position distance, the specified pixel three-dimensional coordinates, and the like are displayed on the display unit 86 , but the technology of the present disclosure is not limited to this. Absent. For example, at least one of the irradiation position mark 136, the imaging position distance, the designated pixel three-dimensional coordinates, and the like is displayed on a display unit (not shown) different from the display unit 86, and the rest is displayed on the display unit 86. You may make it do. Each of the irradiation position mark 136, the imaging position distance, the designated pixel three-dimensional coordinates, and the like may be individually displayed on a plurality of display units including the display unit 86.
- laser light is exemplified as distance measurement light.
- the technology of the present disclosure is not limited to this, and any directional light that is directional light may be used. Good.
- it may be directional light obtained by a light emitting diode (LED: Light Emitting Diode) or a super luminescent diode (SLD).
- the directivity of the directional light is preferably the same as the directivity of the laser light.
- the directivity can be used for ranging within a range of several meters to several kilometers. preferable.
- each process included in the imaging position distance derivation process and the three-dimensional coordinate derivation process may be realized only by a hardware configuration such as an ASIC or a combination of a software configuration using a computer and a hardware configuration. May be.
- the distance measuring unit 12 is attached to the side surface of the imaging apparatus main body 18 included in the distance measuring apparatus 10A and the like, but the technology of the present disclosure is limited to this. It is not a thing.
- the distance measuring unit 12 may be attached to the upper surface or the lower surface of the imaging apparatus main body 18.
- a distance measuring device 10I may be applied instead of the distance measuring device 10A or the like.
- the distance measuring device 10I has a distance measuring unit 12A instead of the distance measuring unit 12 as compared with the distance measuring device 10A and the like, and an image pickup device main body 18A instead of the image pickup device main body 18. Is different.
- the distance measuring unit 12A is housed in the housing 18A1 of the image pickup apparatus body 18A, and the objective lenses 32 and 38 are the front side of the distance measuring apparatus 10I (the image pickup lens 50 is exposed). Side) is exposed from the housing 18A1.
- the distance measuring unit 12A is preferably arranged so that the optical axes L1 and L2 are set at the same height in the vertical direction. Note that an opening (not shown) through which the distance measuring unit 12A can be inserted into and removed from the housing 18A1 may be formed in the housing 18A1.
- the distance measuring device 10A or the like may stop capturing a live view image, which is an example of a moving image, during the measurement period of the distance to the subject.
- the CPU 100 captures the imaging device 14 and the ranging unit so that the timing at which a live view image including a plurality of second captured images is captured and the timing at which the distance to the subject is measured alternately arrive. 12 is controlled. That is, while the distance to the subject is measured, the CPU 100 stops the imaging device 14 from capturing the live view image, causes the display unit 86 to hide the second captured image, "Medium" message is displayed. Further, the CPU 100 causes the imaging device 14 to capture a live view image and causes the display unit 86 to display a second captured image while the distance to the subject is not measured. Accordingly, the distance measuring device 10A and the like can suppress power consumption compared to a case where the distance to the subject is measured while the live image is being captured.
- the half angle of view ⁇ used in the processing is derived based on the following formula (10).
- “f 0 ” refers to the focal length.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
導出部は、取得部により取得された動画像に含まれる複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、実行部は、複数の第2撮像画像の各々について、導出部により導出された照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、位置特定可能状態で実行される処理として予め定められた処理を実行する。
Description
本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
特開2012-27000号公報には、単一のカメラで被計測対象上の特徴点の3次元位置座標を導出する画像計測処理装置が開示されている。特開2012-27000号公報に記載の画像計測処理装置では、次のステップ1~5により、3次元位置座標を導出する。
ステップ1で、画像計測処理装置は、カメラの内部標定要素と被計測対象物の少なくとも4つの特徴点の実座標とを予め記憶する。ステップ2で、画像計測処理装置は、カメラにより撮像されて得られた画像であって、4つの特徴点をカメラ視野内に含む画像を取り込む。ステップ3で、画像計測処理装置は、取り込んだ画像上の特徴点のカメラビュー座標について内部標定要素に基づき画像上の歪みを補正する。ステップ4で、画像計測処理装置は、特徴点のカメラビュー座標及び実座標から画像撮影時の被計測対象物を基準とした座標系におけるカメラ位置及びカメラ角度を導出する。ステップ5で、画像計測処理装置は、導出したカメラ位置及びカメラ角度を基準位置及び基準角度にする座標変換を実行することで、カメラ基準の座標系における特徴点の3次元座標を導出する。
特開2013-122434号公報には、レーザ光を照射する照射光源を有する照射手段が固定された単眼の撮像装置を備えた3次元位置計測装置が開示されている。
特開2013-122434号公報に記載の3次元位置計測装置は、校正プレートにレーザ光を照射しつつ、校正プレートを移動させて校正プレートを被写体として撮像するか、又は、撮像装置を移動させて2箇所の撮像位置から校正プレートを被写体として撮像する。また、特開2013-122434号公報に記載の3次元位置計測装置は、撮像して得た各画像から、各画像でのレーザ光の照射位置の3次元座標を算出し、レーザ光の方向ベクトル又は平面方程式を算出する。そして、特開2013-122434号公報に記載の3次元位置計測装置は、算出した方向ベクトル又は平面方程式を用いて、レーザ光の被照射物体の3次元座標を算出する。
国際公開第97/06406号公報には、基準面からレーザ光の照射位置までの距離を計測する距離計測装置が開示されている。国際公開第97/06406号公報に記載の距離計測装置は、計測対象とする物体表面の特徴に応じて計測に誤差が生じることに着目し、撮像画像のエッジ画像を生成し、生成したエッジ画像に基づいて空間の各要素の座標位置の中から物体の輪郭を示す座標位置を特定する。
しかしながら、特開2012-27000号公報、特開2013-122434号公報、及び国際公開第97/06406号公報に記載の技術は何れも、撮像されて得られた撮像画像内に特定可能な特徴点が存在していることが前提の技術であり、特定可能な特徴点が存在しない被写体に対して撮像が行われた場合には、3次元座標を導出することができない。なお、ここで言う「3次元座標」とは、被写体における指定された位置を特定する3次元座標を指す。
3次元座標を導出する他の方法としては、測距及び撮像を行う機能を有する測距装置により、第1撮像画像、第2撮像画像、及び撮像位置距離に基づいて3次元座標を導出する方法が考えられる。なお、測距とは、計測対象となる被写体に向けて射出されたレーザ光の往復時間を基に被写体までの距離を計測することを指す。また、第1撮像画像とは、被写体が第1撮像位置から撮像されて得られた画像を指し、第2撮像画像とは、第1撮像位置からの撮像対象とされた被写体を含む被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた画像を指す。また、撮像位置距離とは、第1撮像位置と第2撮像位置との距離を指す。
ところで、第1撮像画像、第2撮像画像、及び撮像位置距離に基づいて3次元座標を導出する場合、撮像位置距離を精度良く導出する必要がある。被写体に特定可能な特徴点が含まれている場合、特定可能な特徴点を計測対象として測距を行い、特定可能な特徴点を含む被写体を異なる撮像位置の各々から撮像することができれば、撮像位置距離を導出することが可能となる。
しかし、必ずしも被写体に特定可能な特徴点が存在しているわけではない。また、仮に、被写体に特定可能な特徴点が存在していたとしても、測距装置内の部品の交換又は画角の変更等により、レーザ光の実際の照射位置が被写体での特定可能な特徴点と一致しなくなることが考えられる。逆に、レーザ光の実際の照射位置が被写体での特定可能な特徴点と一致することも考えられる。このような異なる状態を測距装置が即時的に認識して状態に応じた処理を実行すること、或いは、上記の異なる状態をユーザが即時的に認識して測距装置に対して状態に応じた処理を実行させることは、作業の効率化を図る上で重要な要素となり得る。
本発明の一つの実施形態は、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる情報処理装置、情報処理方法、及びプログラムを提供する。
本発明の第1の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得する取得部と、取得部により取得された動画像に含まれる複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、複数の第2撮像画像の各々について、導出部により導出された照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、位置特定可能状態で実行される処理として予め定められた処理を実行する実行部と、を含む。
従って、本発明の第1の態様に係る情報処理装置は、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第2の態様に係る情報処理装置は、本発明の第1の態様に係る情報処理装置において、予め定められた処理は、位置特定可能状態であることを通知する位置特定可能状態通知処理を含む処理である、とされている。
従って、本発明の第2の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置であることをユーザに即時的に認識させることができる。
本発明の第3の態様に係る情報処理装置は、本発明の第2の態様に係る情報処理装置において、導出部は、複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、予め定められた処理は、位置特定可能状態であることが通知されている状態で、第1受付部によって既定の指示が受け付けられた場合に、照射位置実空間座標と、照射位置画素座標と、照射位置画素座標により特定される画素の位置に対応する画素の位置であって、第1撮像画像における画素の位置を特定する照射位置対応画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である、とされている。
従って、本発明の第3の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置の場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
本発明の第4の態様に係る情報処理装置は、本発明の第1の態様から第3の態様の何れか1つに係る情報処理装置において、実行部は、複数の第2撮像画像の各々について、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、位置特定不可能状態であることを通知する位置特定不可能状態通知処理を更に実行する、とされている。
従って、本発明の第4の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置であることをユーザに即時的に認識させることができる。
本発明の第5の態様に係る情報処理装置は、本発明の第4の態様に係る情報処理装置において、導出部は、複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、実行部は、位置特定不可能状態が通知されている状態で、第2受付部によって既定の指示が受け付けられた場合に、第1撮像画像と第2撮像画像との各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を実行する、とされている。
従って、本発明の第5の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置の場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
本発明の第6の態様に係る情報処理装置は、本発明の第1の態様に係る情報処理装置において、導出部は、複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、予め定められた処理は、照射位置実空間座標と、照射位置画素座標と、照射位置画素座標により特定される画素の位置に対応する画素の位置であって、第1撮像画像における画素の位置を特定する照射位置対応画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である、とされている。
従って、本発明の第6の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置の場合に、撮像位置距離を即時的に導出することができる。
本発明の第7の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得する取得部と、取得部により取得された動画像に含まれる複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、複数の第2撮像画像の各々について、導出部により導出された照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、位置特定不可能状態で実行される処理として予め定められた処理を実行する実行部と、を含む。
従って、本発明の第7の態様に係る情報処理装置は、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第8の態様に係る情報処理装置は、本発明の第7の態様に係る情報処理装置において、予め定められた処理は、位置特定不可能状態であることを通知する位置特定不可能状態通知処理を含む処理である、とされている。
従って、本発明の第8の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置であることをユーザに即時的に認識させることができる。
本発明の第9の態様に係る情報処理装置は、本発明の第8の態様に係る情報処理装置において、導出部は、複数の撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、予め定められた処理は、位置特定不可能状態であることが通知されている状態で、第1受付部によって既定の指示が受け付けられた場合に、第1撮像画像と第2撮像画像との各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である、とされている。
従って、本発明の第9の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置の場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
本発明の第10の態様に係る情報処理装置は、本発明の第7の態様から第9の態様の何れか1つにおいて、実行部は、複数の第2撮像画像の各々について、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素である位置特定可能状態の場合に、位置特定可能状態であることを通知する位置特定可能状態通知処理を更に実行する、とされている。
従って、本発明の第10の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置であることをユーザに即時的に認識させることができる。
本発明の第11の態様に係る情報処理装置は、本発明の第10の態様に係る情報処理装置において、導出部は、複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、実行部は、位置特定可能状態であることが通知されている状態で、第2受付部によって既定の指示が受け付けられた場合に、照射位置実空間座標と、照射位置画素座標と、照射位置画素座標により特定される画素の位置に対応する画素の位置であって、第1撮像画像における画素の位置を特定する照射位置対応画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を実行する、とされている。
従って、本発明の第11の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置の場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
本発明の第12の態様に係る情報処理装置は、本発明の第7の態様に係る情報処理装置において、導出部は、複数の第2撮像画像の各々について、取得部により取得された対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、予め定められた処理は、第1撮像画像と第2撮像画像との各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である、とされている。
従って、本発明の第12の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置の場合に、撮像位置距離を即時的に導出することができる。
本発明の第13の態様に係る情報処理装置は、本発明の第1の態様から第12の態様の何れか1つの態様に係る情報処理装置において、予め定められた処理は、複数の第2撮像画像のうち既定のタイミングで撮像されて得られた第2撮像画像、及び取得部により取得された距離のうちの既定のタイミングに対応するタイミングで取得された距離に基づく情報の少なくとも一方を記憶部に記憶する記憶処理を含む処理である、とされている。
従って、本発明の第13の態様に係る情報処理装置は、指向性光による被写体に対する照射位置に応じて、複数の第2撮像画像のうち既定のタイミングで撮像されて得られた第2撮像画像、及び取得部により取得された距離のうちの既定のタイミングに対応するタイミングで取得された距離に基づく情報の少なくとも一方を即時的に記憶部に記憶することができる。
本発明の第14の態様に係る情報処理装置は、本発明の第1の態様から第13の態様の何れか1つの態様に係る情報処理装置において、指向性光を射出し、反射光を受光することにより距離を計測する計測部を更に含み、取得部は、計測部により計測された距離を取得する、とされている。
従って、本発明の第14の態様に係る情報処理装置は、計測部により計測された距離を照射位置画素座標の導出に用いることができる。
本発明の第15の態様に係る情報処理装置は、本発明の第1の態様から第14の態様の何れか1つの態様に係る情報処理装置において、被写体を撮像する撮像部を更に含み、取得部は、撮像部により撮像されて得られた動画像を取得する、とされている。
従って、本発明の第15の態様に係る情報処理装置は、撮像部により撮像されて得られた動画像を用いて、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第16の態様に係る情報処理装置は、本発明の第1の態様から第15の態様の何れか1つの態様に係る情報処理装置において、取得部は、動画像が撮像されている間に指向性光が被写体に射出されて反射光が受光されることにより計測された被写体までの距離を取得する、とされている。
従って、本発明の第16の態様に係る情報処理装置は、動画像を撮像している間に、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第17の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した動画像に含まれる複数の第2撮像画像の各々について、取得した対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、複数の第2撮像画像の各々について、導出した照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、位置特定可能状態で実行される処理として予め定められた処理を実行することを含む。
従って、本発明の第17の態様に係る情報処理方法は、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第18の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した動画像に含まれる複数の第2撮像画像の各々について、取得した対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、複数の第2撮像画像の各々について、導出した照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、位置特定不可能状態で実行される処理として予め定められた処理を実行することを含む。
従って、本発明の第18の態様に係る情報処理方法は、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第19の態様に係るプログラムは、コンピュータに、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した動画像に含まれる複数の第2撮像画像の各々について、取得した対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、複数の第2撮像画像の各々について、導出した照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、位置特定可能状態で実行される処理として予め定められた処理を実行することを含む処理を実行させるためのプログラムである。
従って、本発明の第19の態様に係るプログラムは、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の第20の態様に係るプログラムは、コンピュータに、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した動画像に含まれる複数の第2撮像画像の各々について、取得した対応する距離に基づいて、指向性光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、複数の第2撮像画像の各々について、導出した照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、位置特定不可能状態で実行される処理として予め定められた処理を実行することを含む処理を実行させるためのプログラムである。
従って、本発明の第20の態様に係るプログラムは、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる。
本発明の一つの実施形態によれば、指向性光による被写体に対する照射位置に応じた処理を即時的に実行することができる、という効果が得られる。
以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。なお、本実施形態では、説明の便宜上、測距装置10Aから計測対象となる被写体までの距離を単に「距離」又は「被写体までの距離」とも称する。また、本実施形態では、被写体に対する画角を単に「画角」とも称する。
[第1実施形態]
一例として図1に示すように、本開示の技術に係る情報処理装置の一例である測距装置10Aは、測距ユニット12及び撮像装置14を備えている。なお、本実施形態では、測距ユニット12及び後述の測距制御部68(図2参照)が本開示の技術に係る計測部の一例であり、撮像装置14が本開示の技術に係る撮像部の一例である。
一例として図1に示すように、本開示の技術に係る情報処理装置の一例である測距装置10Aは、測距ユニット12及び撮像装置14を備えている。なお、本実施形態では、測距ユニット12及び後述の測距制御部68(図2参照)が本開示の技術に係る計測部の一例であり、撮像装置14が本開示の技術に係る撮像部の一例である。
撮像装置14は、レンズユニット16及び撮像装置本体18を備えており、レンズユニット16は、撮像装置本体18に対して着脱自在に取り付けられる。
撮像装置本体18の正面視左側面にはホットシュー(Hot Shoe)20が設けられており、測距ユニット12は、ホットシュー20に対して着脱自在に取り付けられる。
測距装置10Aは、測距ユニット12に測距用のレーザ光を射出させて測距を行う測距系機能と、撮像装置14に被写体を撮像させて撮像画像を得る撮像系機能とを備えている。なお、以下では、撮像画像を単に「画像」とも称する。また、以下では、説明の便宜上、鉛直方向において、測距ユニット12から射出されるレーザ光の光軸L1(図2参照)が、レンズユニット16の光軸L2(図2参照)と同一の高さであることを前提として説明する。
測距装置10Aは、測距系機能を働かせることで、1回の指示に応じて1回の計測シーケンス(図3参照)を行い、1回の計測シーケンスが行われることで最終的に1つの距離が出力される。
測距装置10Aは、撮像系機能の動作モードとして、静止画撮像モードと動画撮像モードとを有する。静止画撮像モードは、静止画像を撮像する動作モードであり、動画撮像モードは、動画像を撮像する動作モードである。静止画撮像モード及び動画撮像モードは、ユーザの指示に応じて選択的に設定される。
一例として図2に示すように、測距ユニット12は、射出部22、受光部24、及びコネクタ26を備えている。
コネクタ26は、ホットシュー20に接続可能とされており、コネクタ26がホットシュー20に接続された状態で、測距ユニット12は、撮像装置本体18の制御下で動作する。
射出部22は、LD(レーザダイオード:Laser Diode)30、集光レンズ(図示省略)、対物レンズ32、及びLDドライバ34を有する。
集光レンズ及び対物レンズ32は、LD30により射出されるレーザ光の光軸L1に沿って設けられており、LD30側から光軸L1に沿って集光レンズ及び対物レンズ32の順に配置されている。
LD30は、本開示の技術に係る指向性光の一例である測距用のレーザ光を発光する。LD30により発光されるレーザ光は、有色のレーザ光であり、例えば、射出部22から数メートル程度の範囲内であれば、レーザ光の照射位置は、実空間上で視覚的に認識され、撮像装置14によって撮像されて得られた撮像画像からも視覚的に認識される。
集光レンズは、LD30により発光されたレーザ光を集光し、集光したレーザ光を通過させる。対物レンズ32は、被写体に対向しており、集光レンズを通過したレーザ光を被写体に対して射出する。
LDドライバ34は、コネクタ26及びLD30に接続されており、撮像装置本体18の指示に従ってLD30を駆動させてレーザ光を発光させる。
受光部24は、PD(フォトダイオード:Photo Diode)36、対物レンズ38、及び受光信号処理回路40を有する。対物レンズ38は、PD36の受光面側に配置されており、射出部22により射出されたレーザ光が被写体に当たって反射したレーザ光である反射レーザ光は対物レンズ38に入射される。対物レンズ38は、反射レーザ光を通過させ、PD36の受光面に導く。PD36は、対物レンズ38を通過した反射レーザ光を受光し、受光量に応じたアナログ信号を受光信号として出力する。
受光信号処理回路40は、コネクタ26及びPD36に接続されており、PD36から入力された受光信号を増幅器(図示省略)で増幅し、増幅した受光信号に対してA/D(Analog/Digital)変換を行う。そして、受光信号処理回路40は、A/D変換によってデジタル化された受光信号を撮像装置本体18に出力する。
撮像装置14は、マウント42,44を備えている。マウント42は、撮像装置本体18に設けられており、マウント44は、レンズユニット16に設けられている。レンズユニット16は、マウント42にマウント44が結合されることにより撮像装置本体18に交換可能に装着される。
レンズユニット16は、撮像レンズ50、ズームレンズ52、ズームレンズ移動機構54、及びモータ56を備えている。
被写体からの反射光である被写体光は、撮像レンズ50に入射される。撮像レンズ50は、被写体光を通過させ、ズームレンズ52に導く。
ズームレンズ移動機構54には、光軸L2に対してスライド可能にズームレンズ52が取り付けられている。また、ズームレンズ移動機構54にはモータ56が接続されており、ズームレンズ移動機構54は、モータ56の動力を受けてズームレンズ52を光軸L2方向に沿ってスライドさせる。
モータ56は、マウント42,44を介して撮像装置本体18に接続されており、撮像装置本体18からの命令に従って駆動が制御される。なお、本実施形態では、モータ56の一例としてステッピングモータを適用している。従って、モータ56は、撮像装置本体18からの命令によりパルス電力に同期して動作する。
撮像装置本体18は、撮像素子60、主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78を備えている。また、撮像装置本体18は、タッチパネルI/F(Interface:インタフェース)79、受付I/F80、及びメディアI/F82を備えている。
主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78は、バスライン84に接続されている。また、タッチパネルI/F79、受付I/F80、及びメディアI/F82も、バスライン84に接続されている。
撮像素子60は、CMOS(Complementary Metal Oxide Semicondutor)型のイメージセンサであり、カラーフィルタ(図示省略)を備えている。カラーフィルタは、輝度信号を得るために最も寄与するG(Green:緑)に対応するGフィルタ、R(Red:赤)に対応するRフィルタ、及びB(Blue:青)に対応するBフィルタを含む。撮像素子60は、マトリクス状に配置された複数の撮像画素60A1を含む撮像画素群60Aを有する。各撮像画素60A1には、カラーフィルタに含まれるRフィルタ、Gフィルタ、及びBフィルタの何れかのフィルタが割り当てられており、撮像画素群60Aは、被写体光を受光することにより被写体を撮像する。
すなわち、ズームレンズ52を通過した被写体光は、撮像素子60の受光面である撮像面に結像され、被写体光の受光量に応じた電荷が撮像画素60A1に蓄積される。撮像素子60は、各撮像画素60A1に蓄積された電荷を、被写体光が撮像面で結像されて得られた被写体像に相当する画像を示す画像信号として出力する。
主制御部62は、バスライン84を介して測距装置10Aの全体を制御する。
モータドライバ72は、マウント42,44を介してモータ56に接続されており、主制御部62の指示に従ってモータ56を制御する。
撮像装置14は、画角変更機能を有する。画角変更機能は、ズームレンズ52を移動させることで画角を変更する機能であり、本実施形態において、画角変更機能は、ズームレンズ52、ズームレンズ移動機構54、モータ56、モータドライバ72、及び主制御部62によって実現される。なお、本実施形態では、ズームレンズ52による光学式の画角変更機能を例示しているが、本開示の技術はこれに限定されるものではなく、ズームレンズ52を利用しない電子式の画角変更機能であってもよい。
撮像素子ドライバ74は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60に駆動パルスを供給する。撮像画素群60Aに含まれる各撮像画素60A1は、撮像素子ドライバ74によって撮像素子60に供給された駆動パルスに従って駆動する。
画像信号処理回路76は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60から1フレーム分の画像信号を撮像画素60A1毎に読み出す。画像信号処理回路76は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、A/D変換等の各種処理を行う。画像信号処理回路76は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、主制御部62から供給されるクロック信号で規定される特定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ64に出力する。画像メモリ64は、画像信号処理回路76から入力された画像信号を一時的に保持する。
撮像装置本体18は、表示部86、タッチパネル88、受付デバイス90、及びメモリカード92を備えている。
表示部86は、表示制御部78に接続されており、表示制御部78の制御下で各種情報を表示する。表示部86は、例えば、LCD(Liquid Crystal Display)により実現される。
本開示の技術に係る第1及び第2受付部の一例であるタッチパネル88は、表示部86の表示画面に重ねられており、ユーザの指又はタッチペン等の指示体による接触を受け付ける。タッチパネル88は、タッチパネルI/F79に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/F79に出力する。タッチパネルI/F79は、主制御部62の指示に従ってタッチパネル88を作動させ、タッチパネル88から入力された位置情報を主制御部62に出力する。なお、本実施形態では、本開示の技術に係る第1及び第2受付部の一例としてタッチパネル88を例示しているが、これに限らず、タッチパネル88に代えて、測距装置10Aに接続して使用されるマウス(図示省略)を適用してもよい。また、タッチパネル88及びマウスを併用してもよい。
受付デバイス90は、計測撮像ボタン90A、撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90Eを有する。また、受付デバイス90は、撮像位置距離導出ボタン90F及び3次元座標導出ボタン90G等も有しており、ユーザによる各種指示を受け付ける。受付デバイス90は、受付I/F80に接続されており、受付I/F80は、受付デバイス90によって受け付けられた指示の内容を示す指示内容信号を主制御部62に出力する。
計測撮像ボタン90Aは、計測及び撮像の開始の指示を受け付ける押圧式のボタンである。撮像ボタン90Bは、撮像の開始の指示を受け付ける押圧式のボタンである。撮像系動作モード切替ボタン90Cは、静止画撮像モードと動画撮像モードとを切り替える指示を受け付ける押圧式のボタンである。
広角指示ボタン90Dは、画角を広角にする指示を受け付ける押圧式のボタンであり、広角側への画角の変更量は、許容される範囲内で、広角指示ボタン90Dへの押圧が継続して行われる押圧時間に応じて定まる。
望遠指示ボタン90Eは、画角を望遠にする指示を受け付ける押圧式のボタンであり、望遠側への画角の変更量は、許容される範囲内で、望遠指示ボタン90Eへの押圧が継続して行われる押圧時間に応じて定まる。
撮像位置距離導出ボタン90Fは、後述の撮像位置距離導出処理の開始の指示を受け付ける押圧式のボタンである。3次元座標導出ボタン90Gは、後述の撮像位置距離導出処理及び後述の3次元座標導出処理の開始の指示を受け付ける押圧式のボタンである。
なお、以下では、説明の便宜上、計測撮像ボタン90A及び撮像ボタン90Bを区別して説明する必要がない場合、「レリーズボタン」と称する。また、以下では、説明の便宜上、広角指示ボタン90D及び望遠指示ボタン90Eを区別して説明する必要がない場合、「画角指示ボタン」と称する。
なお、本実施形態に係る測距装置10Aでは、マニュアルフォーカスモードとオートフォーカスモードとが受付デバイス90を介したユーザの指示に応じて選択的に設定される。レリーズボタンは、撮像準備指示状態と撮像指示状態との2段階の押圧操作を受け付ける。撮像準備指示状態とは、例えば、レリーズボタンが待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、レリーズボタンが中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、説明の便宜上、「レリーズボタンが待機位置から半押し位置まで押下された状態」を「半押し状態」と称し、「レリーズボタンが待機位置から全押し位置まで押下された状態」を「全押し状態」と称する。
オートフォーカスモードでは、レリーズボタンが半押し状態にされることで撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、本露光に先立ってレリーズボタンが半押し状態にされることでAE(Automatic Exposure)機能が働いて露出調整が行われた後、AF(Auto-Focus)機能が働いて焦点調整が行われ、レリーズボタンが全押し状態にされると本露光が行われる。
ここで、本露光とは、後述の静止画像ファイルを得るために行われる露光を指す。また、本実施形態において、露光とは、本露光の他に、後述のライブビュー画像を得るために行われる露光、及び後述の動画像ファイルを得るために行われる露光も意味する。以下では、説明の便宜上、これらの露光を区別して説明する必要がない場合、単に「露光」と称する。
なお、本実施形態では、主制御部62がAE機能による露出調整及びAF機能による焦点調整を行う。また、本実施形態では、露出調整及び焦点調整が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、露出調整又は焦点調整が行われるようにしてもよい。
画像処理部66は、画像メモリ64から特定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正、輝度変換、色差変換、及び圧縮処理等の各種処理を行う。
画像処理部66は、各種処理を行って得た画像信号を特定のフレームレートで1フレーム毎に表示制御部78に出力する。また、画像処理部66は、各種処理を行って得た画像信号を、主制御部62の要求に応じて、主制御部62に出力する。
表示制御部78は、主制御部62の制御下で、画像処理部66から入力された画像信号を1フレーム毎に特定のフレームレートで表示部86に出力する。
表示部86は、画像及び文字情報等を表示する。表示部86は、表示制御部78から特定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。ライブビュー画像は、連続的に撮像されて得られた連続フレーム画像であり、スルー画像とも称される。また、表示部86は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。更に、表示部86は、ライブビュー画像の他に、再生画像及びメニュー画面等も表示する。
なお、本実施形態では、画像処理部66及び表示制御部78は、ASIC(Application Specific Integrated Circuit)によって実現されているが、本開示の技術はこれに限定されるものではない。例えば、画像処理部66及び表示制御部78の各々は、FPGA(Field-Programmable Gate Array)によって実現されてもよい。また、画像処理部66は、CPU(中央処理装置:Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含むコンピュータによって実現されてもよい。また、表示制御部78も、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、画像処理部66及び表示制御部78の各々は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
主制御部62は、静止画撮像モード下でレリーズボタンによって静止画像の撮像の指示が受け付けられた場合、撮像素子ドライバ74を制御することで、撮像素子60に1フレーム分の露光を行わせる。主制御部62は、1フレーム分の露光が行われることによって得られた画像信号を画像処理部66から取得し、取得した画像信号に対して圧縮処理を施して特定の静止画像用フォーマットの静止画像ファイルを生成する。なお、ここで、特定の静止画像用フォーマットとは、例えば、JPEG(Joint Photographic Experts Group)を指す。
主制御部62は、動画撮像モード下でレリーズボタンによって動画像の撮像の指示が受け付けられた場合、画像処理部66によりライブビュー画像用として表示制御部78に出力される画像信号を特定のフレームレートで1フレーム毎に取得する。そして、主制御部62は、画像処理部66から取得した画像信号に対して圧縮処理を施して特定の動画像用フォーマットの動画像ファイルを生成する。なお、ここで、特定の動画像用フォーマットとは、例えば、MPEG(Moving Picture Experts Group)を指す。なお、以下では、説明の便宜上、静止画像ファイル及び動画像ファイルを区別して説明する必要がない場合、画像ファイルと称する。
メディアI/F82は、メモリカード92に接続されており、主制御部62の制御下で、メモリカード92に対する画像ファイルの記録及び読み出しを行う。なお、メディアI/F82によってメモリカード92から読み出された画像ファイルは、主制御部62によって伸長処理が施されて表示部86に再生画像として表示される。
なお、主制御部62は、測距制御部68から入力された距離情報を画像ファイルに関連付けて、メディアI/F82を介してメモリカード92に保存する。そして、距離情報は、メモリカード92からメディアI/F82を介して主制御部62によって画像ファイルと共に読み出され、読み出された距離情報により示される距離は、関連する画像ファイルによる再生画像と共に表示部86に表示される。
測距制御部68は、主制御部62の制御下で、測距ユニット12を制御する。なお、本実施形態において、測距制御部68は、ASICによって実現されているが、本開示の技術はこれに限定されるものではない。例えば、測距制御部68は、FPGAによって実現されてもよい。また、測距制御部68は、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、測距制御部68は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
ホットシュー20は、バスライン84に接続されており、測距制御部68は、主制御部62の制御下で、LDドライバ34を制御することで、LD30によるレーザ光の発光を制御し、受光信号処理回路40から受光信号を取得する。測距制御部68は、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離を導出し、導出した距離を示す距離情報を主制御部62に出力する。
ここで、測距制御部68による被写体までの距離の計測について更に詳細に説明する。
一例として図3に示すように、測距装置10Aによる1回の計測シーケンスは、電圧調整期間、実計測期間、及び休止期間で規定される。
電圧調整期間は、LD30及びPD36の駆動電圧を調整する期間である。実計測期間は、被写体までの距離を実際に計測する期間である。実計測期間では、LD30にレーザ光を発光させ、PD36に反射レーザ光を受光させる動作が数百回繰り返され、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離が導出される。休止期間は、LD30及びPD36の駆動を休止させるための期間である。よって、1回の計測シーケンスでは、被写体までの距離の計測が数百回行われることになる。
なお、本実施形態では、電圧調整期間、実計測期間、及び休止期間の各々を数百ミリ秒としている。
一例として図4に示すように、測距制御部68には、測距制御部68がレーザ光の発光の指示を与えるタイミング、及び受光信号を取得するタイミングを規定するカウント信号が供給される。本実施形態では、カウント信号は、主制御部62によって生成されて測距制御部68に供給されるが、これに限らず、バスライン84に接続されたタイムカウンタ等の専用回路によって生成されて測距制御部68に供給されるようにしてもよい。
測距制御部68は、カウント信号に応じて、レーザ光を発光させるためのレーザトリガをLDドライバ34に出力する。LDドライバ34は、レーザトリガに応じて、LD30を駆動してレーザ光を発光させる。
図4に示す例では、レーザ光の発光時間が数十ナノ秒とされている。この場合、射出部22により数キロメートル先の被写体に向けて射出されたレーザ光が反射レーザ光としてPD36で受光されるまでの時間は、“数キロメートル×2/光速”≒数マイクロ秒となる。従って、数キロメートル先の被写体までの距離を計測するためには、一例として図3に示すように、最低必要時間として、数マイクロ秒の時間を要する。
なお、本実施形態では、レーザ光の往復時間等を考慮して、一例として図3に示すように、1回の計測時間を数ミリ秒としているが、被写体までの距離によりレーザ光の往復時間は異なるので、想定する距離に応じて1回あたりの計測時間を異ならせてもよい。
測距制御部68は、1回の計測シーケンスにおける数百回の計測から得た計測値を基に、被写体までの距離を導出する場合、例えば、数百回の計測から得た計測値のヒストグラムを解析して被写体までの距離を導出する。
一例として図5に示すように、1回の計測シーケンスにおける数百回の計測から得られた計測値のヒストグラムでは、横軸が被写体までの距離であり、縦軸が計測回数であり、計測回数の最大値に対応する距離が測距結果として測距制御部68によって導出される。なお、図5に示すヒストグラムはあくまでも一例であり、被写体までの距離に代えて、レーザ光の往復時間(発光から受光までの経過時間)、又はレーザ光の往復時間の1/2等に基づいてヒストグラムが生成されてもよい。
一例として図6に示すように、主制御部62は、本開示の技術に係る取得部、導出部、及び実行部の一例であるCPU100、一次記憶部102、及び二次記憶部104を備えている。CPU100は、測距装置10Aの全体を制御する。一次記憶部102は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部102の一例としては、RAMが挙げられる。二次記憶部104は、測距装置10Aの作動を制御する制御プログラム又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部104の一例としては、EEPROM(Electrically Erasable Programmable Read Only Memory)又はフラッシュメモリが挙げられる。CPU100、一次記憶部102、及び二次記憶部104は、バスライン84を介して相互に接続されている。
測距装置10Aには、3次元座標導出機能が備えられている。3次元座標導出機能とは、後述の第1指定画素座標、後述の第2指定画素座標、後述の撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から数式(1)に基づいて、後述の指定画素3次元座標を導出する機能を指す。
なお、数式(1)において、“uL”とは、第1指定画素座標のX座標を指す。また、数式(1)において、“vL”とは、第1指定画素座標のY座標を指す。また、数式(1)において、“uR”とは、第2指定画素座標のX座標を指す。また、数式(1)において、“B”とは、撮像位置距離を指す(図7及び図8参照)。また、数式(1)において、“f”とは、(撮像レンズ50の焦点距離)/(撮像画素60A1の寸法)を指す。また、数式(1)において、(X,Y,Z)とは、指定画素3次元座標を指す。
第1指定画素座標は、後述の第1撮像画像において、実空間上での位置が対応する画素として指定された第1指定画素を特定する2次元座標である。第2指定画素座標は、後述の第2撮像画像において、実空間上での位置が対応する画素として指定された第2指定画素を特定する2次元座標である。すなわち、第1指定画素及び第2指定画素は、実空間上での位置が互いに対応する画素として指定された画素であり、かつ、第1撮像画像と第2撮像画像との各々において、互いに対応する位置で特定可能な画素である。そして、第1指定画素座標は、第1撮像画像上の2次元座標であり、第2指定画素座標は、第2撮像画像上の2次元座標である。
指定画素3次元座標とは、第1指定画素座標及び第2指定画素座標に対応する実空間上での座標である3次元座標を指す。
ここで、一例として図7及び図8に示すように、第1撮像画像とは、被写体が第1撮像位置から撮像装置14により撮像されて得られた撮像画像を指す。また、一例として図7及び図8に示すように、第2撮像画像とは、第1撮像位置からの撮像対象とされた被写体を含む被写体が第1撮像位置とは異なる第2撮像位置から撮像装置14により撮像されて得られた撮像画像を指す。なお、本実施形態では、説明の便宜上、第1撮像画像及び第2撮像画像に限らず、静止画像及び動画像を含めて、撮像装置14によって撮像されて得られた撮像画像を区別して説明する必要がない場合は単に「撮像画像」と称する。
なお、図7に示す例では、測距ユニット12の位置として第1計測位置及び第2計測位置が示されている。第1計測位置とは、撮像装置14に対して測距ユニット12が正しく取り付けられている状態で被写体が第1撮像位置から撮像装置14により撮像される場合の測距ユニット12の位置を指す。第1計測位置は、第2計測位置とは、撮像装置14に対して測距ユニット12が正しく取り付けられている状態で被写体が第2撮像位置から撮像装置14により撮像される場合の測距ユニット12の位置を指す。
撮像位置距離とは、第1撮像位置と第2撮像位置との距離を指す。撮像位置距離の一例としては、図8に示すように、第1撮像位置における撮像装置14の撮像レンズ50の主点OLと第2撮像位置における撮像装置14の撮像レンズ50の主点ORとの距離が挙げられるが、本開示の技術はこれに限定されるものではない。例えば、第1撮像位置における撮像装置14の撮像素子60の中央に位置する撮像画素60A1と第2撮像位置における撮像装置14の撮像素子60の中央に位置する撮像画素60A1との距離が撮像位置距離とされてもよい。
図8に示す例では、第1撮像画像に含まれる画素PLが第1指定画素であり、第2撮像画像に含まれる画素PRが第2指定画素であり、画素PL,PRは、被写体の点Pに対応する画素である。よって、画素PLの2次元座標である第1指定画素座標の(uL,vL)、及び画素PRの2次元座標である第2指定画素座標の(uR,vR)は、点Pの3次元座標である指定画素3次元座標の(X,Y,Z)に対応している。なお、数式(1)では、“vR”は、使用されない。
なお、以下では、説明の便宜上、第1指定画素及び第2指定画素を区別して説明する必要がない場合、「指定画素」と称する。また、以下では、説明の便宜上、第1指定画素座標及び第2指定画素座標を区別して説明する必要がない場合、「指定画素座標」と称する。
ところで、測距装置10Aが3次元座標導出機能を働かせることで数式(1)に基づいて指定画素3次元座標を導出する場合、撮像位置距離を高精度に導出することが好ましい。なぜならば、数式(1)に撮像位置距離である“B”が含まれているからである。
そこで、測距装置10Aでは、一例として図6に示すように、二次記憶部104が、本開示の技術に係るプログラムの一例である撮像位置距離導出プログラム106Aを記憶している。
CPU100は、二次記憶部104から撮像位置距離導出プログラム106Aを読み出して一次記憶部102に展開し、撮像位置距離導出プログラム106Aを実行する。
また、一例として図6に示すように、二次記憶部104は、3次元座標導出プログラム108Aを記憶している。CPU100は、二次記憶部104から3次元座標導出プログラム108Aを読み出して一次記憶部102に展開し、3次元座標導出プログラム108Aを実行する。
CPU100は、撮像位置距離導出プログラム106Aを実行することで、一例として図9に示すように、取得部110A、導出部111A、及び実行部112Aとして動作する。
取得部110Aは、第1撮像画像、動画像、及び被写体までの距離を取得する。ここで、「被写体までの距離」とは、動画像が撮像されている間に第2計測位置の測距ユニット12により射出されたレーザ光を基に計測された被写体までの距離を指す。また、取得部110Aによって取得される動画像とは、特定のフレームレートで得られた複数の第2撮像画像を指す。そのため、例えば、特定のフレームレートが30フレーム/秒の場合、1秒間に30枚の第2撮像画像が取得部110Aによって取得される。
また、取得部110Aによって取得される被写体までの距離とは、複数の第2撮像画像が撮像される毎に、レーザ光が被写体に射出されてレーザ光の反射光が受光されることにより計測された被写体までの距離を指す。
導出部111Aは、取得部110Aにより取得された複数の第2撮像画像の各々について、取得部110Aにより取得された距離に基づいて、実空間上でのレーザ光の照射位置、すなわち、レーザ光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を導出する。ここで、照射位置実空間座標は、3次元座標であり、一例として図10に示す距離L、半画角α、射出角度β、及び基準点間距離Mから、下記の数式(2)に基づいて導出される。数式(2)において、(xLaser,yLaser,zLaser)とは、照射位置実空間座標を指す。
数式(2)では、yLaser=0とされているが、これは、鉛直方向において光軸L1が光軸L2と同一の高さにあることを意味している。被写体に照射されたレーザ光の位置が被写体における光軸L2の位置よりも鉛直方向において高い位置の場合、yLaserは正値となる。被写体に照射されたレーザ光の位置が被写体における光軸L2の位置よりも鉛直方向において低い位置の場合、yLaserは負値となる。なお、以下では、説明の便宜上、“yLaser=0”であることを前提として説明する。
ここで、一例として図10に示すように、半画角αとは、画角の半分を指す。射出角度βとは、射出部22からレーザ光が射出される角度を指す。基準点間距離Mとは、撮像装置14に規定された第1基準点P1と測距ユニット12に規定された第2基準点P2との距離を指す。第1基準点P1の一例としては、撮像レンズ50の主点が挙げられる。第2基準点P2の一例としては、測距ユニット12における3次元空間の位置を特定可能な座標の原点として予め設定された点が挙げられる。具体的には、対物レンズ38の正面視左右端の一端、又は測距ユニット12の筐体(図示省略)が直方体状である場合の筐体の1つの角、すなわち、1つの頂点が挙げられる。
導出部111Aは、取得部110Aにより取得された動画像に含まれる複数の第2撮像画像の各々について、取得部110Aにより取得された距離に基づいて、照射位置画素座標を導出する。照射位置画素座標とは、レーザ光による被写体に対する実空間上での照射位置と対応する画素の位置を特定する座標を指す。なお、ここで、「レーザ光による被写体に対する実空間上での照射位置」とは、例えば、照射位置実空間座標により特定される照射位置を指す。
また、ここで、「取得部110Aにより取得された動画像に含まれる複数の第2撮像画像」とは、例えば、動画像に含まれる全フレームの第2撮像画像を指すが、本開示の技術はこれに限定されるものではない。例えば、「取得部110Aにより取得された動画像に含まれる複数の第2撮像画像」は、予め定められた複数のフレーム(例えば、2フレーム)毎に得られた複数の第2撮像画像であってもよい。また、「取得部110Aにより取得された動画像に含まれる複数の第2撮像画像」は、動画像に含まれる第2撮像画像からランダムに選ばれた複数の第2撮像画像であってもよい。
照射位置画素座標は、第1照射位置画素座標と第2照射位置画素座標とに大別される。第1照射位置画素座標は、第1撮像画像において照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する2次元座標である。第2照射位置画素座標は、第2撮像画像において照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する2次元座標である。なお、第1照射位置画素座標は、第2照射位置画素座標により特定される画素の位置に対応する画素の位置であって、第1撮像画像における画素の位置を特定する2次元座標とも言える。
なお、第1照射位置画素座標は、本開示の技術に係る「照射位置対応画素座標」の一例であり、第2照射位置画素座標は、本開示の技術に係る「照射位置画素座標」の一例である。また、以下では、説明の便宜上、第1照射位置画素座標及び第2照射位置画素座標を区別して説明する必要がない場合、「照射位置画素座標」と称する。また、第2照射位置画素座標のX座標の導出方法及び第2照射位置画素座標のY座標の導出方法は、対象とする座標軸が異なるのみで導出方法の原理は同じである。すなわち、第2照射位置画素座標のX座標の導出方法は、撮像素子60における行方向の画素を対象とした導出方法であるのに対し、第2照射位置画素座標のY座標の導出方法は、撮像素子60における列方向の画素を対象とした導出方法である点で異なる。そのため、以下では、説明の便宜上、第2照射位置画素座標のX座標の導出方法を例示し、第2照射位置画素座標のY座標の導出方法の説明を省略する。なお、行方向とは、撮像素子60の撮像面の正面視左右方向を意味し、列方向とは、撮像素子60の撮像面の正面視上下方向を意味する。
第2照射位置画素座標のX座標は、一例として図11に示す距離L、半画角α、射出角度β、及び基準点間距離Mから、下記の数式(3)~(5)に基づいて導出される。なお数式(5)において、「照射位置の行方向画素」とは、撮像素子60における行方向の画素のうちの実空間上でのレーザ光の照射位置に対応する位置の画素を指す。「行方向画素数の半分」とは、撮像素子60における行方向の画素数の半分を指す。
導出部111Aは、基準点間距離M及び射出角度βを数式(3)に代入し、半画角α及び射出角度βを数式(4)に代入し、距離Lを数式(3)及び数式(4)に代入する。導出部111Aは、このようにして得たΔx及びXと上記の「行方向画素数の半分」とを数式(5)に代入することで、「照射位置の行方向画素」の位置を特定する座標であるX座標を導出する。「照射位置の行方向画素」の位置を特定するX座標は、第2照射位置画素座標のX座標である。
導出部111Aは、第1撮像画像の画素のうち、第2照射位置画素座標により特定される画素の位置と対応する画素の位置を特定する座標を第1照射位置画素座標として導出する。
実行部112Aは、取得部110Aにより取得された動画像に含まれる複数の第2撮像画像の各々について、位置特定可能状態の場合に、位置特定可能状態で実行される処理として予め定められた処理を実行する。ここで、位置特定可能状態とは、第2照射位置画素座標により特定される画素の位置が第2撮像画像及び第1撮像画像の各々において互いに対応する位置で特定可能な画素の位置である状態を指す。
また、実行部112Aは、取得部110Aにより取得された動画像に含まれる複数の第2撮像画像の各々について、位置特定不可能状態の場合に、位置特定不可能状態で実行される処理として予め定められた処理を実行する。ここで、位置特定不可能状態とは、第2照射位置画素座標により特定される画素の位置が第2撮像画像及び第1撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である状態を指す。
位置特定可能状態で実行される処理として予め定められた処理の一例としては、後述の第1導出処理を含む処理が挙げられる。また、位置特定不可能状態で実行される処理として予め定められた処理の一例としては、後述の第2導出処理を含む処理が挙げられる。
ここで、第2導出処理とは、後述の複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて撮像位置距離を導出する処理を指す。複数画素座標とは、取得部110Aにより取得された第1撮像画像と第2撮像画像との各々において、実空間上でのレーザ光の照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の2次元座標を指す。なお、第2導出処理に用いられるパラメータは、複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に限定されるものではない。例えば、複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に、1つ以上の微調整用のパラメータを更に加えた複数のパラメータが第1導出処理で用いられるようにしてもよい。
また、第1導出処理とは、照射位置画素座標と、照射位置実空間座標と、撮像レンズ50の焦点距離と、撮像画素60A1の寸法とに基づいて撮像位置距離を導出する処理を指す。なお、第1導出処理に用いられるパラメータは、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に限定されるものではない。例えば、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に、1つ以上の微調整用のパラメータを更に加えた複数のパラメータが第2導出処理で用いられるようにしてもよい。
また、第1導出処理は、レーザ光の実際の照射位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置に対応する実空間上の位置の場合に、第2導出処理よりも高精度に撮像位置距離を導出可能な処理である。また、第1導出処理は、第2導出処理による撮像位置距離の導出で用いられるパラメータの個数よりも少ない複数のパラメータに基づいて撮像位置距離を導出する処理である。なお、ここで言う「複数のパラメータ」とは、例えば、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法を指す。
実行部112Aは、第2導出処理を実行する場合、複数画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、複数画素座標に対応する実空間上での3次元座標を含む平面を示す平面方程式により規定される平面の向きを導出する。そして、実行部112Aは、導出した平面の向きと照射位置実空間座標とに基づいて平面方程式を確定し、確定した平面方程式、複数画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて撮像位置距離を導出する。
なお、撮像位置距離の導出に用いられる平面方程式は、下記の数式(6)によって規定される。従って、「平面の向き」を導出するとは、数式(6)におけるa,b,cを導出することを意味し、「平面方程式」を確定するとは、数式(6)におけるdを導出することで、平面方程式のa,b,c,dを確定することを意味する。
次に、測距装置10Aの本開示の技術に係る部分の作用について説明する。
先ず、3次元座標導出ボタン90Gがオンされた場合にCPU100が撮像位置距離導出プログラム106Aを実行することで実現される撮像位置距離導出処理について図12を参照して説明する。
なお、以下では、説明の便宜上、一例として図17に示すように、測距装置10Aの撮像装置14の撮像範囲119にオフィスビル120の外壁面121を含む領域が被写体として含まれていることを前提として説明する。また、外壁面121は、主要被写体であり、かつ、レーザ光の照射対象であることを前提として説明する。
また、外壁面121は、平面状に形成されており、本開示の技術に係る平面状領域の一例である。また、一例として図17に示すように、外壁面121には、四角形状の複数の窓122が設けられている。また、一例として図17に示すように、外壁面121には、各窓122の下側に横長の長方形状の模様124が描かれているが、これに限らず、外壁面121に付された汚れ又は皹などであってもよい。
なお、本実施形態において、「平面状」には、平面のみならず、窓又は換気口等による若干の凹凸を許容する範囲での平面形状も含まれ、例えば、目視により、又は、既存の画像解析技術により、「平面状」と認識される平面又は平面形状であればよい。
また、以下では、説明の便宜上、測距装置10Aにより、外壁面121にレーザ光が照射されることで外壁面121までの距離が計測されることを前提として説明する。また、以下では、説明の便宜上、第1計測位置に測距ユニット12が位置し、かつ、第1撮像位置に撮像装置14が位置している場合の測距装置10Aの位置を「第1位置」と称する。また、以下では、説明の便宜上、第2計測位置に測距ユニット12が位置し、かつ、第2撮像位置に撮像装置14が位置している場合の測距装置10Aの位置を「第2位置」と称する。
図12に示す撮像位置距離導出処理では、先ず、ステップ200で、取得部110Aは、第1位置で撮像ボタン90Bがオンされることで撮像装置14により静止画像の撮像が実行されたか否かを判定する。第1位置は、外壁面121を含む領域を被写体として撮像可能な位置であればよい。
ステップ200において、第1位置で撮像ボタン90Bがオンされることで撮像装置14により静止画像の撮像が実行されていない場合は、判定が否定されて、ステップ202へ移行する。ステップ200において、第1位置で撮像ボタン90Bがオンされることで撮像装置14により静止画像の撮像が実行された場合は、判定が肯定されて、ステップ204へ移行する。
ステップ202で、取得部110Aは、撮像位置距離導出処理を終了する条件を満足したか否かを判定する。撮像位置距離導出処理を終了する条件とは、例えば、タッチパネル88により撮像位置距離導出処理を終了する指示が受け付けられたとの条件、又はステップ200の処理が開始されてから肯定判定されることなく第1既定時間が経過したとの条件等を指す。なお、第1既定時間とは、例えば、1分を指す。
ステップ202において、撮像位置距離導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ200へ移行する。ステップ202において、撮像位置距離導出処理を終了する条件を満足した場合は、判定が肯定されて、撮像位置距離導出処理を終了する。
ステップ204で、取得部110Aは、第1位置で撮像が実行されることによって得られた第1撮像画像を示す第1撮像画像信号を取得する。そして、取得部110Aは、取得した第1撮像画像信号を二次記憶部104の既定の記憶領域に記憶し、その後、ステップ206へ移行する。なお、第1撮像画像は、第1位置において合焦状態で撮像されて得られた静止画像である。
ステップ206で、取得部110Aは、一例として図18に示すように、表示部86に対して、取得した第1撮像画像信号により示される第1撮像画像の表示を開始させ、その後、ステップ208へ移行する。
なお、本ステップ206の処理が実行されると、注目画素指定案内メッセージ(図示省略)が第1撮像画像に重畳して表示される。注目画素指定案内メッセージとは、例えば、第1撮像画像から注目画素をタッチパネル88を介して指定することを案内するメッセージを指す。注目画素指定案内メッセージの一例としては、「注目すべき1画素(注目点)を指定して下さい。」とのメッセージが挙げられる。注目画素指定案内メッセージは、例えば、後述のステップ208の処理において、注目画素が指定された場合、及び後述のステップ210の処理において、撮像位置距離導出処理を終了する条件を満足した場合に非表示される。
ステップ208で、取得部110Aは、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されたか否かを判定する。
ステップ208において、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されていない場合は、判定が否定されて、ステップ210へ移行する。ステップ208において、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定された場合は、判定が肯定されて、ステップ212へ移行する。
ステップ210で、取得部110Aは、撮像位置距離導出処理を終了する条件を満足したか否かを判定する。ステップ210において、撮像位置距離導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ208へ移行する。ステップ210において、撮像位置距離導出処理を終了する条件を満足した場合は、判定が肯定されて、撮像位置距離導出処理を終了する。
ステップ212で、取得部110Aは、第1撮像画像においてユーザによりタッチパネル88を介して指定された注目画素126(図19参照)を特定する注目画素座標を取得し、その後、ステップ214へ移行する。
ここで、注目画素126とは、一例として図19に示すように、第1撮像画像のうちの外壁面2階中央部窓に相当する画像の正面視左下隅の画素を指す。外壁面2階中央部窓とは、図17に示す例において、外壁面121に設けられている窓122のうちの、オフィスビル120の2階の中央部の窓122を指す。また、注目画素座標とは、第1撮像画像において注目画素126を特定する2次元座標を指す。
ステップ214で、取得部110Aは、表示部86に対して、第1撮像画像の表示を終了させ、その後、ステップ216へ移行する。
ステップ216で、取得部110Aは、表示部86に対して、計測撮像指示案内メッセージ(図示省略)の表示を開始させ、その後、ステップ218へ移行する。
ここで、計測撮像指示案内メッセージとは、例えば、撮像範囲に同一の被写体が入る第2位置に測距装置10Aを設置した上で、計測撮像ボタン90Aをオンすることをユーザに促すメッセージを指す。計測撮像指示案内メッセージの一例としては、「撮像範囲に同一の被写体が入るように他の位置に測距装置10Aを設置した上で、計測撮像ボタン90Aをオンして下さい。」とのメッセージが挙げられる。
ステップ218で、取得部110Aは、第2位置で計測撮像ボタン90Aがオンされたか否かを判定する。ステップ218において、第2位置で計測撮像ボタン90Aがオンされていない場合は、判定が否定されて、ステップ220へ移行する。ステップ218において、第2位置で計測撮像ボタン90Aがオンされた場合は、判定が肯定されて、ステップ224へ移行する。
ステップ210で、取得部110Aは、撮像位置距離導出処理を終了する条件を満足したか否かを判定する。ステップ210において、撮像位置距離導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ218へ移行する。ステップ220において、撮像位置距離導出処理を終了する条件を満足した場合は、判定が肯定されて、ステップ222へ移行する。
ステップ222で、取得部110Aは、表示部86に対して、計測撮像指示案内メッセージの表示を終了させ、その後、撮像位置距離導出処理を終了する。
ステップ224で、取得部110Aは、表示部86に対して、計測撮像指示案内メッセージの表示を終了させ、その後、ステップ226へ移行する。
ステップ226で、取得部110Aは、一例として図13~図16に示す第2位置計測撮像処理を実行し、その後、撮像位置距離導出処理を終了する。なお、本実施形態では、説明の便宜上、ライブビュー画像として複数の第2撮像画像が撮像されることを前提として説明する。また、本実施形態では、説明の便宜上、第2撮像画像を示す第2撮像画像信号が特定のフレームレートで1フレーム毎に画像メモリ64から画像処理部66に入力されることを前提として説明する。
図13に示す第2位置計測撮像処理では、先ず、ステップ230で、取得部110Aは、測距ユニット12及び測距制御部68に対して、被写体までの距離を計測させ、その後、ステップ232へ移行する。
ステップ232で、取得部110Aは、画像メモリ64から画像処理部66に第2撮像画像信号が新たに入力されたか否かを判定する。ステップ232において、画像メモリ64から画像処理部66に第2撮像画像信号が新たに入力されていない場合は、判定が否定されて、ステップ232の判定が再び行われる。ステップ232において、画像メモリ64から画像処理部66に第2撮像画像信号が新たに入力された場合は、判定が肯定されて、ステップ234へ移行する。
ステップ234で、取得部110Aは、表示部86により後述の一致メッセージ137A又は後述の不一致メッセージ137Bが既に表示されている状態か否かを判定する。ここで、一致メッセージ137Aは、後述のステップ254の処理が実行されることで表示が開始され、不一致メッセージ137Bは、後述のステップ256の処理が実行されることで表示が開始される。
ステップ234において、表示部86により一致メッセージ137A又は不一致メッセージ137Bが既に表示されている状態の場合は、判定が肯定されて、ステップ236へ移行する。ステップ234において、表示部86により一致メッセージ137A及び不一致メッセージ137Bの何れもが表示されていない状態の場合は、判定が否定されて、ステップ238へ移行する。
ステップ236で、取得部110Aは、表示部86により一致メッセージ137Aが既に表示されている場合、表示部86に対して、一致メッセージ137Aの表示を終了させ、その後、ステップ238へ移行する。また、取得部110Aは、表示部86により不一致メッセージ137Bが既に表示されている場合、表示部86に対して、不一致メッセージ137Bの表示を終了させ、その後、ステップ238へ移行する。
ステップ238で、取得部110Aは、画像処理部66から1フレーム分の第2撮像画像信号を取得し、その後、ステップ240へ移行する。
ステップ240で、取得部110Aは、表示部86に対して、ステップ238の処理で取得した第2撮像画像信号により示される第2撮像画像を表示させ、その後、ステップ242へ移行する。
ステップ242で、導出部111Aは、距離L、半画角α、射出角度β、及び基準点間距離Mから、数式(2)に基づいて、照射位置実空間座標を導出し、その後、ステップ244へ移行する。なお、本ステップ242の処理で用いられる距離Lとは、ステップ230の処理が実行されることで計測された被写体までの距離を指す。
ステップ244で、導出部111Aは、距離L、半画角α、射出角度β、及び基準点間距離Mから、数式(3)~(5)に基づいて、第2照射位置画素座標を導出し、その後、ステップ246へ移行する。なお、本ステップ244の処理で用いられる距離Lとは、ステップ230の処理が実行されることで計測された被写体までの距離を指す。
ステップ246で、導出部111Aは、後述の照射位置目印136及び距離Lが表示されている状態か否かを判定する。ステップ246において、照射位置目印136及び距離Lが表示されている状態の場合は、判定が肯定されて、ステップ248へ移行する。ステップ246において、照射位置目印136が表示されていない状態の場合は、判定が否定されて、ステップ250へ移行する。なお、本ステップ246の処理が実行されることで表示される距離Lとは、ステップ230の処理が実行されることで計測された被写体までの距離を指す。
ステップ248で、導出部111Aは、表示部86に対して、照射位置目印136及び距離Lの表示を終了させ、その後、ステップ250へ移行する。
ステップ250で、導出部111Aは、一例として図20に示すように、表示部86に対して、照射位置目印136及び距離Lを第2撮像画像に重畳した表示を開始させ、その後、ステップ252へ移行する。図20に示す例では、「133325.0」との数値が第2位置で測距装置10Aにより計測された距離Lに該当し、単位はミリメートルである。また、図20に示す例において、照射位置目印136は、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置を示す目印である。
ステップ252で、実行部112Aは、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致するか否かを判定する。ここで、特定可能画素位置とは、第2撮像画像とステップ204の処理が実行されることで既定の記憶領域に記憶された第1撮像画像信号により示される第1撮像画像との各々において互いに対応する位置で特定可能な画素の位置を指す。
ステップ252において、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致する場合は、判定が肯定されて、ステップ254へ移行する。ステップ252において、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致しない場合は、判定が否定されて、ステップ256へ移行する。なお、本ステップ252において判定が肯定される場合とは、上述した位置特定可能状態の場合を意味し、本ステップ252において判定が否定される場合とは、上述した位置特定不可能状態の場合を意味する。
ステップ254で、実行部112Aは、一例として図21に示すように、表示部86に対して、一致メッセージ137Aを第2撮像画像に重畳した表示を開始させ、その後、図14に示すステップ258へ移行する。一致メッセージ137Aは、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致することを示すメッセージである。よって、本ステップ254の処理が実行されることにより、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致することがユーザに通知される。なお、本ステップ254の処理は、本開示の技術に係る位置特定可能状態通知処理の一例である。また、ここで、本開示の技術に係る位置特定可能状態通知処理とは、上述した位置特定可能状態であることを通知する処理を指す。
なお、図21に示す例では、一致メッセージ137Aとして、「レーザ光の照射位置が被写体の特徴的な位置と一致しました。このまま処理を続行する場合は画面をダブルタップして下さい。」とのメッセージが示されているが、本開示の技術はこれに限定されるものではない。例えば、一致メッセージ137Aのうちの「レーザ光の照射位置が被写体の特徴的な位置と一致しました。」のみのメッセージを採用してもよい。
このように、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置と特定可能画素位置との一致を通知するメッセージであれば如何なるメッセージであってもよい。また、図21に示す例では、一致メッセージ137Aが可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
ステップ256で、実行部112Aは、一例として図22に示すように、表示部86に対して、不一致メッセージ137Bを第2撮像画像に重畳した表示を開始させ、その後、図16に示すステップ290へ移行する。不一致メッセージ137Bは、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していないことを示すメッセージである。ここで、「第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していない」とは、換言すると、第2照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置であることを意味する。
このように、本ステップ256の処理が実行されることにより、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していないことがユーザに通知される。なお、本ステップ256の処理は、本開示の技術に係る位置特定不可能状態通知処理の一例である。本開示の技術に係る位置特定不可能状態通知処理とは、上述した位置特定不可能状態であることを通知する処理を指す。
図22に示す例では、不一致メッセージ137Bとして、「レーザ光の照射位置が被写体の特徴的な位置と一致しませんでした。このまま処理を続行する場合は画面をダブルタップして下さい。」とのメッセージが示されているが、本開示の技術はこれに限定されるものではない。例えば、不一致メッセージ137Bのうちの「レーザ光の照射位置が被写体の特徴的な位置と一致しませんでした。」のみのメッセージを採用してもよい。
このように、ステップ244の処理が実行されることで導出された第2照射位置画素座標により特定される画素の位置と特定可能画素位置との不一致を通知するメッセージであれば如何なるメッセージであってもよい。また、図22に示す例では、不一致メッセージ137Bが可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
図14に示すステップ258で、実行部112Aは、後述のステップ268以降の処理及び後述のステップ300以降の処理の実行を許可することを示す後続処理許可フラグがオンされているか否かを判定する。ステップ258において、後続処理許可フラグがオンされていない場合は、判定が否定されて、ステップ260へ移行する。ステップ258において、後続処理許可フラグがオンされている場合は、判定が肯定されて、ステップ268へ移行する。
ステップ260で、実行部112Aは、ステップ268以降の処理の実行を許可する指示である後続処理許可指示があったか否かを判定する。本ステップ260において、後続処理許可指示とは、例えば、一致メッセージ137Aの表示が開示されてからタッチパネル88に対してユーザが行ったダブルタップを指す。なお、本ステップ260において、後続処理許可指示は、ダブルタップに限定されるものではなく、受付デバイス90によって受け付けられた既定の指示であればよい。
なお、「既定の指示」の他の例としては、例えば、タッチパネル88における特定の領域(例えば、画面内で特定色が施された閉領域に対応する領域)に対するロングプレス又はフリック等が挙げられる。また、「既定の指示」の他の例としては、画面内に「ロングプレス又はフリックを行って下さい。」との案内メッセージが表示された状態でのタッチパネル88に対するロングプレス又はフリック等であってもよい。更に、「既定の指示」の他の例としては、受付デバイス90に設けられた特定のボタン(図示省略)がオンされることが挙げられる。
ステップ260において、後続処理許可指示がなかった場合は、判定が否定されて、ステップ262へ移行する。ステップ260において、後続処理許可指示があった場合は、判定が肯定されて、ステップ264へ移行する。なお、ステップ260において判定が肯定されると、実行部112Aは、表示部86に対して、一致メッセージ137Aの表示を終了させる。
ステップ262で、実行部112Aは、ステップ230の処理を実行するタイミングとして予め定められた計測実行タイミングが到来したか否かを判定する。なお、以下では、説明の便宜上、「ステップ230の処理を実行するタイミングとして予め定められた計測実行タイミング」を単に「計測実行タイミング」と称する。
ここで、計測実行タイミングとは、ライブビュー画像の1フレーム毎に測距が実行されるように既定されたタイミングを指す。計測実行タイミングの一例としては、1フレームレートに対応する時間間隔毎に周期的に到来するタイミングが挙げられる。
ステップ262において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ258へ移行する。ステップ262において、計測実行タイミングが到来した場合は、判定が肯定されて、図13に示すステップ230へ移行する。
ステップ264で、実行部112Aは、後続処理許可フラグをオンし、その後、ステップ266へ移行する。
ステップ266で、実行部112Aは、計測実行タイミングが到来したか否かを判定する。ステップ266において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ268へ移行する。ステップ266において、計測実行タイミングが到来した場合は、判定が肯定されて、図13に示すステップ230へ移行する。
ステップ268で、取得部110Aは、第2撮像画像に含まれる画素のうち、上記の注目画素126に対応する画素である対応注目画素を特定し、特定した対応注目画素を特定する対応注目画素座標を取得し、その後、ステップ270へ移行する。
なお、ここで、対応注目画素座標とは、第2撮像画像において対応注目画素を特定する2次元座標を指す。また、対応注目画素は、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。また、対応注目画素は、上述した第2指定画素に相当し、第1撮像画像から注目画素126が特定されると、本ステップ268の処理が実行されることで、第2撮像画像から一意に特定される。
ステップ270で、導出部111Aは、第1照射位置画素座標を導出し、その後、ステップ272へ移行する。すなわち、本ステップ270において、導出部111Aは、特定の第1撮像画像の画素のうち、ステップ244の処理で導出した第2照射位置画素座標により特定される画素の位置と対応する画素の位置を特定する座標を第1照射位置画素座標として導出する。ここで、特定の第1撮像画像とは、ステップ204の処理が実行されることで既定の記憶領域に記憶された第1撮像画像を指す。
なお、特定の第1撮像画像の画素のうち、第2照射位置画素座標により特定される画素の位置と対応する画素は、上述した対応注目画素座標の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
ステップ272で、実行部112Aは、照射位置実空間座標、照射位置画素座標、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、撮像位置距離を導出し、その後、図15に示すステップ274へ移行する。なお、本ステップ272の処理は、本開示の技術に係る「予め定められた処理」に含まれる処理の一例である。
図15に示すステップ274で、実行部112Aは、表示部86により撮像位置距離が既に表示されている状態か否かを判定する。ステップ274において、表示部86により撮像位置距離が既に表示されている状態の場合は、判定が肯定されて、ステップ276へ移行する。ステップ274において、表示部86により撮像位置距離が既に表示されていない状態の場合は、判定が否定されて、ステップ278へ移行する。
ステップ276で、実行部112Aは、表示部86に対して、撮像位置距離の表示を終了させ、その後、ステップ278へ移行する。
ステップ278で、実行部112Aは、一例として図23に示すように、表示部86に対して、ステップ272の処理で導出した撮像位置距離を第2撮像画像に重畳した表示を開始させ、その後、ステップ280へ移行する。なお、図23に示す例では、「144656.1」との数値が、ステップ272の処理で導出された撮像位置距離に該当し、単位はミリメートルである。
ステップ280で、実行部112Aは、ステップ238の処理で取得された第2撮像画像信号から静止画像ファイルを生成し、その後、ステップ282へ移行する。ここで、本ステップ280の処理で用いられる第2撮像画像は、最新の第2撮像画像であり、本開示の技術に係る「既定のタイミングで撮像されて得られた第2撮像画像」の一例である。本ステップ280において「既定のタイミング」とは、最新の第2撮像画像が撮像されたタイミングを指す。なお、「既定のタイミング」の他の例としては、最新の第2撮像画像よりも1フレーム分、又は、予め定められた複数フレーム分(例えば、2フレーム分)だけ前のタイミングが挙げられる。
すなわち、本ステップ280の処理で用いられる第2撮像画像は、最新の第2撮像画像に限定されるものではなく、例えば、最新の第2撮像画像よりも既定のフレーム数(例えば、1フレーム又は2フレーム)前に撮像されて得られた第2撮像画像であってもよい。
ステップ282で、実行部112Aは、静止画像ファイル、最新の距離、及び最新の撮像位置距離を二次記憶部104に記憶し、その後、ステップ284へ移行する。ここで、本ステップ282の処理が実行されることによって二次記憶部104に記憶される最新の距離及び最新の撮像位置距離は、本開示の技術に係る「既定のタイミングに対応するタイミングで取得された距離に基づく情報」の一例である。また、本ステップ282の処理は、本開示の技術に係る「記憶処理」の一例である。
本ステップ282の処理が実行されることによって二次記憶部104に記憶される静止画像ファイルは、ステップ280の処理で生成した静止画像ファイルである。また、本ステップ282の処理が実行されることによって二次記憶部104に記憶される最新の距離は、ステップ230の処理が実行されることで計測された被写体までの距離のうちの最新の距離である。更に、本ステップ282の処理が実行されることによって二次記憶部104に記憶される最新の撮像位置距離は、ステップ272又は後述のステップ310の処理で導出した撮像位置距離のうちの最新の撮像位置距離である。
なお、本ステップ282の処理が実行されることで二次記憶部104に記憶される距離及び撮像位置距離は、最新の距離及び最新の撮像位置距離でなくてもよい。例えば、ステップ280の処理で用いられる第2撮像画像の撮像タイミングに対応するタイミングで取得された距離及び撮像位置距離であってもよい。二次記憶部104に記憶される距離は、例えば、ステップ280の処理で用いられる第2撮像画像が最新の第2撮像画像よりも既定のフレーム数前に撮像されて第2撮像画像が得られた場合、第2撮像画像の撮像タイミングで計測された距離であればよい。また、二次記憶部104に記憶される撮像位置距離は、例えば、第2撮像画像の撮像タイミングで計測された距離に基づいて導出された撮像位置距離であればよい。
すなわち、ここで、第2撮像画像の撮像タイミングに対応するタイミングで取得された距離とは、例えば、最新の第2撮像画像よりも既定のフレーム数前の撮像タイミングで計測された距離を指す。また、ここで、第2撮像画像の撮像タイミングに対応するタイミングで取得された撮像位置距離とは、最新の第2撮像画像よりも既定のフレーム数前の撮像タイミングで計測された距離に基づいて導出された撮像位置距離を指す。
また、本ステップ282では、静止画像ファイル、被写体までの距離、及び撮像位置距離が二次記憶部104に記憶される場合を例示しているが、本開示の技術はこれに限定されるものではない。例えば、静止画像ファイル、被写体までの距離、及び撮像位置距離の何れか1つ以上が二次記憶部104に記憶されるようにしてもよいし、静止画像ファイル、被写体までの距離、及び撮像位置距離以外の他の情報も二次記憶部に記憶されるようにしてもよい。他の情報としては、例えば、被写体までの距離の計測で用いられたパラメータ、現在時刻、及び現在位置を特定可能なGPS(Global Positioning System)情報等が挙げられる。
ステップ284で、実行部112Aは、後続処理許可フラグをオフし、その後、ステップ286へ移行する。
ステップ286で、実行部112Aは、第2位置計測撮像処理を終了する条件を満足したか否かを判定する。なお、ステップ286において、第2位置計測撮像処理を終了する条件とは、上述のステップ202の説明で示した条件と同一の条件を指す。
ステップ286において、第2位置計測撮像処理を終了する条件を満足していない場合は、判定が否定されて、ステップ288へ移行する。ステップ286において、第2位置計測撮像処理を終了する条件を満足した場合は、判定が肯定されて、第2位置計測撮像処理を終了する。
ステップ288で、実行部112Aは、計測実行タイミングが到来したか否かを判定する。ステップ288において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ286へ移行する。ステップ288において、計測実行タイミングが到来した場合は、判定が肯定されて、図13に示すステップ230へ移行する。
図16に示すステップ290で、実行部112Aは、後続処理許可フラグがオンされているか否かを判定する。ステップ290において、後続処理許可フラグがオンされていない場合は、判定が否定されて、ステップ292へ移行する。ステップ290において、後続処理許可フラグがオンされている場合は、判定が肯定されて、ステップ300へ移行する。
ステップ292で、実行部112Aは、ステップ300以降の処理の実行を許可する指示である後続処理許可指示があったか否かを判定する。本ステップ292において、後続処理許可指示とは、例えば、不一致メッセージ137Bの表示が開示されてからタッチパネル88に対してユーザが行ったダブルタップを指す。なお、本ステップ292の処理でも、上述したステップ260の処理と同様に、後続処理許可指示は、ダブルタップに限定されるものではなく、タッチパネル88に対する既定の操作、又は受付デバイス90によって受け付けられた既定の指示であればよい。
ステップ292において、後続処理許可指示がなかった場合は、判定が否定されて、ステップ294へ移行する。ステップ292において、後続処理許可指示があった場合は、判定が肯定されて、ステップ296へ移行する。なお、ステップ292において判定が肯定されると、実行部112Aは、表示部86に対して、不一致メッセージ137Bの表示を終了させる。
ステップ294で、実行部112Aは、計測実行タイミングが到来したか否かを判定する。ステップ294において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ290へ移行する。ステップ294において、計測実行タイミングが到来した場合は、判定が肯定されて、図13に示すステップ230へ移行する。
ステップ296で、実行部112Aは、後続処理許可フラグをオンし、その後、ステップ298へ移行する。
ステップ298で、実行部112Aは、計測実行タイミングが到来したか否かを判定する。ステップ298において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ300へ移行する。ステップ266において、計測実行タイミングが到来した場合は、判定が肯定されて、図13に示すステップ230へ移行する。
ステップ300で、取得部110Aは、ステップ268の処理と同様に、第2撮像画像に含まれる画素のうち、上記の注目画素126に対応する画素である対応注目画素を特定し、特定した対応注目画素を特定する対応注目画素座標を取得する。
次のステップ302で、実行部112Aは、第2撮像画像のうちの外壁面画像128(図24に示す例のハッチング領域)において特徴的な3画素の位置を特定する3特徴画素座標を取得し、その後、ステップ304へ移行する。なお、ここで言う「特徴的な3画素」は、本開示の技術に係る「複数画素」の一例である。
ここで、外壁面画像128とは、第2撮像画像のうちの外壁面121(図17参照)を示す画像を指す。特徴的な3画素は、第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素である。第2撮像画像での特徴的な3画素は、互いに予め定められた画素数以上離れており、外壁面画像128のうちの模様又は建材等に相当する画像の空間周波数等を基に画像解析により既定の規則に従って特定された3点の各々に存在する画素である。例えば、注目画素126を中心とした予め定められた半径で既定される円領域内で最大の空間周波数を有する異なる頂点を示し、かつ、既定条件を満足する3つの画素が特徴的な3画素として抽出される。なお、3特徴画素座標は、上述した複数画素座標に相当する。
図24に示す例において、特徴的な3画素は、第1画素130、第2画素132、及び第3画素134である。第1画素130は、外壁面画像128のうち、外壁面2階中央部窓に相当する画像の正面視左上隅の画素である。第2画素132は、外壁面2階中央部窓に相当する画像の正面視右上隅の画素である。第3画素134は、外壁面3階中央部窓の下部に近接する模様124に相当する画像の正面視左下隅の画素である。なお、外壁面3階中央窓とは、図17に示す例において、外壁面121に設けられている窓122のうちの、オフィスビル120の3階の中央部の窓122を指す。
ステップ304で、取得部110Aは、第1撮像画像のうちの外壁面画像128(図24参照)に対応する外壁面画像において特徴的な3画素を特定し、特定した特徴的な3画素を特定する対応特徴画素座標を取得し、その後、ステップ306へ移行する。なお、対応特徴画素座標とは、第1撮像画像において特定した特徴的な3画素を特定する2次元座標を指す。また、対応特徴画素座標は、第1撮像画像において、上記のステップ302の処理で取得された3特徴画素座標に対応する2次元座標でもあり、上述した複数画素座標に相当する。また、第1撮像画像のうちの特徴的な3画素は、上述の対応注目画素の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
ステップ306で、実行部112Aは、3特徴画素座標、対応特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から、数式(6)に示す平面方程式のa,b,cを導出することで、平面方程式により規定される平面の向きを導出する。
ここで、3特徴画素座標を(uL1,vL1),(uL2,vL2),(uL3,vL3)とし、対応特徴画素座標を(uR1,vR1),(uR2,vR2),(uR3,vR3)とすると、下記の数式(7)~(9)により第1~第3特徴画素3次元座標が規定される。第1特徴画素3次元座標とは、(uL1,vL1)及び(uR1,vR1)に対応する3次元座標を指す。第2特徴画素3次元座標とは、(uL2,vL2)及び(uR2,vR2)に対応する3次元座標を指す。第3特徴画素3次元座標とは、(uL3,vL3)及び(uR3,vR3)に対応する3次元座標を指す。なお、数式(7)~(9)では、“vR1”、“vR2”、及び“vR3”は使用されない。
本ステップ306において、実行部112Aは、数式(7)~(9)に示す第1~第3特徴画素3次元座標の各々を数式(6)に代入して得られる等価関係にある3つの数式から数式(6)のa,b,cを最適化することで、数式(6)のa,b,cを導出する。このように、数式(6)のa,b,cが導出されるということは、数式(6)に示す平面方程式により規定される平面の向きが導出されることを意味する。
ステップ308で、実行部112Aは、ステップ242の処理で導出した照射位置実空間座標に基づいて数式(6)に示す平面方程式を確定し、その後、ステップ310へ移行する。すなわち、本ステップ308において、実行部112Aは、ステップ306の処理で導出したa,b,c及びステップ242の処理で導出した照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ306の処理で数式(6)のa,b,cが導出されているので、本ステップ308の処理で数式(6)のdが確定されると、数式(6)に示す平面方程式が確定される。
ステップ310で、実行部112Aは、特徴画素3次元座標及び平面方程式に基づいて、撮像位置距離を導出し、その後、図15に示すステップ274へ移行する。なお、本ステップ310の処理は、本開示の技術に係る「予め定められた処理」に含まれる処理の一例である。
ここで、本ステップ310の処理で用いられる特徴画素3次元座標とは、第1特徴画素3次元座標を指す。なお、本ステップ310の処理で用いられる特徴画素3次元座標は、第1特徴画素3次元座標に限らず、第2特徴画素3次元座標又は第3特徴画素3次元座標であってもよい。また、本ステップ310で用いられる平面方程式とは、ステップ308Lで確定された平面方程式を指す。
よって、本ステップ310では、特徴画素3次元座標が平面方程式に代入されることで、撮像位置距離である“B”が導出される。
なお、図14に示すステップ272の処理は、上述した第1導出処理に相当し、図16に示すステップ310の処理は、上述した第2導出処理に相当する。つまり、ステップ272の処理は、ステップ310の処理のように平面方程式を用いる必要がないそのため、第1導出処理は、第2導出処理に比べ、撮像位置距離の導出にかかる負荷が小さい。また、レーザ光の実際の照射位置が特定可能画素位置に対応する実空間上での位置と一致する場合、第1導出処理による撮像位置距離の導出精度は、第2導出処理による撮像位置距離の導出精度よりも高くなる。
次に、3次元座標導出ボタン90Gがオンされた場合にCPU100が3次元座標導出プログラム108Aを実行することで実現される3次元座標導出処理について図25を参照して説明する。
図25に示す3次元座標導出処理では、先ず、ステップ350で、実行部112Aは、ステップ272の処理、又はステップ310の処理で撮像位置距離が既に導出されているか否かを判定する。ステップ350において、ステップ272の処理及びステップ310の処理の何れの処理でも撮像位置距離が導出されていない場合は、判定が否定されて、ステップ358へ移行する。ステップ350において、ステップ272の処理、又はステップ310の処理で撮像位置距離が既に導出されている場合は、判定が肯定されて、ステップ352へ移行する。
ステップ352で、実行部112Aは、指定画素3次元座標の導出を開始する条件(以下、「導出開始条件」という)を満足したか否かを判定する。導出開始条件の一例としては、指定画素3次元座標の導出を開始する指示がタッチパネル88によって受け付けられたとの条件、又は撮像位置距離が表示部86に表示されたとの条件等が挙げられる。
ステップ352において、導出開始条件を満足していない場合は、判定が否定されて、ステップ358へ移行する。ステップ352において、導出開始条件を満足した場合は、判定が肯定されて、ステップ354へ移行する。
ステップ354で、実行部112Aは、注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、指定画素3次元座標を導出し、その後、ステップ356へ移行する。
ここで、本ステップ354の処理で用いられる注目画素座標とは、ステップ212の処理で取得された注目画素座標を指す。また、本ステップ354の処理で用いられる対応注目画素座標とは、ステップ268の処理、又はステップ300の処理で取得された対応注目画素座標を指す。また、本ステップ354の処理で用いられる撮像位置距離とは、ステップ272の処理、又はステップ310の処理で導出された撮像位置距離を指す。
よって、本ステップ354では、注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法が数式(1)に代入されることで、指定画素3次元座標が導出される。
ステップ356で、実行部112Aは、一例として図26に示すように、表示部86に対して、ステップ354の処理で導出された指定画素3次元座標を第2撮像画像に重畳して表示させる。また、ステップ356で、実行部112Aは、ステップ354の処理で導出された指定画素3次元座標を二次記憶部104に記憶し、その後、ステップ358へ移行する。
なお、図26に示す例では、(20161,50134,136892)が、ステップ354の処理で導出された指定画素3次元座標に該当する。また、図26に示す例では、指定画素3次元座標が注目画素126に近接して表示されている。なお、注目画素126は、他の画素と区別可能に強調表示されるようにしてもよい。
ステップ358で、実行部112Aは、3次元座標導出処理を終了する条件を満足したか否かを判定する。3次元座標導出処理を終了する条件の一例としては、タッチパネル88により3次元座標導出処理を終了する指示が受け付けられたとの条件が挙げられる。3次元座標導出処理を終了する条件の他の例としては、ステップ350で判定が否定されてからステップ350で判定が肯定されることなく第2既定時間が経過したとの条件等が挙げられる。なお、第2既定時間とは、例えば、30分を指す。
ステップ358において、本3次元座標導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ350へ移行する。ステップ358において、本3次元座標導出処理を終了する条件を満足した場合は、判定が肯定されて、本3次元座標導出処理を終了する。
以上説明したように、測距装置10Aでは、取得部110Aによりライブビュー画像として第2撮像画像が取得される。また、取得部110Aにより第2撮像画像が撮像される毎に、測距ユニット12及び測距制御部68により計測された被写体までの距離が取得される。また、取得部110Aにより取得された第2撮像画像毎に、取得部110Aにより取得された被写体までの距離に基づいて、導出部111Aにより、第2照射位置画素座標が導出される。そして、第2撮像画像毎に、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、ステップ254、ステップ272、及びステップ278~282の処理(図13~図15参照)が実行部112Aにより実行される。また、取得された第2撮像画像毎に、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合に、ステップ256、ステップ310、及びステップ278~282の処理(図13、図15、及び図16参照)が実行される。
従って、測距装置10Aによれば、レーザ光による被写体に対する照射位置に応じた処理であるステップ254、ステップ256、ステップ272、ステップ310、及びステップ278~282の処理を即時的に実行することができる。
なお、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合(ステップ252:Y)、ステップ254の処理、ステップ272の処理、及びステップ278~282の処理のうちの少なくとも1つの処理が実行されれば本開示の技術は成立する。また、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合(ステップ252:N)、ステップ256の処理、ステップ310の処理、及びステップ278~282の処理のうちの少なくとも1つの処理が実行されれば本開示の技術は成立する。
また、動画像に含まれる少なくとも2つの第2撮像画像の各々について、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合にステップ254の処理等の処理が実行されれば本開示の技術は成立する。また、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合にステップ256の処理等の処理が実行されれば本開示の技術は成立する。なお、ここで、ステップ256の処理等とは、例えば、ステップ256の処理、ステップ272の処理、及びステップ278~282の処理のうちの少なくとも1つの処理を指す。
また、測距装置10Aでは、取得部110Aにより取得された第2撮像画像毎に、実行部112Aにより、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、ステップ254の処理(図13参照)が実行される。そして、ステップ254の処理が実行されることで、一致メッセージ137Aが表示される(図21参照)。
従って、測距装置10Aによれば、第2照射位置画素座標により特定される画素の位置が特定可能画素位置であることをユーザに即時的に認識させることができる。
また、測距装置10Aでは、取得部110Aにより取得された第2撮像画像毎に、取得部110Aにより取得された被写体までの距離のうちの第2撮像画像に対応する距離に基づいて、照射位置実空間座標が導出される(ステップ242参照)。そして、一致メッセージ137Aが表示されている状態で、後続処理許可指示が受け付けられた場合(ステップ260:Y)、実行部112Aにより、ステップ272の処理(図14参照)が実行される。
従って、測距装置10Aによれば、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
また、測距装置10Aでは、取得部110Aにより取得された第2撮像画像毎に、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合に、ステップ256の処理(図13参照)が実行される。ステップ256の処理が実行されることで、不一致メッセージ137Bが表示される(図22参照)。
従って、測距装置10Aによれば、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でないことをユーザに即時的に認識させることができる。
また、測距装置10Aでは、不一致メッセージ137Bが表示されている状態で、後続処理許可指示が受け付けられた場合(ステップ292:Y)、実行部112Aにより、ステップ310の処理(図16参照)が実行される。
従って、測距装置10Aによれば、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合に、ユーザが要求するタイミングで撮像位置距離を導出することができる。
また、測距装置10Aでは、ライブビュー画像として取得された複数の第2撮像画像のうちの最新の第2撮像画像、並びに、測距ユニット12及び測距制御部68により計測された被写体までの距離のうちの最新の距離に基づく情報が二次記憶部104に記憶される。
従って、測距装置10Aによれば、レーザ光による被写体に対する照射位置に応じて、最新の第2撮像画像、及び最新の距離に基づく情報が即時的に二次記憶部104に記憶することができる。
また、測距装置10Aには、測距ユニット12及び測距制御部68が含まれ、測距ユニット12及び測距制御部68によって計測された被写体までの距離が取得部110Aにより取得される。
従って、測距装置10Aによれば、測距ユニット12及び測距制御部68によって計測された被写体までの距離を第2照射位置画素座標の導出に用いることができる。
更に、測距装置10Aには、撮像装置14が含まれ、撮像装置14により被写体が撮像されて得られた複数の第2撮像画像が取得部110Aによって取得される。
従って、測距装置10Aによれば、撮像装置14により撮像されて得られた複数の第2撮像画像を用いて、レーザ光による被写体に対する照射位置に応じた処理であるステップ254、ステップ256、ステップ272、ステップ310、及びステップ278~282の処理を即時的に実行することができる。
なお、上記第1実施形態では、第1位置で測距装置10Aにより第1撮像画像が静止画像として撮像される場合について例示したが、本開示の技術はこれに限定されるものではない。例えば、第1位置で第1撮像画像がライブビュー画像として撮像されてもよい。また、第1位置で第1撮像画像が、メモリカード92に対する記録用の動画像として撮像されてもよい。
また、上記第1実施形態では、第2位置で第2撮像画像がライブビュー画像として撮像される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、第2位置で第2撮像画像がメモリカード92に対する記録用の動画像として撮像されてもよい。
また、上記第1実施形態では、3特徴画素座標を例示したが、本開示の技術はこれに限定されるものでない。例えば、3特徴画素座標に代えて、特徴的な4画素以上の既定数の画素の各々を特定する2次元座標を採用してもよい。
また、上記第1実施形態では、注目画素座標が第1撮像画像上の座標から取得され、対応注目画素座標が第2撮像画像上の座標から取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、注目画素座標が第2撮像画像上の座標から取得され、対応注目画素座標が第1撮像画像上の座標から取得されるようにしてもよい。
また、上記第1実施形態では、3特徴画素座標が第1撮像画像上の座標から取得され、対応特徴画素座標が第2撮像画像上の座標から取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、3特徴画素座標が第2撮像画像上の座標から取得され、対応特徴画素座標が第1撮像画像上の座標から取得されるようにしてもよい。
また、上記第1実施形態では、3特徴画素座標として、第1画素130、第2画素132、及び第3画素134の各々を特定する2次元座標が取得部110Aによって取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図27に示すように、第1画素130A、第2画素132A、及び第3画素134Aの各々を特定する2次元座標が取得部110Aによって取得されるようにしてもよい。第1画素130A、第2画素132A、及び第3画素134Aは、外壁面画像128において取り囲まれる面積が最大となる3画素である。なお、3画素に限らず、外壁面画像128において取り囲まれる面積が最大となる3画素以上の既定数の画素であればよい。
このように、図27に示す例では、外壁面画像128において取り囲まれる面積が最大となる3画素が特徴的な3画素として特定され、特定された3画素に関する2次元座標が3特徴画素座標として取得部110Aによって取得される。また、取得部110Aにより、3特徴画素座標に対応する対応特徴画素座標も取得される。従って、測距装置10Aによれば、特徴的な3画素として、取り囲む面積が最大とならない複数の画素を特定する3特徴画素座標及び対応特徴画素座標が取得される場合に比べ、撮像位置距離を高精度に導出することができる。
また、上記第1実施形態では、3次元座標導出ボタン90Gがオンされた場合に撮像位置距離導出処理が実現される場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、撮像位置距離導出ボタン90Fがオンされた場合に撮像位置距離導出処理が実行されるようにしてもよい。上記第1実施形態で説明した撮像位置距離導出処理は、3次元座標の導出を最終的な目的とした場合の一例である。
そのため、3次元座標の導出で要する注目画素座標及び対応注目画素座標を撮像位置距離導出処理で取得しているが、撮像位置距離の導出のみが目的の場合、撮像位置距離導出処理での注目画素座標及び対応注目画素座標の取得は不要である。よって、実行部112Aは、撮像位置距離導出ボタン90Fがオンされた場合、注目画素座標及び対応注目画素座標を取得せずに撮像位置距離を導出し、次いで、3次元座標導出ボタン90Gがオンされた場合に、注目画素座標及び対応注目画素座標を取得してもよい。この場合、実行部112Aは、例えば、図25に示す3次元座標導出処理のステップ352の処理とステップ354の処理との間で注目画素座標及び対応注目画素座標を取得し、取得した注目画素座標及び対応注目画素座標をステップ354の処理で用いればよい。
[第2実施形態]
上記第1実施形態では、後続処理許可指示が受け付けられたことを条件に撮像位置距離が導出される場合について説明したが、本第2実施形態では、後続処理許可指示がなくても撮像位置距離が導出される場合について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記第1実施形態では、後続処理許可指示が受け付けられたことを条件に撮像位置距離が導出される場合について説明したが、本第2実施形態では、後続処理許可指示がなくても撮像位置距離が導出される場合について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
本第2実施形態に係る測距装置10Bは、一例として図6に示すように、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106Aに代えて撮像位置距離導出プログラム106Bが記憶されている点が異なる。
CPU100は、撮像位置距離導出プログラム106Bを実行することで、取得部110B、導出部111B、及び実行部112Bとして動作する(図9参照)。
取得部110Bは、上記第1実施形態で説明した取得部110Aに対応し、導出部111Bは、上記第1実施形態で説明した導出部111Aに対応し、実行部112Bは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第2実施形態では、取得部110B、導出部111B、及び実行部112Bについて、上記第1実施形態と異なる部分のみ説明する。
実行部112Bは、取得部110Bにより取得された第2撮像画像毎に、上記第1実施形態で説明した既定の第1条件を満足した場合に、上記第1実施形態で説明した第1導出処理を実行する。
次に、測距装置10Bの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム106Bを実行することで実現される撮像位置距離導出処理に含まれる第2位置計測撮像処理について図28~図30を参照して説明する。なお、図13~図16に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
本第2実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ234及びステップ236の処理を有しない点が異なる(図13及び図28参照)。また、本第2実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ254、ステップ256、及びステップ258~ステップ266の処理を有しない点が異なる(図13、図14、及び図28参照)。また、本第2実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ284を有しない点が異なる(図15及び図29参照)。更に、本第2実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ290~ステップ298の処理有しない点が異なる(図16及び図30参照)。
そのため、測距装置10Bでは、取得部110Bによりライブビュー画像として第2撮像画像が取得される(ステップ238参照)。また、取得部110Bにより第2撮像画像が撮像される毎に、測距ユニット12及び測距制御部68により計測された被写体までの距離が取得される(ステップ230参照)。また、取得部110Bにより取得された第2撮像画像毎に、取得部110Bにより取得された被写体までの距離に基づいて、導出部111Bにより、照射位置実空間座標が導出される(ステップ242参照)。そして、第2撮像画像毎に、第2照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、ステップ272、及びステップ278~282の処理(図28及び図29参照)が実行部112Bにより実行される。また、取得された第2撮像画像毎に、第2照射位置画素座標により特定される画素の位置が特定可能画素位置でない場合に、ステップ310及びステップ278~282の処理(図28及び図29参照)が実行される。
従って、測距装置10Aによれば、レーザ光による被写体に対する照射位置に応じた処理であるステップ272、ステップ310、及びステップ278~282の処理を即時的に実行することができる。
[第3実施形態]
上記第1実施形態では、外壁面画像128の全体を対象として3特徴画素座標が取得される場合について説明したが、本第3実施形態では、外壁面画像128の一部を対象として3特徴画素座標が取得される場合について説明する。なお、本第3実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記第1実施形態では、外壁面画像128の全体を対象として3特徴画素座標が取得される場合について説明したが、本第3実施形態では、外壁面画像128の一部を対象として3特徴画素座標が取得される場合について説明する。なお、本第3実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
本第3実施形態に係る測距装置10Cは、一例として図6に示すように、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106Aに代えて撮像位置距離導出プログラム106Cが記憶されている点が異なる。
CPU100は、撮像位置距離導出プログラム106Cを実行することで、取得部110C、導出部111C、及び実行部112Cとして動作する(図9参照)。
取得部110Cは、上記第1実施形態で説明した取得部110Aに対応し、導出部111Cは、上記第1実施形態で説明した導出部111Aに対応し、実行部112Cは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第3実施形態では、取得部110C、導出部111C、及び実行部112Cについて、上記第1実施形態と異なる部分のみ説明する。
次に、測距装置10Cの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム106Cを実行することで実現される撮像位置距離導出処理について図13及び図31~図33を参照して説明する。なお、図13~図16に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
本第3実施形態に係る撮像位置距離導出処理は、上記第1実施形態に係る撮像位置距離導出処理に比べ、ステップ212の処理とステップ214の処理との間にステップ400~ステップ412の処理を有する点が異なる(図12、図31、及び図32参照)。また、本第3実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ302の処理を有しない点が異なる(図16及び図33参照)。更に、本第3実施形態に係る第2位置計測撮像処理は、上記第1実施形態に係る第2位置計測撮像処理に比べ、ステップ304の処理に代えてステップ414の処理を有する点が異なる(図16及び図33参照)。
図31に示すステップ400で、実行部112Cは、第1撮像画像から外壁面画像128(図34参照)を特定し、その後、ステップ402へ移行する。
ステップ402で、実行部112Cは、表示部86に対して、ステップ400の処理で特定した外壁面画像128を、第1撮像画像の表示領域内の他の領域と区別可能に強調して表示させ、その後、ステップ404へ移行する。
ステップ404で、実行部112Cは、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により座標取得対象領域が指定されたか否かを判定する。
ステップ404において、領域指定情報により座標取得対象領域が指定されていない場合は、判定が否定されて、ステップ406へ移行する。ステップ404において、領域指定情報により座標取得対象領域が指定された場合は、判定が肯定されて、ステップ408へ移行する。
ステップ406で、実行部112Cは、撮像位置距離導出処理を終了する条件を満足したか否かを判定する。ステップ406において、撮像位置距離導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ404へ移行する。ステップ406において、撮像位置距離導出処理を終了する条件を満足した場合は、判定が肯定されて、撮像位置距離導出処理を終了する。
ステップ408で、実行部112Cは、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158(図34参照)に、上記第1実施形態で説明した特徴的な3画素が存在するか否かを判定する。
一例として図34に示すように、タッチパネル88によって受け付けられた領域指定情報により座標取得対象領域158が指定された場合、座標取得対象領域158には、模様124(図17参照)を示す模様画像160が含まれている。
図35に示す例では、座標取得対象領域158に、特徴的な3画素として、第1画素162、第2画素164、及び第3画素166が含まれている。図35に示す例において、第1画素162は、模様画像160の正面視左上隅の画素であり、第2画素164は、模様画像160の正面視左下隅の画素であり、第3画素166は、模様画像160の正面視右下隅の画素である。
ステップ408において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在しない場合は、判定が否定されて、ステップ410へ移行する。ステップ408において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在する場合は、判定が肯定されて、ステップ412へ移行する。なお、本ステップ408において肯定判定される場合とは、例えば、図34に示すように、タッチパネル88によって受け付けられた領域指定情報により模様画像160を含む座標取得対象領域158が指定された場合を指す。
ステップ410で、実行部112Cは、表示部86に対して再指定メッセージを第1撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ404へ移行する。再指定メッセージとは、例えば、「特徴的な模様又は建材等が含まれる閉領域を指定して下さい」とのメッセージを指す。なお、本ステップ410の処理が実行されることで表示された再指定メッセージは、ステップ404において判定が肯定されると非表示される。また、ここでは、再指定メッセージが可視表示される場合を例示しているが、本開示の技術はこれに限定されるものではなく、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
ステップ412で、実行部112Cは、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158において特徴的な3画素を特定する3特徴画素座標を取得し、その後、図32に示すステップ214へ移行する。なお、図31に示す例では、本ステップ412の処理が実行されることで、第1画素162、第2画素164、及び第3画素166の各々を特定する2次元座標が3特徴画素座標として実行部112Cによって取得される。
図33に示すステップ414で、実行部112Cは、第2撮像画像のうちの外壁面画像128(図34参照)に対応する外壁面画像において特徴的な3画素を特定し、特定した特徴的な3画素を特定する対応特徴画素座標を取得し、その後、ステップ306へ移行する。なお、対応特徴画素座標とは、第2撮像画像において特定した特徴的な3画素を特定する2次元座標を指す。また、対応特徴画素座標は、第2撮像画像において、上記のステップ412の処理で取得された3特徴画素座標に対応する2次元座標でもあり、上述した複数画素座標に相当する。また、第2撮像画像のうちの特徴的な3画素は、上述の対応注目画素の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
以上説明したように、測距装置10Cでは、第1撮像画像において外壁面画像128が他の領域と区別可能に表示部86に表示される。また、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により、外壁面画像128の一部である座標取得対象領域が指定される。そして、実行部112Cにより、座標取得対象領域に特徴的な3画素が含まれている場合、特徴的な3画素を特定する3特徴画素座標が取得され(ステップ412)、3特徴画素座標に対応する対応特徴画素座標も取得される(ステップ414)。
従って、測距装置10Cによれば、外壁面画像128の全体を対象として3特徴画素座標及び対応特徴画素座標を取得する場合に比べ、小さな負荷で3特徴画素座標及び対応特徴画素座標を取得することができる。
[第4実施形態]
上記第3実施形態では、第1撮像画像に対して座標取得対象領域が指定される場合について説明したが、本第4実施形態では、第2撮像画像に対して座標取得対象領域が指定される場合について説明する。なお、本第4実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記第3実施形態では、第1撮像画像に対して座標取得対象領域が指定される場合について説明したが、本第4実施形態では、第2撮像画像に対して座標取得対象領域が指定される場合について説明する。なお、本第4実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
本第4実施形態に係る測距装置10Dは、一例として図6に示すように、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106Aに代えて撮像位置距離導出プログラム106Dが記憶されている点が異なる。
CPU100は、撮像位置距離導出プログラム106Dを実行することで、取得部110D、導出部111D、及び実行部112Dとして動作する(図9参照)。
取得部110Dは、上記第1実施形態で説明した取得部110Aに対応し、導出部111Dは、上記第1実施形態で説明した導出部111Aに対応し、実行部112Dは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第4実施形態では、取得部110D、導出部111D、及び実行部112Dについて、上記第1実施形態と異なる部分のみ説明する。
次に、測距装置10Dの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム106Dを実行することで実現される撮像位置距離導出処理に含まれる第2位置計測撮像処理について図13及び図36を参照して説明する。なお、図13~図16に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
図36に示すステップ450で、実行部112Dは、第2撮像画像から外壁面画像128(図34参照)を特定し、その後、ステップ452へ移行する。
ステップ452で、実行部112Dは、表示部86に対して、ステップ450の処理で特定した外壁面画像128を、第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を開始させ、その後、ステップ454へ移行する。
ステップ454で、実行部112Dは、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により座標取得対象領域が指定されたか否かを判定する。
ステップ454において、領域指定情報により座標取得対象領域が指定されていない場合は、判定が否定されて、ステップ456へ移行する。ステップ454において、領域指定情報により座標取得対象領域が指定された場合は、判定が肯定されて、ステップ460へ移行する。
ステップ456で、実行部112Dは、上記第1実施形態で説明した計測実行タイミングが到来したか否かを判定する。ステップ456において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ454へ移行する。ステップ456において、計測実行タイミングが到来した場合は、判定が肯定されて、ステップ458へ移行する。
ステップ458で、実行部112Dは、表示部86に対して、外壁面画像128を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、図13に示すステップ230へ移行する。なお、後述のステップ462の処理が実行されることで再指定メッセージの表示が開始されている場合、本ステップ458が実行されることで再指定メッセージが非表示される。
ステップ460で、実行部112Dは、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158(図34参照)に、上記第1実施形態で説明した特徴的な3画素が存在するか否かを判定する。なお、図35に示す例では、第2撮像画像に対して指定された座標取得対象領域158に、特徴的な3画素として、第1画素162、第2画素164、及び第3画素166が含まれている。
ステップ460において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在しない場合は、判定が否定されて、ステップ462へ移行する。ステップ460において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在する場合は、判定が肯定されて、ステップ470へ移行する。なお、本ステップ460において肯定判定される場合とは、例えば、図34に示すように、タッチパネル88によって受け付けられた領域指定情報により模様画像160を含む座標取得対象領域158が指定された場合を指す。
ステップ462で、実行部112Dは、表示部86に対して、上記第3実施形態で説明した再指定メッセージを第2撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ464へ移行する。なお、本ステップ462の処理が実行されることで表示された再指定メッセージは、ステップ454において判定が肯定されると非表示される。また、ここでは、再指定メッセージが可視表示される場合を例示しているが、本開示の技術はこれに限定されるものではなく、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
ステップ464で、実行部112Dは、上記第1実施形態で説明した計測実行タイミングが到来したか否かを判定する。ステップ464において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ454へ移行する。ステップ464において、計測実行タイミングが到来した場合は、判定が肯定されて、ステップ466へ移行する。
ステップ466で、実行部112Dは、表示部86に対して、外壁面画像128を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、ステップ468へ移行する。
ステップ468で、実行部112Dは、表示部86に対して、再指定メッセージの表示を終了させ、その後、図13に示すステップ230へ移行する。
ステップ470で、実行部112Dは、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158において特徴的な3画素を特定する第1特徴画素座標を取得し、その後、ステップ472へ移行する。なお、本ステップ470の処理が実行されることで、第2撮像画像の第1画素162、第2画素164、及び第3画素166の各々を特定する2次元座標が第1特徴画素座標として実行部112Dによって取得される。
ステップ472で、実行部112Dは、表示部86に対して、外壁面画像128を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、ステップ474へ移行する。
ステップ474で、実行部112Dは、第1撮像画像のうちの外壁面画像128に対応する外壁面画像において特徴的な3画素を特定し、特定した特徴的な3画素を特定する第2特徴画素座標を取得し、その後、ステップ476へ移行する。なお、第2特徴画素座標とは、第1撮像画像において特定した特徴的な3画素を特定する2次元座標を指す。また、第2特徴画素座標は、第1撮像画像において、上記のステップ470の処理で取得された第1特徴画素座標に対応する2次元座標でもあり、上述した複数画素座標に相当する。また、第1撮像画像のうちの特徴的な3画素は、上述の対応注目画素の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
ステップ476で、実行部112Dは、第1特徴画素座標、第2特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から、数式(6)に示す平面方程式のa,b,cを導出することで、平面方程式により規定される平面の向きを導出する。なお、本ステップ476では、上記第1実施形態で説明したステップ306の処理で用いられる導出方法と同様の導出方法で平面の向きが導出される。
ステップ478で、実行部112Dは、ステップ242の処理で導出した照射位置実空間座標に基づいて数式(6)に示す平面方程式を確定し、その後、ステップ480へ移行する。すなわち、本ステップ478において、実行部112Dは、ステップ476の処理で導出したa,b,c及びステップ242の処理で導出した照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ476の処理で数式(6)のa,b,cが導出されているので、本ステップ478の処理で数式(6)のdが確定されると、数式(6)に示す平面方程式が確定される。
ステップ480で、実行部112Dは、特徴画素3次元座標及び平面方程式に基づいて、撮像位置距離を導出し、その後、図15に示すステップ274へ移行する。なお、本ステップ480の処理は、本開示の技術に係る「予め定められた処理」に含まれる処理の一例である。
なお、本第4実施形態に係る第2位置計測撮像処理では、後続処理許可フラグがオンされている場合、図15に示すステップ284の処理が実行されるが、後続処理許可フラグがオフされている場合、ステップ284の処理は実行されず、ステップ286へ移行する。
以上説明したように、測距装置10Dでは、第2撮像画像において外壁面画像128が他の領域と区別可能に表示部86に表示される。また、第2撮像画像に対して外壁面画像128の一部である座標取得対象領域が指定される。そして、実行部112Dにより、座標取得対象領域に特徴的な3画素が含まれている場合、特徴的な3画素を特定する第1特徴画素座標が取得され(ステップ470)、3特徴画素座標に対応する第2特徴画素座標も取得される(ステップ474)。
従って、測距装置10Dによれば、外壁面画像128の全体を対象として3特徴画素座標及び対応特徴画素座標を取得する場合に比べ、小さな負荷で3特徴画素座標及び対応特徴画素座標を取得することができる。
[第5実施形態]
上記各実施形態では、画像解析により特定の画像内で特徴的な3画素が探索されて特定される場合について説明したが、本第5実施形態では、特徴的な3画素がタッチパネル88に対する操作に従って指定される場合について説明する。なお、本第5実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記各実施形態では、画像解析により特定の画像内で特徴的な3画素が探索されて特定される場合について説明したが、本第5実施形態では、特徴的な3画素がタッチパネル88に対する操作に従って指定される場合について説明する。なお、本第5実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
本第5実施形態に係る測距装置10Eは、一例として図6に示すように、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106Aに代えて撮像位置距離導出プログラム106Eが記憶されている点が異なる。
CPU100は、撮像位置距離導出プログラム106Eを実行することで、取得部110E、導出部111E、及び実行部112Eとして動作する(図9参照)。
取得部110Eは、上記第1実施形態で説明した取得部110Aに対応し、導出部111Eは、上記第1実施形態で説明した導出部111Aに対応し、実行部112Eは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第5実施形態では、取得部110E、導出部111E、及び実行部112Eについて、上記第1実施形態と異なる部分のみ説明する。
次に、測距装置10Eの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム106Eを実行することで実現される撮像位置距離導出処理について図37及び図38を参照して説明する。なお、図13及び図31~図33に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
本第5実施形態に係る撮像位置距離導出処理は、上記第3実施形態に係る撮像位置距離導出処理に比べ、ステップ404の処理に代えてステップ500の処理を有する点が異なる(図31及び図37参照)。また、本第5実施形態に係る撮像位置距離導出処理は、上記第3実施形態に係る撮像位置距離導出処理に比べ、ステップ502の処理を有する点が異なる(図31及び図37参照)。また、本第5実施形態に係る撮像位置距離導出処理は、上記第3実施形態に係る撮像位置距離導出処理に比べ、ステップ408の処理に代えてステップ504の処理を有する点が異なる(図31及び図37参照)。また、本第5実施形態に係る撮像位置距離導出処理は、上記第3実施形態に係る撮像位置距離導出処理に比べ、ステップ412の処理に代えてステップ506の処理を有する点が異なる(図31及び図37参照)。更に、本第5実施形態に係る撮像位置距離導出処理は、上記第3実施形態に係る撮像位置距離導出処理に比べ、ステップ414,ステップ306~ステップ310の処理に代えてステップ518~ステップ558の処理を有する点が異なる(図33及び図38参照)。
図37に示すステップ500で、実行部112Eは、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により第1座標取得対象領域178(図34参照)が指定されたか否かを判定する。なお、第1座標取得対象領域は、上記第3実施形態で説明した座標取得対象領域158に対応する領域である。
ステップ500において、領域指定情報により第1座標取得対象領域178が指定されていない場合は、判定が否定されて、ステップ406へ移行する。ステップ500において、領域指定情報により第1座標取得対象領域178が指定された場合は、判定が肯定されて、ステップ502へ移行する。
ステップ502で、実行部112Eは、表示部86に対して、タッチパネル88で受け付けられた領域指定情報により指定された第1座標取得対象領域178を、第1撮像画像の表示領域内の他の領域と区別可能に強調した表示を開始させる。なお、第1座標取得対象領域178を強調した表示は、後述のステップ504において判定が肯定されると、終了する。
次のステップ504で、実行部112Eは、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されたか否かを判定する。
一例として図34に示すように、タッチパネル88によって受け付けられた領域指定情報により第1座標取得対象領域178が指定された場合、第1座標取得対象領域178には、模様画像160が含まれている。この場合、特徴的な3画素とは、一例として図35に示すように、模様画像160の3隅に存在する画素である第1画素162、第2画素164、及び第3画素166を指す。
ステップ504において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されていない場合は、判定が否定されて、ステップ410へ移行する。ステップ504において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定された場合は、判定が肯定されて、ステップ506へ移行する。
ステップ506で、実行部112Eは、タッチパネル88によって受け付けられた画素指定情報により指定された特徴的な3画素を特定する第1特徴画素座標を取得し、その後、図32に示すステップ214へ移行する。なお、本ステップ506の処理が実行されることで、第1撮像画像の第1画素162、第2画素164、及び第3画素166の各々を特定する2次元座標が第1特徴画素座標として実行部112Eによって取得される。
図38に示すステップ518で、実行部112Eは、第2撮像画像から外壁面画像128に対応する外壁面画像である対応外壁面画像を特定し、その後、ステップ520へ移行する。
ステップ520で、実行部112Eは、表示部86に対して、ステップ518の処理で特定した対応外壁面画像を、第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を開始させ、その後、ステップ522へ移行する。なお、対応外壁面画像を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示は、ステップ540において判定が肯定されると、終了する。
ステップ522で、実行部112Eは、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により第2座標取得対象領域が指定されたか否かを判定する。なお、第2座標取得対象領域は、第2撮像画像において、第1座標取得対象領域178(図34参照)に対応する領域としてユーザによってタッチパネル88を介して指定された領域である。
ステップ522において、領域指定情報により第2座標取得対象領域が指定されていない場合は、判定が否定されて、ステップ524へ移行する。ステップ522において、領域指定情報により第2座標取得対象領域が指定された場合は、判定が肯定されて、ステップ530へ移行する。なお、後述の再指定メッセージが表示された状態でステップ522の処理が実行され、ステップ522において判定が肯定されると、再指定メッセージが非表示される。
ステップ524で、実行部112Eは、上記第1実施形態で説明した計測実行タイミングが到来したか否かを判定する。ステップ524において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ522へ移行する。ステップ524において、計測実行タイミングが到来した場合は、判定が肯定されて、ステップ526へ移行する。
ステップ526で、実行部112Eは、表示部86に対して、対応外壁面画像を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、図13に示すステップ230へ移行する。なお、後述の再指定メッセージが表示された状態でステップ526の処理が実行されると、再指定メッセージが非表示される。
ステップ530で、実行部112Eは、表示部86に対して、タッチパネル88で受け付けられた領域指定情報により指定された第2座標取得対象領域を、第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を開始させる。なお、第2座標取得対象領域を強調した表示は、後述のステップ540において判定が肯定されると、終了する。
次のステップ540で、実行部112Eは、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されたか否かを判定する。この場合、特徴的な3画素とは、例えば、第1画素162、第2画素164、及び第3画素166の各々に対応する画素を指す。
ステップ540において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されていな場合は、判定が否定されて、ステップ542へ移行する。ステップ540において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定された場合は、判定が肯定されて、ステップ550へ移行する。
ステップ542で、実行部112Eは、表示部86に対して、上記第3実施形態で説明した再指定メッセージを第2撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ544へ移行する。
ステップ544で、実行部112Eは、上記第1実施形態で説明した計測実行タイミングが到来したか否かを判定する。ステップ544において、計測実行タイミングが到来していない場合は、判定が否定されて、ステップ522へ移行する。ステップ544において、計測実行タイミングが到来した場合は、判定が肯定されて、ステップ546へ移行する。
ステップ546で、実行部112Eは、表示部86に対して、第2座標取得対象領域を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、ステップ548へ移行する。
ステップ548で、実行部112Eは、表示部86に対して、再指定メッセージの表示を終了させ、その後、図13に示すステップ230へ移行する。
ステップ550で、実行部112Eは、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158において、指定された特徴的な3画素を特定する第2特徴画素座標を取得し、その後、ステップ552へ移行する。
ステップ552で、実行部112Eは、表示部86に対して、第2座標取得対象領域を第2撮像画像の表示領域内の他の領域と区別可能に強調した表示を終了させ、その後、ステップ554へ移行する。
ステップ554で、実行部112Eは、第1特徴画素座標、第2特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から、数式(6)に示す平面方程式のa,b,cを導出することで、平面方程式により規定される平面の向きを導出する。なお、本ステップ554では、上記第1実施形態で説明したステップ306の処理で用いられる導出方法と同様の導出方法で平面の向きが導出される。
ステップ556で、実行部112Eは、ステップ242の処理で導出した照射位置実空間座標に基づいて数式(6)に示す平面方程式を確定し、その後、ステップ558へ移行する。すなわち、本ステップ556において、実行部112Eは、ステップ554の処理で導出したa,b,c及びステップ242の処理で導出した照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ554の処理で数式(6)のa,b,cが導出されているので、本ステップ556の処理で数式(6)のdが確定されると、数式(6)に示す平面方程式が確定される。
ステップ558で、実行部112Eは、特徴画素3次元座標及び平面方程式に基づいて、撮像位置距離を導出し、その後、図15に示すステップ274へ移行する。なお、本ステップ558の処理は、本開示の技術に係る「予め定められた処理」に含まれる処理の一例である。
以上説明したように、測距装置10Eでは、第1撮像画像においてタッチパネル88を介して特徴的な3画素が指定され、指定された特徴的な3画素を特定する第1特徴画素座標が実行部112Eにより取得される(ステップ506)。また、第2撮像画像においてタッチパネル88を介して、第1撮像画像の特徴的な3画素に対応する特徴的な3画素が指定される(ステップ540:Y)。また、第2撮像画像においてタッチパネル88を介して指定された特徴的な3画素を特定する第2特徴画素座標が実行部112Eにより取得される(ステップ550)。そして、実行部112Eにより、注目画素座標、対応注目画素座標、第1特徴画素座標、第2特徴画素座標、焦点位置座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、撮像位置距離が導出される。
従って、測距装置10Eによれば、ユーザの意思に従って取得された第1特徴画素座標及び第2特徴画素座標を基に撮像位置距離を導出することができる。
[第6実施形態]
上記各実施形態では、第1位置及び第2位置のうち、第2位置でのみ測距が行われる場合について説明したが、本第6実施形態では、第1位置でも測距が行われる場合について説明する。なお、本第6実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記各実施形態では、第1位置及び第2位置のうち、第2位置でのみ測距が行われる場合について説明したが、本第6実施形態では、第1位置でも測距が行われる場合について説明する。なお、本第6実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
本第4実施形態に係る測距装置10Fは、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106Aに代えて撮像位置距離導出プログラム106Fが記憶されている点が異なる。また、測距装置10Fは、測距装置10Aに比べ、二次記憶部104に3次元座標導出プログラム108Aに代えて3次元座標導出プログラム108Bが記憶されている点が異なる。
CPU100は、撮像位置距離導出プログラム106Fを実行することで、取得部110F、導出部111F、及び実行部112Fとして動作する(図9参照)。
取得部110Fは、上記第1実施形態で説明した取得部110Aに対応し、導出部111Fは、上記第1実施形態で説明した導出部111Aに対応し、実行部112Fは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第5実施形態では、取得部110F、導出部111F、及び実行部112Fについて、上記第1実施形態と異なる部分のみ説明する。
次に、測距装置10Fの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム106Fを実行することで実現される撮像位置距離導出処理について図13及び図39~図41を参照して説明する。なお、図13及び図12~図16に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。また、本第6実施形態の以下の説明では、説明の便宜上、図13に示すステップ252において判定が否定されることを前提として説明する。
本第6実施形態に係る撮像位置距離導出処理は、上記第1実施形態に係る撮像位置距離導出処理に比べ、ステップ200、ステップ204、及びステップ206の処理に代えてステップ600、ステップ602、及びステップ604の処理を有する点が異なる(図12及び図39参照)。また、本第6実施形態に係る撮像位置距離導出処理は、上記第1実施形態に係る撮像位置距離導出処理に比べ、ステップ308及びステップ310の処理に代えて、ステップ608~ステップ616の処理を有する点が異なる(図16及び図40参照)。更に、本第6実施形態に係る撮像位置距離導出処理は、上記第1実施形態に係る撮像位置距離導出処理に比べ、ステップ274~ステップ282の処理に代えて、ステップ618~ステップ626の処理を有する点が異なる(図15及び図41参照)。
図39に示すステップ600で、取得部110Fは、測距装置10Fにより第1位置で距離の計測及び撮像が実行されたか否かを判定する。第1位置は、外壁面121にレーザ光が照射可能であり、かつ、外壁面121を含む領域を被写体として撮像可能な位置であればよい。
ステップ600において、測距装置10Fにより第1位置で距離の計測及び撮像が実行されていない場合は、判定が否定されて、ステップ202へ移行する。ステップ600において、測距装置10Fにより第1位置で距離の計測及び撮像が実行された場合は、判定が肯定されて、ステップ602へ移行する。
ステップ602で、取得部110Fは、第1位置で計測された距離である参照用距離、及び、第1位置で撮像が実行されることによって得られた第1撮像画像を示す第1撮像画像信号を取得する。そして、取得部110Fは、取得した参照用距離及び第1撮像画像信号を二次記憶部104の既定の記憶領域に記憶し、その後、ステップ604へ移行する。
ステップ604で、取得部110Fは、一例として図18に示すように、表示部86に対して、取得した第1撮像画像信号により示される第1撮像画像の表示を開始させ、その後、ステップ208へ移行する。
図40に示すステップ606で、実行部112Fは、ステップ242の処理で導出された照射位置実空間座標に基づいて数式(6)に示す平面方程式である第1平面方程式を確定し、その後、ステップ608へ移行する。
ステップ608で、実行部112Fは、特徴画素3次元座標及び第1平面方程式に基づいて、撮像位置距離を導出し、その後、ステップ610へ移行する。
ステップ610で、実行部112Fは、ステップ602の処理で取得部110Fによって取得された参照用距離、半画角α、射出角度β、及び基準点間距離Mから、数式(2)に基づいて、参照用照射位置実空間座標を導出し、その後、ステップ612へ移行する。なお、本ステップ610の処理で用いられる参照用距離は、上記第1実施形態で説明した距離Lに対応する距離である。
ステップ612で、実行部112Fは、ステップ610の処理で導出した参照用照射位置実空間座標に基づいて数式(6)に示す平面方程式である第2平面方程式を確定し、その後、ステップ614へ移行する。すなわち、本ステップ612において、実行部112Fは、ステップ306の処理で導出したa,b,c及びステップ610の処理で導出した参照用照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ306の処理で数式(6)のa,b,cが導出されているので、本ステップ612の処理で数式(6)のdが確定されると、第2平面方程式が確定される。
ステップ614で、特徴画素3次元座標及び第2平面方程式に基づいて、参照用撮像位置距離を導出し、その後、ステップ616へ移行する。なお、参照用撮像位置距離は、例えば、数式(7)に示す“B”に相当し、第1特徴画素3次元座標が第2平面方程式に代入されることで導出される。
ステップ616で、実行部112Fは、ステップ614の処理で導出した参照用撮像位置距離を参照して、ステップ608の処理で導出した撮像位置距離を調整することで、最終撮像位置距離を導出し、その後、図41に示すステップ618へ移行する。ここで、撮像位置距離を調整するとは、例えば、撮像位置距離及び参照用撮像位置距離の平均値を求めること、撮像位置距離及び参照用撮像位置距離の平均値に第1調整用係数を乗じること、又は第2調整用係数を撮像位置距離に乗じることを指す。
なお、第1調整用係数及び第2調整用係数は、何れも、例えば、参照用撮像位置距離に応じて一意に定まる係数である。第1調整用係数は、例えば、参照用撮像位置距離と第1調整用係数とが予め対応付けられた対応テーブル、又は、参照用撮像位置距離が独立変数とされ、第1調整用係数が従属変数とされた演算式から導出される。第2調整用係数も同様に導出される。対応テーブル又は演算式は、測距装置10Fの出荷前の段階で、測距装置10Fの実機による試験、又は測距装置10Fの設計仕様等に基づくコンピュータ・シミュレーション等の結果から導き出された導出用テーブル又は演算式から導出される。
よって、最終撮像位置距離の一例としては、撮像位置距離及び参照用撮像位置距離の平均値、撮像位置距離及び参照用撮像位置距離の平均値に第1調整用係数を乗じて得た値、又は撮像位置距離に第2調整用係数を乗じて得た値が挙げられる。
図41に示すステップ618で、実行部112Fは、表示部86により最終撮像位置距離が既に表示されている状態か否かを判定する。ステップ618において、表示部86により最終撮像位置距離が既に表示されている状態の場合は、判定が肯定されて、ステップ620へ移行する。ステップ618において、表示部86により最終撮像位置距離が既に表示されていない状態の場合は、判定が否定されて、ステップ622へ移行する。
ステップ620で、実行部112Fは、表示部86に対して、最終撮像位置距離の表示を終了させ、その後、ステップ622へ移行する。
ステップ622で、実行部112Fは、一例として図42に示すように、表示部86に対して、ステップ616の処理で導出した最終撮像位置距離を第2撮像画像に重畳した表示を開始させ、その後、ステップ624へ移行する。なお、図42に示す例では、「144621.7」との数値が、ステップ616の処理で導出された最終撮像位置距離に該当し、単位はミリメートルである。
ステップ624で、実行部112Fは、ステップ238の処理で取得された第2撮像画像信号から静止画像ファイルを生成し、その後、ステップ282へ移行する。なお、本ステップ624の処理で用いられる第2撮像画像は、最新の第2撮像画像であり、本開示の技術に係る「最新の撮像画像」の一例である。
ステップ626で、実行部112Fは、静止画像ファイル、最新の距離、及び最新の最終撮像位置距離を二次記憶部104に記憶し、その後、ステップ284へ移行する。なお、本ステップ626の処理が実行されることによって二次記憶部104に記憶される最新の距離及び最新の最終撮像位置距離は、本開示の技術に係る「最新の距離に基づく情報」の一例である。また、本ステップ282の処理が実行されることによって二次記憶部104に記憶される最新の最終撮像位置距離は、ステップ616の処理で導出した最終撮像位置距離のうちの最新の最終撮像位置距離である。
次に、3次元座標導出ボタン90Gがオンされた場合にCPU100が3次元座標導出プログラム108Bを実行することで実現される3次元座標導出処理について図43を参照して説明する。なお、ここでは、説明の便宜上、上述した本第6実施形態に係る撮像位置距離導出処理がCPU100によって実行されたことを前提として説明する。
図43に示す3次元座標導出処理では、先ず、ステップ650で、実行部112Fは、撮像位置距離導出処理に含まれるステップ616の処理で最終撮像位置距離が既に導出されているか否かを判定する。ステップ650において、撮像位置距離導出処理に含まれるステップ616の処理で最終撮像位置距離が導出されていない場合は、判定が否定されて、ステップ658へ移行する。ステップ650において、撮像位置距離導出処理に含まれるステップ616の処理で最終撮像位置距離が既に導出されている場合は、判定が肯定されて、ステップ652へ移行する。
ステップ652で、実行部112Fは、上記第1実施形態で説明した導出開始条件を満足したか否かを判定する。ステップ652において、導出開始条件を満足していない場合は、判定が否定されて、ステップ658へ移行する。ステップ652において、導出開始条件を満足した場合は、判定が肯定されて、ステップ654へ移行する。
ステップ654で、実行部112Fは、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、指定画素3次元座標を導出し、その後、ステップ656へ移行する。
なお、本ステップ654では、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法が数式(1)に代入されることで、指定画素3次元座標が導出される。
ステップ656で、実行部112Fは、一例として図44に示すように、表示部86に対して、ステップ654の処理で導出された指定画素3次元座標を第2撮像画像に重畳して表示させる。また、ステップ656で、実行部112Fは、ステップ654の処理で導出された指定画素3次元座標を既定の記憶領域に記憶し、その後、ステップ658へ移行する。
なお、図44に示す例では、(20160,50132,137810)が、ステップ454の処理で導出された指定画素3次元座標に該当する。また、図44に示す例では、指定画素3次元座標が注目画素126に近接して表示されている。
ステップ658で、実行部184は、3次元座標導出処理を終了する条件を満足したか否かを判定する。ステップ658において、3次元座標導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ650へ移行する。ステップ658において、3次元座標導出処理を終了する条件を満足した場合は、判定が肯定されて、3次元座標導出処理を終了する。
以上説明したように、測距装置10Fでは、第1位置から被写体までの距離が計測され、計測された距離である参照用距離が取得部110Fにより取得される(ステップ602)。また、実行部112Fにより、参照用距離に基づいて参照用照射位置実空間座標が導出される(ステップ610)。また、実行部112Fにより、注目画素座標、対応注目画素座標、3特徴画素座標、対応特徴画素座標、参照用照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、参照用撮像位置距離が導出される(ステップ614)。そして、実行部112Fにより、参照用撮像位置距離が参照されて撮像位置距離が調整されることで、最終撮像位置距離が導出される(ステップ616)。従って、測距装置10Fによれば、参照用撮像位置距離を用いない場合に比べ、第1撮像位置と第2撮像位置との距離を高精度に導出することができる。
また、測距装置10Fでは、撮像位置距離導出処理で導出された最終撮像位置距離に基づいて、指定画素3次元座標が導出される(図43参照)。従って、測距装置10Fによれば、最終撮像位置距離を用いない場合に比べ、指定画素3次元座標を高精度に導出することができる。
更に、測距装置10Fでは、指定画素3次元座標は、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されている(数式(1)参照)。従って、測距装置10Fによれば、指定画素3次元座標が最終撮像位置距離、注目画素座標、対応注目画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されない場合に比べ、指定画素3次元座標を高精度に導出することができる。
なお、上記第6実施形態では、第1位置から射出されたレーザ光を基に計測された距離を参照用距離としたが、本開示の技術はこれに限定されるものではない。例えば、第2位置から射出されたレーザ光を基に計測された距離を参照用距離としてもよい。
[第7実施形態]
上記各実施形態では、1台の測距装置により撮像位置距離等が導出される場合について説明したが、本第7実施形態では、2台の測距装置及びパーソナル・コンピュータ(以下、PCと称する)により撮像位置距離等が導出される場合について説明する。なお、PCとは、Personal Computerの略語である。また、本第7実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
上記各実施形態では、1台の測距装置により撮像位置距離等が導出される場合について説明したが、本第7実施形態では、2台の測距装置及びパーソナル・コンピュータ(以下、PCと称する)により撮像位置距離等が導出される場合について説明する。なお、PCとは、Personal Computerの略語である。また、本第7実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
また、以下では、撮像位置距離導出プログラム106A,106B,106C,106D,106E,106Fを区別して説明する必要がない場合、符号を付さずに「撮像位置距離導出プログラム」と称する。また、以下では、説明の便宜上、3次元座標導出プログラム108A,108Bを区別して説明する必要がない場合、符号を付さずに「3次元座標導出プログラム」と称する。また、以下では、説明の便宜上、撮像位置距離導出プログラム及び3次元座標導出プログラムを総称する場合、「導出プログラム」と称する。また、以下では、説明の便宜上、取得部110A,110B,110C,110D,110E,110Fを区別して説明する必要がない場合、「取得部110」と称する。また、以下では、説明の便宜上、導出部111A,111B,111C,111D,111E,111Fを区別して説明する必要がない場合、「導出部111」と称する。また、以下では、説明の便宜上、実行部112A,112B,112C,112D,112E,112Fを区別して説明する必要がない場合、「実行部112」と称する。
一例として図45に示すように、本第7実施形態に係る情報処理システム700は、測距装置10G1,10G2及びPC702を有する。なお、本第7実施形態では、PC702が、測距装置10G1,10G2と通信可能とされている。また、本第7実施形態において、PC702は、本開示の技術に係る情報処理装置の一例である。
一例として図45に示すように、測距装置10G1は第1位置に配置されており、測距装置10G2は第1位置と異なる第2位置に配置されている。
一例として図45に示すように、測距装置10G1,10G2は同一の構成とされている。なお、以下では、測距装置10G1,10G2を区別して説明する必要がない場合、「測距装置10G」と称する。
一例として図46に示すように、測距装置10Gは、測距装置10Aに比べ、撮像装置14に代えて撮像装置15を有する点が異なる。撮像装置15は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体19を有する点が異なる。
撮像装置本体19は、撮像装置本体18に比べ、通信I/F83を有する点が異なる。通信I/F83は、バスライン84に接続されており、主制御部62の制御下で動作する。
通信I/F83は、例えば、インターネットなどの通信網(図示省略)に接続されており、通信網に接続されたPC702との間の各種情報の送受信を司る。
一例として図47に示すように、PC702は、主制御部703を備えている。主制御部703は、CPU704、一次記憶部706、及び二次記憶部708を有する。CPU704、一次記憶部706、及び二次記憶部708は、バスライン710を介して相互に接続されている。
また、PC702は、通信I/F712を備えている。通信I/F712は、バスライン710に接続されており、主制御部703の制御下で動作する。通信I/F712は、通信網に接続されており、通信網に接続された測距装置10Gとの間の各種情報の送受信を司る。
また、PC702は、受付部713及び表示部714を備えている。受付部713は、受付I/F(図示省略)を介してバスライン710に接続されており、受付I/Fは、受付部713によって受け付けられた指示の内容を示す指示内容信号を主制御部703に出力する。なお、受付部713は、例えば、キーボード、マウス、及びタッチパネルにより実現される。
表示部714は、表示制御部(図示省略)を介してバスライン710に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部714は、例えば、LCDにより実現される。
二次記憶部708は、上記各実施形態で説明した撮像位置距離導出プログラム及び3次元座標導出プログラムを記憶している。
CPU704は、測距装置10G1から第1撮像画像信号、注目画素座標、及び距離等を通信I/F712を介して取得する。また、CPU704は、測距装置10G2から第2撮像画像信号、対応注目画素座標、及び距離等を通信I/F712を介して取得する。
CPU704は、二次記憶部708から撮像位置距離導出プログラム及び3次元座標導出プログラムを読み出して一次記憶部706に展開し、撮像位置距離導出プログラム及び3次元座標導出プログラムを実行する。なお、以下では、説明の便宜上、撮像位置距離導出プログラム及び3次元座標導出プログラムを総称する場合、「導出プログラム」と称する。
CPU704は、撮像位置距離導出プログラムを実行することで、取得部110、導出部111、及び実行部112として動作する。例えば、CPU704が撮像位置距離導出プログラム106Aを実行することで、上記第1実施形態で説明した撮像位置距離導出処理が実現される。また、例えば、CPU704が3次元座標導出プログラム108Aを実行することで、上記第1実施形態で説明した3次元座標導出処理が実現される。
よって、情報処理システム700では、PC702が測距装置10Eから第1撮像画像信号、2撮像画像信号、注目画素座標、及び距離等を通信I/F712を介して取得した上で導出プログラムを実行することで、上記各実施形態と同様の作用及び効果が得られる。
[第8実施形態]
上記第1実施形態では、測距ユニット12及び撮像装置14により測距装置10Aが実現される場合を例示したが、本第8実施形態では、更にスマートデバイス802を備えることによって実現される測距装置10Hについて説明する。なお、本第8実施形態では、上記各実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
上記第1実施形態では、測距ユニット12及び撮像装置14により測距装置10Aが実現される場合を例示したが、本第8実施形態では、更にスマートデバイス802を備えることによって実現される測距装置10Hについて説明する。なお、本第8実施形態では、上記各実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
一例として図48に示すように、本第8実施形態に係る測距装置10Hは、上記第1実施形態に係る測距装置10Aに比べ、撮像装置14に代えて撮像装置800を有する点が異なる。また、測距装置10Hは、測距装置10Aに比べ、スマートデバイス802を有する点が異なる。
撮像装置800は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体803を有する点が異なる。
撮像装置本体803は、撮像装置本体18に比べ、無線通信部804及び無線通信用アンテナ806を有する点が異なる。
無線通信部804は、バスライン84及び無線通信用アンテナ806に接続されている。主制御部62は、スマートデバイス802へ送信される対象の情報である送信対象情報を無線通信部804に出力する。
無線通信部804は、主制御部62から入力された送信対象情報を無線通信用アンテナ806を介してスマートデバイス802へ電波で送信する。また、無線通信部804は、スマートデバイス802からの電波が無線通信用アンテナ806で受信されると、受信された電波に応じた信号を取得し、取得した信号を主制御部62に出力する。
スマートデバイス802は、CPU808、一次記憶部810、及び二次記憶部812を備えている。CPU808、一次記憶部810、及び二次記憶部812は、バスライン814に接続されている。
CPU808は、スマートデバイス802を含めて測距装置10Hの全体を制御する。一次記憶部810は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部810の一例としては、RAMが挙げられる。二次記憶部812は、スマートデバイス802を含めて測距装置10Hの全体の作動を制御する制御プログラム又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部812の一例としては、フラッシュメモリ又はEEPROMが挙げられる。
スマートデバイス802は、表示部815、タッチパネル816、無線通信部818、及び無線通信用アンテナ820を備えている。
表示部815は、表示制御部(図示省略)を介してバスライン814に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部815は、例えば、LCDにより実現される。
タッチパネル816は、表示部815の表示画面に重ねられており、指示体による接触を受け付ける。タッチパネル816は、タッチパネルI/F(図示省略)を介してバスライン814に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/Fに出力する。タッチパネルI/Fは、CPU808の指示に従ってタッチパネルI/Fを作動させ、タッチパネル816から入力された位置情報をCPU808に出力する。
表示部815には、計測・撮像ボタン90A、撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90E、撮像位置距離導出ボタン90F、及び3次元座標導出ボタン90G等に相当するソフトキーが表示される(図49参照)。
例えば、図49に示すように、表示部815には、計測・撮像ボタン90Aとして機能する計測・撮像ボタン90A1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。また、例えば、表示部815には、撮像ボタン90Bとして機能する撮像ボタン90B1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。また、例えば、表示部815には、撮像系動作モード切替ボタン90Cとして機能する撮像系動作モード切替ボタン90C1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。
また、例えば、表示部815には、広角指示ボタン90Dとして機能する広角指示ボタン90D1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。更に、例えば、表示部815には、望遠指示ボタン90Eとして機能する望遠指示ボタン90E1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。
また、例えば、表示部815には、撮像位置距離導出ボタン90Fとして機能する撮像位置距離導出ボタン90F1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。また、例えば、表示部815には、3次元座標導出ボタン90Gとして機能する3次元座標導出ボタン90G1がソフトキーとして表示され、タッチパネル816を介してユーザによって押下される。
無線通信部818は、バスライン814及び無線通信用アンテナ820に接続されている。無線通信部818は、CPU808から入力された信号を無線通信用アンテナ820を介して撮像装置本体803へ電波で送信する。また、無線通信部818は、撮像装置本体803からの電波が無線通信用アンテナ820で受信されると、受信された電波に応じた信号を取得し、取得した信号をCPU808に出力する。従って、撮像装置本体803は、スマートデバイス802との間で無線通信が行われることで、スマートデバイス802によって制御される。
二次記憶部812は、導出プログラムを記憶している。CPU808は、二次記憶部812から導出プログラムを読み出して一次記憶部810に展開し、導出プログラムを実行する。
CPU808は、撮像位置距離導出プログラムを実行することで、取得部110、導出部111、及び実行部112として動作する。例えば、CPU808が撮像位置距離導出プログラム106Aを実行することで、上記第1実施形態で説明した撮像位置距離導出処理が実現される。また、例えば、CPU808が3次元座標導出プログラム108Aを実行することで、上記第1実施形態で説明した3次元座標導出処理が実現される。
従って、測距装置10Hでは、スマートデバイス802が導出プログラムを実行することで、上記各実施形態と同様の作用及び効果が得られる。また、測距装置10Hによれば、撮像装置800によって撮像位置距離導出処理及び3次元導出処理が実行される場合に比べ、上記各実施形態で説明した効果を得るにあたって、撮像装置800にかかる負荷を軽減することができる。
なお、上記各実施形態では、対応注目画素が、第2撮像画像を解析対象として画像解析を実行することで特定され、特定された対応注目画素を特定する対応注目画素座標が取得されるが(ステップ268,300参照)、本開示の技術はこれに限定されるものではない。例えば、ユーザがタッチパネル88を介して第2撮像画像から注目画素に対応する画素を対応注目画素として指定するようにしてもよい。
また、上記各実施形態では、実行部112が演算式を用いて照射位置実空間座標、平面の向き、撮像位置距離、及び指定画素3次元座標等を導出する場合を例示したが、本開示の技術はこれに限定されるものでない。例えば、実行部112は、演算式の独立変数を入力とし、演算式の従属変数を出力とするテーブルを用いて照射位置実空間座標、平面の向き、撮像位置距離、及び指定画素3次元座標等を導出するようにしてもよい。
また、上記各実施形態では、導出プログラムを二次記憶部104から読み出す場合を例示したが、必ずしも最初から二次記憶部104に記憶させておく必要はない。例えば、図50に示すように、SSD(Solid State Drive)又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体900に先ずは導出プログラムを記憶させておいてもよい。この場合、記憶媒体900の導出プログラムが測距装置10A(10B,10C,10D,10E,10F)(以下、「測距装置10A等」と称する)又はPC702にインストールされる。そして、インストールされた導出プログラムがCPU100(704)によって実行される。
また、通信網(図示省略)を介して測距装置10A等又はPC702に接続される他のコンピュータ又はサーバ装置等の記憶部に導出プログラムを記憶させておき、導出プログラムが測距装置10A等の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされた導出プログラムがCPU100(704)によって実行される。
また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等の各種情報が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10A等又はPC702に接続して使用される外部装置の表示部に各種情報が表示されるようにしてもよい。外部装置の一例としては、PC、又は眼鏡型若しくは腕時計型のウェアラブル端末装置が挙げられる。
また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等が表示部86により可視表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、音声再生装置による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、照射位置目印136、撮像位置距離、及び指定画素3次元座標等のうちの少なくとも1つが表示部86と異なる表示部(図示省略)に表示されるようにし、残りが表示部86に表示されるようにしてもよい。照射位置目印136、撮像位置距離、及び指定画素3次元座標等の各々が表示部86を含めた複数の表示部に個別に表示されるようにしてもよい。
また、上記各実施形態では、測距用の光としてレーザ光を例示しているが、本開示の技術はこれに限定されるものではなく、指向性のある光である指向性光であればよい。例えば、発光ダイオード(LED:Light Emitting Diode)又はスーパールミネッセントダイオード(SLD:Super Luminescent Diode)等により得られる指向性光であってもよい。指向性光が有する指向性は、レーザ光が有する指向性と同程度の指向性であることが好ましく、例えば、数メートルから数キロメートルの範囲内における測距で使用可能な指向性であることが好ましい。
また、上記各実施形態で説明した撮像位置距離導出処理及び3次元座標導出処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、撮像位置距離導出処理及び3次元座標導出処理に含まれる各処理は、ASIC等のハードウェア構成のみで実現されてもよいし、コンピュータを利用したソフトウェア構成とハードウェア構成との組み合わせで実現されてもよい。
また、上記各実施形態では、説明の便宜上、測距装置10A等に含まれる撮像装置本体18の側面に測距ユニット12が取り付けられる場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、撮像装置本体18の上面又は下面に測距ユニット12が取り付けられてもよい。また、例えば、図51に示すように、測距装置10A等に代えて測距装置10Iを適用してもよい。一例として図51に示すように、測距装置10Iは、測距装置10A等に比べ、測距ユニット12に代えて測距ユニット12Aを有する点、及び撮像装置本体18に代えて撮像装置本体18Aを有する点が異なる。
図51に示す例において、測距ユニット12Aは、撮像装置本体18Aの筐体18A1に収容されており、対物レンズ32,38は、測距装置10Iの正面側(撮像レンズ50が露出している側)に筐体18A1から露出している。また、測距ユニット12Aは、光軸L1,L2が鉛直方向において同一の高さに設定されるように配置されることが好ましい。なお、筐体18A1に対して測距ユニット12Aが挿脱可能な開口(図示省略)が筐体18A1に形成されていてもよい。
また、上記各実施形態では、ライブビュー画像が撮像されている間に、被写体までの距離が計測される場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、図52に示すように、測距装置10A等は、被写体までの距離の計測期間中は動画像の一例であるライブビュー画像の撮像を停止させるようにしてもよい。
この場合、例えば、CPU100は、複数の第2撮像画像を含むライブビュー画像が撮像されるタイミングと、被写体までの距離が計測されるタイミングとを交互に到来させるように撮像装置14及び測距ユニット12を制御する。すなわち、CPU100は、被写体までの距離が計測されている間、撮像装置14に対してライブビュー画像の撮像を停止させ、表示部86に対して第2撮像画像を非表示させ、かつ、「計測中」とのメッセージを表示させる。また、CPU100は、被写体までの距離が計測されていない間、撮像装置14に対してライブビュー画像を撮像させ、表示部86に対して第2撮像画像を表示させる。これにより、測距装置10A等は、ライビュー画像の撮像中に被写体までの距離が計測される場合に比べ、消費電力を抑制することができる。
なお、上記第1実施形態に係る撮像位置距離算出処理に含まれるステップ242,244の処理で用いられる半画角α、及び上記第6実施形態に係る撮像位置距離算出処理に含まれるステップ610の処理で用いられる半画角αは、次の数式(10)に基づいて導出される。数式(10)において、“f0”とは、焦点距離を指す。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (20)
- 被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得する取得部と、
前記取得部により取得された前記動画像に含まれる前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、
前記複数の第2撮像画像の各々について、前記導出部により導出された前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記位置特定可能状態で実行される処理として予め定められた処理を実行する実行部と、
を含む情報処理装置。 - 前記予め定められた処理は、前記位置特定可能状態であることを通知する位置特定可能状態通知処理を含む処理である請求項1に記載の情報処理装置。
- 前記導出部は、前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記予め定められた処理は、前記位置特定可能状態であることが通知されている状態で、第1受付部によって既定の指示が受け付けられた場合に、前記照射位置実空間座標と、前記照射位置画素座標と、前記照射位置画素座標により特定される画素の位置に対応する画素の位置であって、前記第1撮像画像における画素の位置を特定する照射位置対応画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である請求項2に記載の情報処理装置。 - 前記実行部は、前記複数の第2撮像画像の各々について、前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記位置特定不可能状態であることを通知する位置特定不可能状態通知処理を更に実行する請求項1から請求項3の何れか一項に記載の情報処理装置。
- 前記導出部は、前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記実行部は、前記位置特定不可能状態であることが通知されている状態で、第2受付部によって既定の指示が受け付けられた場合に、前記第1撮像画像と前記第2撮像画像との各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を実行する請求項4に記載の情報処理装置。 - 前記導出部は、前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記予め定められた処理は、前記照射位置実空間座標と、前記照射位置画素座標と、前記照射位置画素座標により特定される画素の位置に対応する画素の位置であって、前記第1撮像画像における画素の位置を特定する照射位置対応画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である請求項1に記載の情報処理装置。 - 被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得する取得部と、
前記取得部により取得された前記動画像に含まれる前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、
前記複数の第2撮像画像の各々について、前記導出部により導出された前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記位置特定不可能状態で実行される処理として予め定められた処理を実行する実行部と、
を含む情報処理装置。 - 前記予め定められた処理は、前記位置特定不可能状態であることを通知する位置特定不可能状態通知処理を含む処理である請求項7に記載の情報処理装置。
- 前記導出部は、前記複数の撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記予め定められた処理は、前記位置特定不可能状態であることが通知されている状態で、第1受付部によって既定の指示が受け付けられた場合に、前記第1撮像画像と前記第2撮像画像との各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である請求項8に記載の情報処理装置。 - 前記実行部は、前記複数の第2撮像画像の各々について、前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素である位置特定可能状態の場合に、前記位置特定可能状態であることを通知する位置特定可能状態通知処理を更に実行する請求項7から請求項9の何れか一項に記載の情報処理装置。
- 前記導出部は、前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記実行部は、前記位置特定可能状態であることが通知されている状態で、第2受付部によって既定の指示が受け付けられた場合に、前記照射位置実空間座標と、前記照射位置画素座標と、前記照射位置画素座標により特定される画素の位置に対応する画素の位置であって、前記第1撮像画像における画素の位置を特定する照射位置対応画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を実行する請求項10に記載の情報処理装置。 - 前記導出部は、前記複数の第2撮像画像の各々について、前記取得部により取得された対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標を更に導出し、
前記予め定められた処理は、前記第1撮像画像と前記第2撮像画像との各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する処理を含む処理である請求項7に記載の情報処理装置。 - 前記予め定められた処理は、前記複数の第2撮像画像のうち既定のタイミングで撮像されて得られた第2撮像画像、及び前記取得部により取得された前記距離のうちの前記既定のタイミングに対応するタイミングで取得された距離に基づく情報の少なくとも一方を記憶部に記憶する記憶処理を含む処理である請求項1から請求項12の何れか一項に記載の情報処理装置。
- 前記指向性光を射出し、前記反射光を受光することにより前記距離を計測する計測部を更に含み、
前記取得部は、前記計測部により計測された前記距離を取得する請求項1から請求項13の何れか一項に記載の情報処理装置。 - 前記被写体を撮像する撮像部を更に含み、
前記取得部は、前記撮像部により撮像されて得られた前記動画像を取得する請求項1から請求項14の何れか一項に記載の情報処理装置。 - 前記取得部は、前記動画像が撮像されている間に前記指向性光が前記被写体に射出されて前記反射光が受光されることにより計測された前記被写体までの距離を取得する請求項1から請求項15の何れか一項に記載の情報処理装置。
- 被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
取得した前記動画像に含まれる前記複数の第2撮像画像の各々について、取得した対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
前記複数の第2撮像画像の各々について、導出した前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記位置特定可能状態で実行される処理として予め定められた処理を実行することを含む情報処理方法。 - 被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
取得した前記動画像に含まれる前記複数の第2撮像画像の各々について、取得した対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
前記複数の第2撮像画像の各々について、導出した前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記位置特定不可能状態で実行される処理として予め定められた処理を実行することを含む情報処理方法。 - コンピュータに、
被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
取得した前記動画像に含まれる前記複数の第2撮像画像の各々について、取得した対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
前記複数の第2撮像画像の各々について、導出した前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記位置特定可能状態で実行される処理として予め定められた処理を実行することを含む処理を実行させるためのプログラム。 - コンピュータに、
被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた複数の第2撮像画像を含む動画像と、指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
取得した前記動画像に含まれる前記複数の第2撮像画像の各々について、取得した対応する前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
前記複数の第2撮像画像の各々について、導出した前記照射位置画素座標により特定される画素の位置が前記第1撮像画像と前記第2撮像画像との各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記位置特定不可能状態で実行される処理として予め定められた処理を実行することを含む処理を実行させるためのプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201680080615.7A CN108603743B (zh) | 2016-02-04 | 2016-10-28 | 信息处理装置、信息处理方法及程序 |
| JP2017565402A JP6534457B2 (ja) | 2016-02-04 | 2016-10-28 | 情報処理装置、情報処理方法、及びプログラム |
| US16/045,660 US11181359B2 (en) | 2016-02-04 | 2018-07-25 | Information processing device, information processing method, and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-020227 | 2016-02-04 | ||
| JP2016020227 | 2016-02-04 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US16/045,660 Continuation US11181359B2 (en) | 2016-02-04 | 2018-07-25 | Information processing device, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2017134882A1 true WO2017134882A1 (ja) | 2017-08-10 |
Family
ID=59500144
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/082147 Ceased WO2017134882A1 (ja) | 2016-02-04 | 2016-10-28 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11181359B2 (ja) |
| JP (1) | JP6534457B2 (ja) |
| CN (1) | CN108603743B (ja) |
| WO (1) | WO2017134882A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021117570A1 (ja) * | 2019-12-09 | 2021-06-17 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1123262A (ja) * | 1997-07-09 | 1999-01-29 | Nekusuta:Kk | 三次元位置計測システム |
| JP2001119722A (ja) * | 1999-10-19 | 2001-04-27 | Asahi Optical Co Ltd | 3次元画像検出システムと3次元画像検出装置 |
| WO2014195000A1 (de) * | 2013-06-04 | 2014-12-11 | Testo Ag | 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung |
| WO2015008587A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士フイルム株式会社 | 撮影装置及び3次元計測装置 |
Family Cites Families (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1997006406A1 (fr) | 1995-08-07 | 1997-02-20 | Komatsu Ltd. | Appareils de mesure de la distance et de la forme |
| US7933001B2 (en) * | 2005-07-11 | 2011-04-26 | Kabushiki Kaisha Topcon | Geographic data collecting system |
| US8866901B2 (en) * | 2010-01-15 | 2014-10-21 | Honda Elesys Co., Ltd. | Motion calculation device and motion calculation method |
| JP4911230B2 (ja) * | 2010-02-01 | 2012-04-04 | カシオ計算機株式会社 | 撮影装置、並びに制御プログラム及び制御方法 |
| JP5158386B2 (ja) | 2010-06-22 | 2013-03-06 | 株式会社アイティーティー | 単一カメラによる画像計測処理装置,画像計測処理方法および画像計測処理プログラム |
| ES2392229B1 (es) * | 2010-08-27 | 2013-10-16 | Telefónica, S.A. | Método de generación de un modelo de un objeto plano a partir de vistas del objeto. |
| CN102687515B (zh) * | 2010-10-27 | 2015-07-15 | 杜比国际公司 | 三维图像插补装置、三维摄像装置以及三维图像插补方法 |
| US9046364B2 (en) * | 2011-06-14 | 2015-06-02 | Nissan Motor Co., Ltd. | Distance measurement device and environment map generation apparatus |
| JP2013122434A (ja) | 2011-12-12 | 2013-06-20 | Itt:Kk | レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム |
| US9310317B2 (en) * | 2012-01-25 | 2016-04-12 | The Boeing Company | Automated system and method for tracking and detecting discrepancies on a target object |
| CN102914262B (zh) * | 2012-09-29 | 2015-02-11 | 北京控制工程研究所 | 一种基于附加视距的非合作目标贴近测量方法 |
| DE112013006814T5 (de) * | 2013-03-12 | 2015-12-10 | Fujifilm Corporation | Bildbeurteilungseinrichtung, Aufnahmegerät, 3D-Messgerät, Bildbeurteilungsverfahren und Programm |
| US9251587B2 (en) * | 2013-04-05 | 2016-02-02 | Caterpillar Inc. | Motion estimation utilizing range detection-enhanced visual odometry |
| CN103729883B (zh) * | 2013-12-30 | 2016-08-24 | 浙江大学 | 一种三维环境信息采集与重构系统及方法 |
| CN103940369A (zh) * | 2014-04-09 | 2014-07-23 | 大连理工大学 | 多激光协同扫描形貌快速视觉测量方法 |
| KR101971815B1 (ko) * | 2015-05-15 | 2019-04-23 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 측정 방법 및 단말기 |
| JP6404482B2 (ja) * | 2015-08-31 | 2018-10-10 | 富士フイルム株式会社 | 測距装置、測距用制御方法、及び測距用制御プログラム |
| WO2017038159A1 (ja) * | 2015-08-31 | 2017-03-09 | 富士フイルム株式会社 | 測距装置、測距用制御方法、及び測距用制御プログラム |
| JP6505234B2 (ja) * | 2015-08-31 | 2019-04-24 | 富士フイルム株式会社 | 測距装置、測距用導出方法、及び測距用導出プログラム |
| JP6416408B2 (ja) * | 2015-09-28 | 2018-11-07 | 富士フイルム株式会社 | 測距装置、測距方法、及び測距プログラム |
| WO2017077906A1 (ja) * | 2015-11-06 | 2017-05-11 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| WO2017134881A1 (ja) * | 2016-02-04 | 2017-08-10 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP6534455B2 (ja) * | 2016-02-04 | 2019-06-26 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2016
- 2016-10-28 WO PCT/JP2016/082147 patent/WO2017134882A1/ja not_active Ceased
- 2016-10-28 JP JP2017565402A patent/JP6534457B2/ja active Active
- 2016-10-28 CN CN201680080615.7A patent/CN108603743B/zh active Active
-
2018
- 2018-07-25 US US16/045,660 patent/US11181359B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1123262A (ja) * | 1997-07-09 | 1999-01-29 | Nekusuta:Kk | 三次元位置計測システム |
| JP2001119722A (ja) * | 1999-10-19 | 2001-04-27 | Asahi Optical Co Ltd | 3次元画像検出システムと3次元画像検出装置 |
| WO2014195000A1 (de) * | 2013-06-04 | 2014-12-11 | Testo Ag | 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung |
| WO2015008587A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士フイルム株式会社 | 撮影装置及び3次元計測装置 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021117570A1 (ja) * | 2019-12-09 | 2021-06-17 |
Also Published As
| Publication number | Publication date |
|---|---|
| US11181359B2 (en) | 2021-11-23 |
| CN108603743A (zh) | 2018-09-28 |
| JP6534457B2 (ja) | 2019-06-26 |
| CN108603743B (zh) | 2020-03-27 |
| US20180328720A1 (en) | 2018-11-15 |
| JPWO2017134882A1 (ja) | 2018-08-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6464281B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6534456B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6505234B2 (ja) | 測距装置、測距用導出方法、及び測距用導出プログラム | |
| JP6534455B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| WO2017038158A1 (ja) | 測距装置、測距用制御方法、及び測距用制御プログラム | |
| JP6416408B2 (ja) | 測距装置、測距方法、及び測距プログラム | |
| JP6534457B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6494059B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| CN108718532A (zh) | 信息处理装置、信息处理方法及程序 | |
| WO2017149852A1 (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16889365 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2017565402 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16889365 Country of ref document: EP Kind code of ref document: A1 |