[go: up one dir, main page]

WO2024219280A1 - 撮像装置及び情報処理方法 - Google Patents

撮像装置及び情報処理方法 Download PDF

Info

Publication number
WO2024219280A1
WO2024219280A1 PCT/JP2024/014328 JP2024014328W WO2024219280A1 WO 2024219280 A1 WO2024219280 A1 WO 2024219280A1 JP 2024014328 W JP2024014328 W JP 2024014328W WO 2024219280 A1 WO2024219280 A1 WO 2024219280A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical element
light receiving
light
receiving area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2024/014328
Other languages
English (en)
French (fr)
Inventor
俊 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of WO2024219280A1 publication Critical patent/WO2024219280A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/06Roll-film cameras adapted to be loaded with more than one film, e.g. with exposure of one or the other at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • This disclosure relates to an imaging device and an information processing method.
  • a system is known that can capture both an image for distance calculation and an image for display using a single imaging device (see, for example, Patent Document 1).
  • An imaging device a first optical element that forms a first image on a first light receiving area of the image sensor based on light coming from a subject; a second optical element that forms a second image on a second light receiving area of the image sensor adjacent to the first light receiving area, the second optical element receiving the light from the object; a third optical element that reflects at least a portion of the light traveling from the first optical element toward the outside of the first light receiving region and causes the light to travel toward the inside of the first light receiving region; a fourth optical element that reflects at least a portion of the light traveling from the second optical element toward the outside of the second light receiving region and causes the light to travel toward the inside of the second light receiving region;
  • the system further includes a controller that performs a conversion process including at least inversion and combination on the superimposed image of the first light receiving area and the superimposed image of the second light receiving area, and calculates the parallax of the subject by comparing the superimposed images after the conversion process.
  • At least one of a fifth optical element and a sixth optical element is disposed opposite to the third optical element, and blocks or reflects at least a portion of the light traveling from the first optical element toward the outside of the first light receiving region, causing the light to travel toward the inside of the first light receiving region;
  • the sixth optical element is arranged opposite the fourth optical element and blocks or reflects at least a portion of the light traveling from the second optical element toward the outside of the second light receiving region, causing the light to travel toward the inside of the second light receiving region.
  • the controller separates, based on the calculated direction of parallax, a subject image captured only through the first optical element or the second optical element from a subject image captured also through optical elements other than the first optical element and the second optical element.
  • An information processing method executed by an imaging device including: a first optical element that forms a first image of light coming from a subject on a first light receiving region of an imaging element; a second optical element that forms a second image of the light coming from the subject on a second light receiving region adjacent to the first light receiving region of the imaging element; a third optical element that reflects at least a portion of the light traveling from the first optical element toward the outside of the first light receiving region and causes the light to travel toward the inside of the first light receiving region; a fourth optical element that reflects at least a portion of the light traveling from the second optical element toward the outside of the second light receiving region and causes the light to travel toward the inside of the second light receiving region; and a controller, The controller: performing a conversion process including at least inversion and combination on the superimposed image of the first light receiving area and the superimposed image of the second light receiving area; The parallax of the subject is calculated by comparing the superimposed images that have been subjected to the
  • FIG. 1 is a side view illustrating a schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram for explaining a first image and a second image of the imaging device of FIG.
  • FIG. 3 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 4 is a diagram for explaining the conversion process executed by the image capture device of FIG.
  • FIG. 5 is a diagram showing an example of the converted superimposed image.
  • FIG. 6 is a flowchart showing an example of the information processing method executed by the imaging apparatus.
  • FIG. 7 is a side view illustrating another schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for explaining the first and second images of the imaging device of FIG. FIG.
  • FIG. 9 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 10 is a diagram for explaining the conversion process executed by the imaging device of FIG.
  • FIG. 11 is a side view illustrating another schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram for explaining the first image and the second image of the imaging device of FIG.
  • FIG. 13 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 14 is a diagram for explaining the conversion process executed by the imaging device of FIG.
  • FIG. 15 is a side view illustrating another schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 16 is a diagram for explaining the first image and the second image of the imaging device of FIG. FIG.
  • FIG. 17 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 18 is a diagram for explaining the conversion process executed by the imaging device of FIG.
  • FIG. 19 is a side view illustrating another schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 20 is a diagram for explaining the first image and the second image of the imaging device of FIG.
  • FIG. 21 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 22 is a diagram for explaining the conversion process executed by the imaging device of FIG.
  • FIG. 23 is a side view illustrating another schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 24 is a diagram for explaining the first image and the second image of the imaging device of FIG. 23.
  • FIG. FIG. 24 is a diagram for explaining the first image and the second image of the imaging device of FIG. 23.
  • FIG. 25 is a diagram for explaining a superimposed image generated by the imaging device of FIG.
  • FIG. 26 is a diagram for explaining the conversion process executed by the imaging device of FIG.
  • FIG. 27 is a diagram showing a modification of the mirror of the imaging device according to an embodiment of the present disclosure.
  • FIG. 1 an imaging device 1 (see FIG. 1) and an information processing method according to one embodiment of the present disclosure will be described with reference to the drawings.
  • the same components are given the same reference numerals.
  • the figures explaining the embodiment are schematic.
  • the dimensional ratios in the drawings do not necessarily match those in reality.
  • the imaging device 1 captures a parallax image of a subject 40 (see FIG. 1). For example, the distance to each point on the subject 40 that is the target of distance measurement can be calculated based on the parallax image of the subject 40. In distance measurement based on a parallax image, the greater the baseline length, the higher the resolution and accuracy of the distance data. The baseline length corresponds to the distance between the devices that capture the two images that make up the parallax image.
  • a stereo camera is a method of performing triangulation using two cameras arranged in parallel.
  • the distance between the two cameras corresponds to the baseline length. Therefore, the resolution and accuracy of the distance data can be improved by increasing the baseline length of the stereo camera.
  • the baseline length of a stereo camera is increased, it is necessary to place the two cameras farther apart, which increases the size of the device.
  • a method of increasing the focal length can be considered to increase the resolution and accuracy of the distance data.
  • increasing the focal length makes it difficult to widen the angle of the captured image. In other words, with a stereo camera of a conventional configuration, it is difficult to either widen the angle of the captured image or improve the resolution and accuracy of the distance data.
  • the imaging device 1 according to this embodiment can achieve a wider angle of view for captured images and improved resolution and accuracy of distance data without increasing the size of the device.
  • the imaging device 1 according to this embodiment can obtain images that are wide-angle yet have the resolution of a long focal length optical system, thanks to the configuration described below.
  • a specific configuration example of the imaging device 1 is described below.
  • the imaging device 1 includes a first optical system 10, a second optical system 20, and a controller 14.
  • the imaging device 1 may further include an imaging element 30.
  • the optical system is also called an optical device.
  • the imaging device 1 can capture an image of an image formed by the first optical system 10 and an image of an image formed by the second optical system 20 as parallax images by forming an image of a subject 40 by each of the first optical system 10 and the second optical system 20 and capturing the image by the imaging element 30.
  • the image formed by the first optical system 10 is also called a first image 41.
  • the image formed by the second optical system 20 is also called a second image 42.
  • FIG. 2 is a diagram for explaining the first image 41 and the second image 42 of the imaging device 1 of FIG. 1. 2, for the purpose of explaining the first image 41 and the second image 42, the first optical system 10 and the second optical system 20 are virtually separated, and a state in which light virtually travels in a straight line to generate a subject image at the position of the image sensor 30 is shown.
  • the image obtained by capturing the first image 41 is also referred to as the first image.
  • the image obtained by capturing the second image 42 is also referred to as the second image.
  • the parallax image is composed of the first image and the second image.
  • the imaging element 30 has a light receiving area 30A.
  • the imaging element 30 captures light incident on the light receiving area 30A.
  • the light receiving area 30A is also referred to as an imaging area.
  • the imaging element 30 may be capable of capturing an image formed by visible light or invisible light such as infrared light or ultraviolet light.
  • the imaging element 30 may be configured to include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • the imaging element 30 may be a color image sensor.
  • the light receiving area 30A of the imaging element 30 may have a plurality of pixels.
  • the imaging element 30 generates an image signal based on an electrical signal output from each pixel according to the amount of light incident on each pixel.
  • the image sensor 30 may generate an image signal at a predetermined frame rate, such as 30 fps (frames per second).
  • the light receiving area 30A includes a first light receiving area 31 and a second light receiving area 32.
  • the first light receiving area 31 and the second light receiving area 32 do not overlap with each other on the light receiving area 30A.
  • the area of the first light receiving area 31 and the area of the second light receiving area 32 may be the same.
  • the first light receiving area 31 and the second light receiving area 32 may be adjacent to each other.
  • the first light receiving area 31 and the second light receiving area 32 are distinguished for convenience of explanation. In the actual light receiving area 30A, the first light receiving area 31 and the second light receiving area 32 do not have to be configured to be distinguishable.
  • the first optical system 10 includes a first optical element 11.
  • the first optical element 11 has an optical axis 11A.
  • the first optical element 11 forms an image of light or a light beam coming from the subject 40 on the first light receiving area 31 of the light receiving area 30A of the image sensor 30.
  • the first optical element 11 may be configured to include at least one lens.
  • the first optical element 11 may be configured to include various lenses, such as a convex lens or a concave lens.
  • the first optical element 11 may be configured to include various mirrors, such as a convex mirror, a concave mirror, or a plane mirror.
  • the first optical element 11 may be configured to include a diaphragm.
  • the first optical element 11 may be configured to include various other elements, without being limited to these.
  • the first optical element 11 forms an image of the subject 40 as a first image 41 in the light receiving area 30A.
  • the first optical system 10 does not have to be image-side telecentric. In other words, the angle of the direction of the chief ray of any light beam passing through the first optical system 10 relative to the optical axis 11A of the first optical element 11 may be greater than 0 degrees.
  • the first optical system 10 may be image-side telecentric.
  • the second optical system 20 includes a second optical element 21.
  • the second optical element 21 has an optical axis 21A.
  • the second optical element 21 forms an image of the light or light beam coming from the subject 40 on the second light receiving area 32 of the light receiving area 30A of the image sensor 30.
  • the second optical element 21 may be configured to include at least one lens.
  • the second optical element 21 may be configured to include various lenses, such as a convex lens or a concave lens.
  • the second optical element 21 may be configured to include various mirrors, such as a convex mirror, a concave mirror, or a plane mirror.
  • the second optical element 21 may be configured to include a diaphragm.
  • the second optical element 21 may be configured to include various other elements, without being limited to these.
  • the second optical element 21 forms an image of the subject 40 as a second image 42 in the light receiving area 30A.
  • the second optical system 20 does not have to be image-side telecentric. In other words, the angle of the direction of the chief ray of any light beam passing through the second optical system 20 relative to the optical axis 21A of the second optical element 21 may be greater than 0 degrees.
  • the second optical system 20 may be image-side telecentric.
  • the first optical system 10 further includes a third optical element 12.
  • the third optical element 12 is configured as a mirror with a surface close to the first light receiving area 31 as a reflective surface. In the configuration example of FIG. 1, the third optical element 12 is a plane mirror.
  • the third optical element 12 reflects at least a portion of the light traveling from the first optical element 11 toward the outside of the first light receiving area 31 and causes it to travel toward the inside of the first light receiving area 31.
  • the light rays reflected by the third optical element 12 form an image inside the first light receiving area 31.
  • the image formed by the light rays reflected by the third optical element 12 corresponds to an image formed outside the first light receiving area 31 (L1 in FIG. 2) folded back to the inside of the first light receiving area 31.
  • the image that is folded back to the inside of the first light receiving region 31 is represented as [L1], with the folding (inversion) indicated in parentheses.
  • the second optical system 20 further includes a fourth optical element 22.
  • the fourth optical element 22 is configured as a mirror with a surface close to the second light receiving area 32 as a reflective surface. In the configuration example of FIG. 1, the fourth optical element 22 is a plane mirror.
  • the fourth optical element 22 reflects at least a portion of the light traveling from the second optical element 21 toward the outside of the second light receiving area 32 and causes it to travel toward the inside of the second light receiving area 32.
  • the light rays reflected by the fourth optical element 22 form an image inside the second light receiving area 32.
  • the image formed by the light rays reflected by the fourth optical element 22 corresponds to an image formed outside the second light receiving area 32 (R4 in FIG. 2) folded back to the inside of the second light receiving area 32.
  • the image that is folded back to the inside of the second light receiving region 32 is represented as [R4], with the folding (inversion) indicated in parentheses.
  • the imaging device 1 may include at least one of the fifth optical element 13 and the sixth optical element 23.
  • the imaging device 1 includes the fifth optical element 13 and the sixth optical element 23.
  • the fifth optical element 13 and the sixth optical element 23 may be configured as mirrors having reflective surfaces.
  • the fifth optical element 13 and the sixth optical element 23 may be configured as one unit, for example, as a single double-sided mirror.
  • the fifth optical element 13 is configured as a mirror with a surface close to the first light receiving area 31 as a reflecting surface.
  • the fifth optical element 13 is a plane mirror.
  • the fifth optical element 13 is disposed to face the third optical element 12, and reflects at least a portion of the light traveling from the first optical element 11 toward the outside of the first light receiving area 31, and causes the light to travel toward the inside of the first light receiving area 31.
  • the light reflected by the fifth optical element 13 is imaged inside the first light receiving area 31.
  • the image formed by the light reflected by the fifth optical element 13 corresponds to the image formed outside the first light receiving area 31 (L4 in FIG. 2) folded back to the inside of the first light receiving area 31.
  • the image folded back to the inside of the first light receiving area 31 is represented as [L4], with the folding (inversion) indicated in parentheses.
  • the sixth optical element 23 is configured as a mirror with a surface close to the second light receiving area 32 as a reflecting surface.
  • the sixth optical element 23 is a plane mirror.
  • the sixth optical element 23 is disposed to face the fourth optical element 22, and reflects at least a portion of the light traveling from the second optical element 21 toward the outside of the second light receiving area 32, and causes the light to travel toward the inside of the second light receiving area 32.
  • the light reflected by the sixth optical element 23 is imaged inside the second light receiving area 32.
  • the image formed by the light reflected by the sixth optical element 23 corresponds to the image formed outside the second light receiving area 32 (R1 in FIG. 2) folded back to the inside of the second light receiving area 32.
  • the image folded back to the inside of the second light receiving area 32 is represented as [R1], with the folding (inversion) indicated in parentheses.
  • FIG. 3 is a diagram for explaining a superimposed image 50 generated by the imaging device 1 of FIG. 1.
  • the captured image includes a superimposed image 50L in which an image formed on the first light receiving area 31 via other optical elements is superimposed on an image formed on the first light receiving area 31 via other optical elements by light coming from the subject 40 through the first optical element 11 without passing through other optical elements.
  • the captured image also includes a superimposed image 50R in which an image formed on the second light receiving area 32 via other optical elements is superimposed on an image formed on the second light receiving area 32 via other optical elements by light coming from the subject 40 through the second optical element 21 without passing through other optical elements.
  • the superimposed image 50L and the superimposed image 50R are not distinguished from each other, they may be collectively referred to as the superimposed image 50.
  • the first image 41 includes images L1, L2, L3, and L4.
  • L1 is folded back by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L1].
  • [L1] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • L4 is folded back by the fifth optical element 13 and formed in the first light receiving area 31 as an inverted image [L4].
  • [L4] is superimposed on L3, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50L including the images [L1], L2, L3, and [L4].
  • the second image 42 includes images of R1, R2, R3, and R4.
  • R4 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R4].
  • [R4] is superimposed on R3, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • R1 is folded back by the sixth optical element 23 and formed in the second light receiving area 32 as an inverted image [R1].
  • [R1] is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50R including the images of [R1], R2, R3, and [R4].
  • the third optical element 12, the fourth optical element 22, the fifth optical element 13, and the sixth optical element 23 are arranged so as to fold the image in the left-right direction toward the paper surface, but they may be arranged so as to fold the image in the up-down direction toward the paper surface.
  • the light receiving area 30A of the imaging element 30 captures an image in which the first optical system 10 and the second optical system 20 focus the light or light beam coming from the subject 40 on the light receiving area 30A.
  • the range in which the light or light beam can be focused by the first optical system 10 and the second optical system 20 so as to be captured on the light receiving area 30A corresponds to the angle of view of the imaging device 1.
  • the range in which an image is directly focused on the light receiving area 30A from the first optical element 11 and the second optical element 21 without passing through any optical elements other than the first optical element 11 and the second optical element 21 is also referred to as the direct angle of view.
  • the imaging device 1 can capture images by directing light or light beams incident on the first optical system 10 and the second optical system 20 from outside the direct angle of view toward the light receiving area 30A by optical elements other than the first optical element 11 and the second optical element 21 to form an image.
  • the angle of view can be widened without changing the focal length.
  • the imaging device 1 includes a controller 14 that controls the imaging device 1.
  • the controller 14 includes at least one processor, at least one dedicated circuit, or a combination of these.
  • the processor is a general-purpose processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), or a dedicated processor specialized for specific processing.
  • the dedicated circuit may be, for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • the controller 14 performs information processing (image processing) on the captured image obtained from the imaging element 30.
  • the controller 14 performs a conversion process including at least inversion and combination on the superimposed image 50L of the first light receiving area 31 and the superimposed image 50R of the second light receiving area 32, and calculates the parallax of the subject 40 by comparing the superimposed images 50 on which the conversion process has been performed.
  • FIG. 4 is a diagram for explaining the conversion process performed by the imaging device 1 of FIG. 1.
  • the controller 14 inverts (folds) the portion of the superimposed image 50L that includes [L1] in the outward direction and combines it.
  • the controller 14 also inverts (folds) the portion of the superimposed image 50L that includes [L4] in the outward direction and combines it.
  • the superimposed image 51L after conversion is the superimposed image 50L after conversion process has been performed.
  • the superimposed image 51L after conversion includes images of L1, L2, L3, and L4 in the same arrangement as the first image 41.
  • the superimposed image 51L after conversion is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts (folds) the portion of the superimposed image 50R that includes [R1] in the outward direction and combines them.
  • the controller 14 also inverts (folds) the portion of the superimposed image 50R that includes [R4] in the outward direction and combines them.
  • the transformed superimposed image 51R is the superimposed image 50R that has been subjected to the transformation process.
  • the transformed superimposed image 51R includes the images of R1, R2, R3, and R4 in the same arrangement as the second image 42.
  • the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the transformed superimposed image 51L and the transformed superimposed image 51R are not to be distinguished from each other, they may be collectively referred to as the transformed superimposed image 51.
  • the controller 14 calculates the parallax by performing, for example, a known stereo matching process. In the stereo matching process, the controller 14 may use one of the transformed superimposed image 51L and the transformed superimposed image 51R as a reference image and the other as a comparison image. The controller 14 can calculate the difference (parallax) between the positions of the corresponding parts on the image in the reference image and the comparison image. The controller 14 can also use the calculated parallax to calculate distance information to the object based on the principle of triangulation. Here, it is known which of the transformed superimposed image 51L and the transformed superimposed image 51R is the right eye side or the left eye side of the imaging device 1 configured as a stereo camera.
  • the controller 14 can know in advance in which direction the subject 40 will move due to the parallax when comparing the reference image with the comparison image.
  • the converted superimposed image 51 contains an inverted image, but the direction in which the inverted image of the subject 40 moves due to parallax is opposite to the pre-calculated direction of parallax (the correct direction in which the image of the subject 40 moves). Therefore, the controller 14 can avoid erroneously calculating the parallax for the inverted image of the subject 40 by checking against the pre-calculated direction of parallax.
  • the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21.
  • the controller 14 may separate the subject image by applying an image processing method such as an independent component analysis, a wavelet method, or an image separation model to the converted superimposed image 51L or the converted superimposed image 51R, that is, perform processing to remove the inverted subject image.
  • the image separation model is, for example, a model constructed by creating an image in which multiple images are superimposed in advance and learning multiple correct images to be separated from the previously created image.
  • the image separation model may be a model that applies Pix-to-Pix, which makes a generator that generates an image compete with a discriminator that determines whether the generated image is a fake image, and generates a pair image that reflects the relationship.
  • controller 14 may also use the calculated direction of parallax (the correct direction in which the image of subject 40 moves) in the process of separating the subject images. As described above, by comparing transformed superimposed image 51L and transformed superimposed image 51R, the image of subject 40 moves in the direction of the calculated parallax, and the inverted image of subject 40 moves in the opposite direction. Therefore, controller 14 can identify the inverted image of subject 40 and remove it from transformed superimposed image 51 based on the calculated direction of parallax.
  • the controller 14 may separate the superposition from the converted superposition image 51 and output at least one of the first image 41 without superposition and the second image 42 without superposition.
  • the controller 14 may calculate distance information to the target using the principle of triangulation as described above.
  • FIG. 6 is a flowchart showing an example of the information processing method executed by the imaging device 1.
  • the controller 14 may execute the process shown in the flowchart of FIG. 6 to obtain a restored image from which the inverted image of the subject 40 has been removed.
  • the controller 14 acquires the superimposed image 50L of the first light receiving area 31 and the superimposed image 50R of the second light receiving area 32 (step S1).
  • the controller 14 executes a conversion process including at least inversion and combination as described above (step S2).
  • the conversion process results in a converted superimposed image 51L and a converted superimposed image 51R.
  • the controller 14 calculates the parallax of the subject 40 by comparing the converted superimposed image 51L and the converted superimposed image 51R (step S3).
  • a stereo matching process or the like may be executed.
  • the controller 14 separates the subject image (image of the subject 40) based on the calculated direction of parallax to obtain a restored image.
  • an image processing method such as an independent component analysis, a wavelet method, or an image separation model may be applied.
  • the imaging device 1 does not need to include the fifth optical element 13 and the sixth optical element 23.
  • a part of the first image 41 is formed in the first light receiving area 31.
  • a part of the first image 41 is formed in a part of the second light receiving area 32.
  • the first optical element 11 is configured to image the light or light beam coming from the subject 40 as the first image 41 in a range wider than the first light receiving area 31.
  • a part of the second image 42 is formed in the second light receiving area 32.
  • a part of the second image 42 is formed in a part of the first light receiving area 31.
  • the second optical element 21 is configured to image the light or light beam coming from the subject 40 as the second image 42 in a range wider than the second light receiving area 32.
  • the first image 41 includes images L1, L2, L3, and L4.
  • L1 is folded back by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L1].
  • [L1] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • R1 which is a part of the second image 42, is formed in the first light receiving area 31.
  • R1 is superimposed on L3, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50L that includes the images [L1], L2, L3, and R1.
  • the second image 42 includes images of R1, R2, R3, and R4.
  • R4 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R4].
  • [R4] is superimposed on R3, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • L4 which is a part of the first image 41, is formed in the second light receiving area 32.
  • L4 is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50R including the images of L4, R2, R3, and [R4].
  • FIG. 10 is a diagram for explaining the conversion process executed by the imaging device 1 of FIG. 7.
  • the controller 14 inverts and combines the portion of the superimposed image 50L that includes [L1] in an outward direction.
  • the controller 14 also extracts the portion of the superimposed image 50R that includes L4 and combines it in an outward direction of the portion of the superimposed image 50L that includes L3.
  • the converted superimposed image 51L includes images of L1, L2, L3, and L4 in the same arrangement as the first image 41.
  • the converted superimposed image 51L is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts and combines the portion of the superimposed image 50R that includes [R4] in an outward direction.
  • the controller 14 also extracts the portion of the superimposed image 50L that includes R1 and combines it in an outward direction of the portion of the superimposed image 50R that includes R2.
  • the transformed superimposed image 51R includes images of R1, R2, R3, and R4 in the same arrangement as the second image 42. In other words, the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information for the subject 40.
  • the controller 14 calculates the parallax of the subject 40 by comparing the converted superimposed images 51, as in the first configuration example. Also, the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21, as in the first configuration example.
  • FIG. 11 to 14 are explanatory diagrams similar to Figures 1 to 4, respectively, and the same elements are given the same reference numerals. In order to avoid redundant explanation, explanations of the same elements as in the first configuration example will be omitted or simplified, and differences from the first configuration example will mainly be described.
  • the imaging device 1 may include a fifth optical element 13 and a sixth optical element 23, which are light-blocking members.
  • the fifth optical element 13 is disposed opposite the third optical element 12, and blocks at least a portion of the light traveling from the first optical element 11 toward the outside of the first light-receiving region 31.
  • the sixth optical element 23 is disposed opposite the fourth optical element 22, and blocks at least a portion of the light traveling from the second optical element 21 toward the outside of the second light-receiving region 32.
  • the first image 41 includes images L1 and L2.
  • L1 is folded back by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L1].
  • [L1] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through any other optical elements.
  • the imaging element 30 generates a superimposed image 50L that includes the images [L1] and L2.
  • the second image 42 includes images of R2 and R3.
  • R3 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R3].
  • [R3] is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through any other optical element.
  • the imaging element 30 generates a superimposed image 50R that includes the images of R2 and [R3].
  • FIG. 14 is a diagram for explaining the conversion process executed by the imaging device 1 of FIG. 11.
  • the controller 14 inverts and combines the portion of the superimposed image 50L that includes [L1] (the entire superimposed image 50L in the example of FIG. 14) in the outward direction.
  • the converted superimposed image 51L includes the images of L1 and L2 in the same arrangement as the first image 41.
  • the converted superimposed image 51L is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts and combines the portion of the superimposed image 50R that includes [R3] (the entire superimposed image 50R in the example of FIG. 14) in the outward direction.
  • the transformed superimposed image 51R includes the images of R2 and R3 in the same arrangement as the second image 42.
  • the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information for the subject 40.
  • the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21. This makes it possible to expand the parallax calculation (distance measurement) range on the close-range side.
  • the imaging device 1 may not include the fifth optical element 13 and the sixth optical element 23, as in the second configuration example.
  • a part of the first image 41 is formed in the first light receiving area 31.
  • a part of the first image 41 is formed in a part of the second light receiving area 32.
  • the first optical element 11 is configured to image the light or light beam coming from the subject 40 as the first image 41 in a range wider than the first light receiving area 31.
  • a part of the second image 42 is formed in the second light receiving area 32.
  • a part of the second image 42 is formed in a part of the first light receiving area 31.
  • the second optical element 21 is configured to image the light or light beam coming from the subject 40 as the second image 42 in a range wider than the second light receiving area 32.
  • the first image 41 includes images L1, L2, and L4.
  • L1 is folded back by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L1].
  • [L1] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • R1 which is a part of the second image 42, is formed in the first light receiving area 31.
  • R1 is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50L that includes the images [L1], L2, and R1.
  • the second image 42 includes images of R1, R2, and R4.
  • R4 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R4].
  • [R4] is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • L4 which is a part of the first image 41, is formed in the second light receiving area 32.
  • L4 is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through other optical elements.
  • the imaging element 30 generates a superimposed image 50R including the images of L4, R2, and [R4].
  • FIG. 18 is a diagram for explaining the conversion process executed by the imaging device 1 of FIG. 15.
  • the controller 14 inverts and combines the portion of the superimposed image 50L that includes [L1] (the entire superimposed image 50L in the example of FIG. 18) in an outward direction.
  • the controller 14 also extracts the portion of the superimposed image 50R that includes L4 (the entire superimposed image 50R in the example of FIG. 18) and combines it in the opposite outward direction.
  • the converted superimposed image 51L includes images of L1, L2, and L4 in the same arrangement as the first image 41. In other words, the converted superimposed image 51L is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts and combines the portion of the superimposed image 50R that includes [R4] (the entire superimposed image 50R in the example of FIG. 18) in an outward direction.
  • the controller 14 also extracts the portion of the superimposed image 50L that includes R1 (the entire superimposed image 50L in the example of FIG. 18) and combines it in the opposite outward direction.
  • the transformed superimposed image 51R includes images of R1, R2, and R4 in the same arrangement as the second image 42. In other words, the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information for the subject 40.
  • the controller 14 calculates the parallax of the subject 40 by comparing the converted superimposed images 51, as in the first configuration example. Also, the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21, as in the first configuration example.
  • the imaging device 1 may be configured such that the third optical element 12 is moved to the position of the fifth optical element 13 in the first configuration example, and the fifth optical element 13 is not included.
  • the third optical element 12 is configured as a mirror with a surface close to the first light receiving area 31 as a reflective surface.
  • the imaging device 1 may also be configured with a sixth optical element 23 that is a light blocking member.
  • the first image 41 includes images of L2 and L4.
  • L4 is folded by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L4].
  • [L4] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through any other optical elements.
  • the imaging element 30 generates a superimposed image 50L that includes the images of L2 and [L4].
  • the second image 42 includes images of R2 and R4.
  • R4 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R4].
  • [R4] is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through any other optical element.
  • the imaging element 30 generates a superimposed image 50R that includes the images of R2 and [R4].
  • FIG. 22 is a diagram for explaining the conversion process executed by the imaging device 1 of FIG. 19.
  • the controller 14 inverts and combines the portion of the superimposed image 50L that includes [L4] (the entire superimposed image 50L in the example of FIG. 22) in the outward direction.
  • the converted superimposed image 51L includes the images of L2 and L4 in the same arrangement as the first image 41.
  • the converted superimposed image 51L is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts and combines the portion of the superimposed image 50R that includes [R4] (the entire superimposed image 50R in the example of FIG. 22) in the outward direction.
  • the transformed superimposed image 51R includes the images of R2 and R4 in the same arrangement as the second image 42.
  • the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information for the subject 40.
  • the controller 14 calculates the parallax of the subject 40 by comparing the converted superimposed images 51, as in the first configuration example. Also, the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21, as in the first configuration example.
  • the imaging device 1 may be configured without the fifth optical element 13 by moving the third optical element 12 to the position of the fifth optical element 13 in the first configuration example.
  • the third optical element 12 is configured as a mirror with a surface close to the first light receiving area 31 as a reflective surface.
  • the imaging device 1 may be configured without the sixth optical element 23 by moving the fourth optical element 22 to the position of the sixth optical element 23 in the first configuration example.
  • the fourth optical element 22 is configured as a mirror with a surface close to the second light receiving area 32 as a reflective surface.
  • the first image 41 includes images of L2 and L4.
  • L4 is folded back by the third optical element 12 and formed in the first light receiving area 31 as an inverted image [L4].
  • [L4] is superimposed on L2, which is an image formed in the first light receiving area 31 from the first optical element 11 without passing through any other optical elements.
  • the imaging element 30 generates a superimposed image 50L that includes the images of L2 and [L4].
  • the second image 42 includes images of R1 and R2.
  • R1 is folded back by the fourth optical element 22 and formed in the second light receiving area 32 as an inverted image [R1].
  • [R1] is superimposed on R2, which is an image formed in the second light receiving area 32 from the second optical element 21 without passing through any other optical element.
  • the imaging element 30 generates a superimposed image 50R that includes the images of [R1] and R2.
  • FIG. 26 is a diagram for explaining the conversion process executed by the imaging device 1 of FIG. 23.
  • the controller 14 inverts and combines the portion of the superimposed image 50L that includes [L4] (the entire superimposed image 50L in the example of FIG. 26) in the outward direction.
  • the converted superimposed image 51L includes the images of L2 and L4 in the same arrangement as the first image 41.
  • the converted superimposed image 51L is an image in which an inverted image is superimposed, but which includes correct position information of the subject 40.
  • the controller 14 also inverts and combines the portion of the superimposed image 50R that includes [R1] (the entire superimposed image 50R in the example of FIG. 26) in an outward direction.
  • the transformed superimposed image 51R includes the images of R1 and R2 in the same arrangement as the second image 42.
  • the transformed superimposed image 51R is an image in which an inverted image is superimposed, but which includes correct position information for the subject 40.
  • the controller 14 may separate the subject image captured only through the first optical element 11 or the second optical element 21 from the subject image captured also through optical elements other than the first optical element 11 and the second optical element 21.
  • the reflecting surface of the third optical element 12, which is a mirror may be inclined with respect to the optical axis 11A so as to be in an inwardly inclined position facing the image forming surface side of the first optical element 11.
  • the reflecting surfaces of the fourth optical element 22, the fifth optical element 13, and the sixth optical element 23, which are mirrors may be in an inwardly inclined position.
  • the inwardly inclined position allows the entire optical device to be made smaller than a configuration in which the reflecting surface of the mirror is parallel to the optical axis 11A or 21A.
  • the mirror may be, for example, a flat mirror, a curved mirror, a DMD (Digital Mirror Device), or a Fresnel mirror.
  • the reflecting surface of the third optical element 12, which is a mirror may be inclined with respect to the optical axis 11A so as to be in an outwardly inclined position facing the first optical element 11.
  • the reflecting surfaces of the fourth optical element 22, the fifth optical element 13, and the sixth optical element 23, which are mirrors may be in an outwardly inclined position.
  • the outwardly inclined position allows the angle of view of the entire optical device to be made wider than in a configuration in which the reflective surface of the mirror is parallel to the optical axis 11A or 21A.
  • the controller 14 when the third optical element 12 is tilted inward, the image [L4] reflected by the third optical element 12 and formed at the first light receiving area 31 is reduced compared to L2, which is an image formed without passing through the third optical element 12.
  • the controller 14 When the image inverted by the mirror is reduced or enlarged, the controller 14 generates the transformed superimposed image 51 by including an enlargement process or a reduction process in the conversion process. That is, the transformed superimposed image 51 is generated so that the reduction or enlargement of the image due to the tilt of the optical element is canceled.
  • the controller 14 when the reflective surface of the mirror is a curved surface or the like and the position of the image inverted by the mirror moves, the controller 14 generates the transformed superimposed image 51 by including a coordinate conversion process in the conversion process. That is, the transformed superimposed image 51 is generated so that the movement of the image position is canceled. Furthermore, while [L4] in FIG. 27 becomes a correct image in the transformed superimposed image 51 as a result of such enlargement, reduction, or coordinate transformation, a portion of L2, which is also processed, becomes an incorrect image due to deformation. By utilizing the deformation of the image caused by the enlargement, reduction, or coordinate transformation, as well as based on the calculated direction of parallax, the controller 14 can perform parallax calculation processing and subject image separation even more efficiently.
  • the imaging device 1 and information processing method according to this embodiment are capable of obtaining an image that has the resolution of a long focal length optical system while still being wide-angle.
  • the converted superimposed image 51 can be used to calculate the parallax of the subject 40 before the subject image is separated.
  • a process for separating the subject image is performed for each of the two images, superimposed image 50L and superimposed image 50R, and then the parallax of the subject 40 is calculated using the two separated images. Compared to such a conventional method, it is possible to reduce the amount of calculation.
  • embodiments of the present disclosure are not limited to the specific configurations of any of the embodiments described above.
  • the embodiments of the present disclosure may extend to any novel feature or combination of features described herein or any novel method or process step or combination of features described herein.
  • references such as “first” and “second” are identifiers for distinguishing the configuration.
  • Configurations distinguished by descriptions such as “first” and “second” in this disclosure may have their numbers exchanged.
  • the first optical system 10 may exchange identifiers “first” and “second” with the second optical system 20.
  • the exchange of identifiers is performed simultaneously.
  • the configurations remain distinguished even after the exchange of identifiers.
  • Identifiers may be deleted.
  • Configurations from which identifiers have been deleted are distinguished by symbols. Descriptions of identifiers such as “first” and “second” in this disclosure alone should not be used to interpret the order of the configurations or to justify the existence of identifiers with smaller numbers.
  • Storage media include, for example, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, CD-RWs, magnetic tapes, hard disks, or memory cards.
  • the implementation form of the program may be, but is not limited to, an application program such as object code compiled by a compiler or program code executed by an interpreter.
  • the implementation form of the program may include a program module incorporated into an operating system.
  • the program may or may not be configured so that all processing is performed only by the CPU on the control board.
  • the program may be configured so that part or all of it is executed by another processing unit implemented on an expansion board or expansion unit added to the board as necessary.
  • Imaging device 10 First optical system 11 First optical element 11A Optical axis 12 Third optical element 13 Fifth optical element 20 Second optical system 21 Second optical element 21A Optical axis 22 Fourth optical element 23 Sixth optical element 30 Imaging element 30A Light receiving area 31 First light receiving area 32 Second light receiving area 40 Subject 41 First image 42 Second image 50, 50L, 50R Superimposed image 51, 51L, 51R Transformed superimposed image

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Cameras In General (AREA)

Abstract

撮像装置(1)は、被写体(40)から到来する光を第1受光領域に結像させる第1光学素子(11)と、被写体から到来する光を第2受光領域に結像させる第2光学素子(21)と、第1光学素子から第1受光領域の外に向かって進行する光の少なくとも一部を反射して第1受光領域の中に向かって進行させる第3光学素子(12)と、第2光学素子から第2受光領域の外に向かって進行する光の少なくとも一部を反射して第2受光領域の中に向かって進行させる第4光学素子(22)と、第1受光領域の重畳画像と第2受光領域の重畳画像に少なくとも反転及び結合を含む変換処理を実行し、変換処理が実行された重畳画像の比較によって被写体の視差を算出するコントローラ(14)と、を備える。

Description

撮像装置及び情報処理方法 関連出願の相互参照
 本出願は、日本国特許出願2023-069639号(2023年4月20日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、撮像装置及び情報処理方法に関する。
 従来、1台の撮像装置で距離算出用の画像及び表示用の画像の両方を撮像可能にするシステムが知られている(例えば特許文献1参照)。
特開2004-289305号公報
 (1)本開示の一実施形態に係る撮像装置は、
 被写体から到来する光を第1像として撮像素子の第1受光領域に結像させる第1光学素子と、
 前記被写体から到来する光を第2像として前記撮像素子の前記第1受光領域に隣接する第2受光領域に結像させる第2光学素子と、
 前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を反射して前記第1受光領域の中に向かって進行させる第3光学素子と、
 前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を反射して前記第2受光領域の中に向かって進行させる第4光学素子と、
 前記第1受光領域の重畳画像と前記第2受光領域の重畳画像に少なくとも反転及び結合を含む変換処理を実行し、前記変換処理が実行された重畳画像の比較によって被写体の視差を算出するコントローラと、を備える。
 (2)本開示の一実施形態として、(1)において、
 第5光学素子及び第6光学素子の少なくとも1つを備え、
 前記第5光学素子は、前記第3光学素子に対向するように配置され、前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を遮光し、又は、反射して前記第1受光領域の中に向かって進行させ、
 前記第6光学素子は、前記第4光学素子に対向するように配置され、前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を遮光し、又は、反射して前記第2受光領域の中に向かって進行させる。
 (3)本開示の一実施形態として、(1)又は(2)において、
 前記コントローラは、算出した視差の方向に基づいて、前記第1光学素子又は前記第2光学素子のみを介して撮像された被写体像と、前記第1光学素子と前記第2光学素子以外の光学素子も介して撮像された被写体像と、を分離する。
 (4)本開示の一実施形態に係る情報処理方法は、
 被写体から到来する光を第1像として撮像素子の第1受光領域に結像させる第1光学素子と、前記被写体から到来する光を第2像として前記撮像素子の前記第1受光領域に隣接する第2受光領域に結像させる第2光学素子と、前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を反射して前記第1受光領域の中に向かって進行させる第3光学素子と、前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を反射して前記第2受光領域の中に向かって進行させる第4光学素子と、コントローラと、を備える撮像装置が実行する情報処理方法であって、
 前記コントローラが、
  前記第1受光領域の重畳画像と前記第2受光領域の重畳画像に少なくとも反転及び結合を含む変換処理を実行し、
  前記変換処理が実行された重畳画像の比較によって被写体の視差を算出する。
図1は、本開示の一実施形態に係る撮像装置の概略構成例を示す側面図である。 図2は、図1の撮像装置の第1像及び第2像を説明するための図である。 図3は、図1の撮像装置が生成する重畳画像を説明するための図である。 図4は、図1の撮像装置が実行する変換処理を説明するための図である。 図5は、変換後重畳画像の一例を示す図である。 図6は、撮像装置が実行する情報処理方法の処理例を示すフローチャートである。 図7は、本開示の一実施形態に係る撮像装置の別の概略構成例を示す側面図である。 図8は、図7の撮像装置の第1像及び第2像を説明するための図である。 図9は、図7の撮像装置が生成する重畳画像を説明するための図である。 図10は、図7の撮像装置が実行する変換処理を説明するための図である。 図11は、本開示の一実施形態に係る撮像装置の別の概略構成例を示す側面図である。 図12は、図11の撮像装置の第1像及び第2像を説明するための図である。 図13は、図11の撮像装置が生成する重畳画像を説明するための図である。 図14は、図11の撮像装置が実行する変換処理を説明するための図である。 図15は、本開示の一実施形態に係る撮像装置の別の概略構成例を示す側面図である。 図16は、図15の撮像装置の第1像及び第2像を説明するための図である。 図17は、図15の撮像装置が生成する重畳画像を説明するための図である。 図18は、図15の撮像装置が実行する変換処理を説明するための図である。 図19は、本開示の一実施形態に係る撮像装置の別の概略構成例を示す側面図である。 図20は、図19の撮像装置の第1像及び第2像を説明するための図である。 図21は、図19の撮像装置が生成する重畳画像を説明するための図である。 図22は、図19の撮像装置が実行する変換処理を説明するための図である。 図23は、本開示の一実施形態に係る撮像装置の別の概略構成例を示す側面図である。 図24は、図23の撮像装置の第1像及び第2像を説明するための図である。 図25は、図23の撮像装置が生成する重畳画像を説明するための図である。 図26は、図23の撮像装置が実行する変換処理を説明するための図である。 図27は、本開示の一実施形態に係る撮像装置のミラーに関する変形例を示す図である。
 以下、図面を参照して本開示の一実施形態に係る撮像装置1(図1参照)及び情報処理方法が説明される。以下の図面において、同じ構成要素には同じ符号が付されている。実施形態について説明する図は模式的なものである。図面上の寸法比率などは、現実のものと必ずしも一致していない。
 本実施形態に係る撮像装置1は、被写体40(図1参照)の視差画像を撮影する。例えば被写体40の視差画像に基づいて、測距対象である被写体40の各点までの距離を算出することができる。視差画像に基づく測距において、基線長が大きいほど距離データの分解能及び精度が高められる。基線長は、視差画像を構成する2枚の画像を撮影する装置の間隔に対応する。
 測距データを生成するための視差画像を撮影する方法として、例えばステレオカメラを用いる方法が考えられる。ステレオカメラは、平行に配置した2つのカメラで三角測量を行う方式である。ステレオカメラにおいて、2つのカメラの間隔が基線長に対応する。したがって、ステレオカメラの基線長を長くすることによって距離データの分解能及び精度を高めることができる。しかし、ステレオカメラにおいて基線長を長くする場合、2つのカメラを離して配置することが必要になり、装置が大きくなる。近年、さらなる小型化が求められており、装置を大きくすることは難しい。ここで、距離データの分解能及び精度を高めるために、焦点距離を長くする方法が考えられる。しかし、焦点距離を長くすることによって撮像画像の広角化が難しくなる。つまり、従来構成のステレオカメラでは、撮像画像の広角化又は距離データの分解能及び精度の向上のいずれかが難しくなる。
 本実施形態に係る撮像装置1は、装置を大型化させることなく、撮像画像の広角化並びに距離データの分解能及び精度の向上を実現し得る。つまり、本実施形態に係る撮像装置1は、以下に説明する構成によって、広角でありながら長焦点光学系の解像度を有する画像を得ることが可能である。以下、撮像装置1の具体的な構成例が説明される。
(第1構成例)
 図1に示されるように、本実施形態に係る撮像装置1は、第1光学系10と、第2光学系20と、コントローラ14と、を備える。撮像装置1は撮像素子30をさらに備えてよい。光学系は光学装置とも称される。撮像装置1は、第1光学系10及び第2光学系20それぞれで被写体40を結像させて撮像素子30で撮像することによって、第1光学系10で結像した像を撮像した画像と第2光学系20で結像した像を撮像した画像とを、視差画像として撮像できる。第1光学系10で結像した像は、第1像41とも称される。第2光学系20で結像した像は、第2像42とも称される。図2は、図1の撮像装置1の第1像41及び第2像42を説明するための図である。図2において、第1像41及び第2像42の説明のために、仮想的に第1光学系10と第2光学系20とを離して示し、仮想的に光が直進して撮像素子30の位置で被写体像が生成される様子を示している。第1像41を撮像した画像は、第1画像とも称される。第2像42を撮像した画像は、第2画像とも称される。視差画像は、第1画像及び第2画像によって構成される。
 撮像素子30は、受光領域30Aを備える。撮像素子30は、受光領域30Aに入射した光を撮像する。受光領域30Aは撮像領域とも称される。撮像素子30は、可視光又は赤外線若しくは紫外線等の不可視光によって形成される像を撮像可能であってよい。撮像素子30は、例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等を含んで構成されてよい。撮像素子30は、カラーイメージセンサであってよい。撮像素子30の受光領域30Aは、複数の画素を有してよい。撮像素子30は、各画素に入射する光量に応じて各画素から出力される電気信号に基づいて画像信号を生成する。撮像素子30は、30fps(frame per second)等の所定のフレームレートで画像信号を生成してよい。
 受光領域30Aは、第1受光領域31と第2受光領域32とを含む。第1受光領域31と第2受光領域32とは、受光領域30Aの上で互いに重複しないとする。また、第1受光領域31の面積と第2受光領域32の面積とが互いに同じであってよい。第1受光領域31と第2受光領域32とは隣接してよい。第1受光領域31と第2受光領域32とは、説明の便宜上、区別される。実際の受光領域30Aにおいて、第1受光領域31と第2受光領域32とは区別可能に構成されなくてよい。
 第1光学系10は、第1光学素子11を備える。第1光学素子11は、光軸11Aを有する。第1光学素子11は、被写体40から到来する光又は光束を撮像素子30の受光領域30Aのうち第1受光領域31に結像させる。
 第1光学素子11は、少なくとも1つのレンズを含んで構成されてよい。第1光学素子11は、凸レンズ又は凹レンズ等の種々のレンズを含んで構成されてよい。第1光学素子11は、凸面鏡、凹面鏡又は平面鏡等の種々のミラーを含んで構成されてよい。第1光学素子11は、絞りを含んで構成されてよい。第1光学素子11は、これらに限られず他の種々の素子を含んで構成されてよい。
 第1光学素子11は、被写体40の像を受光領域30Aで第1像41として結像させる。第1光学系10は、像側テレセントリックでなくてよい。言い換えると、第1光学系10を通過する任意の光束の主光線の方向の、第1光学素子11の光軸11Aに対する角度は、0度より大きくてよい。又は、第1光学系10は、像側テレセントリックであってよい。
 第2光学系20は、第2光学素子21を備える。第2光学素子21は、光軸21Aを有する。第2光学素子21は、被写体40から到来する光又は光束を撮像素子30の受光領域30Aのうち第2受光領域32に結像させる。
 第2光学素子21は、少なくとも1つのレンズを含んで構成されてよい。第2光学素子21は、凸レンズ又は凹レンズ等の種々のレンズを含んで構成されてよい。第2光学素子21は、凸面鏡、凹面鏡又は平面鏡等の種々のミラーを含んで構成されてよい。第2光学素子21は、絞りを含んで構成されてよい。第2光学素子21は、これらに限られず他の種々の素子を含んで構成されてよい。
 第2光学素子21は、被写体40の像を受光領域30Aで第2像42として結像させる。第2光学系20は、像側テレセントリックでなくてよい。言い換えると、第2光学系20を通過する任意の光束の主光線の方向の、第2光学素子21の光軸21Aに対する角度は、0度より大きくてよい。又は、第2光学系20は、像側テレセントリックであってよい。
 第1像41として結像する光線の一部は、第1光学素子11から受光領域30Aの外側に向かって進行する。第1光学系10は第3光学素子12をさらに含む。第3光学素子12は、第1受光領域31に近い面を反射面とするミラーとして構成される。また、図1の構成例において第3光学素子12は平面鏡である。第3光学素子12は、第1光学素子11から第1受光領域31の外に向かって進行する光の少なくとも一部を反射して第1受光領域31の中(内側)に向かって進行させる。第3光学素子12で反射された光線は、第1受光領域31の内側で結像される。第3光学素子12で反射された光線が結像される像は、第1受光領域31の外側に結像される像(図2のL1)が第1受光領域31の内側に折り返された像に対応する。第1受光領域31の内側に折り返された像は、折り返し(反転)を括弧で示し、[L1]と表される。
 第2像42として結像する光線の一部は、第2光学素子21から受光領域30Aの外側に向かって進行する。第2光学系20は第4光学素子22をさらに含む。第4光学素子22は、第2受光領域32に近い面を反射面とするミラーとして構成される。また、図1の構成例において第4光学素子22は平面鏡である。第4光学素子22は、第2光学素子21から第2受光領域32の外に向かって進行する光の少なくとも一部を反射して第2受光領域32の中(内側)に向かって進行させる。第4光学素子22で反射された光線は、第2受光領域32の内側で結像される。第4光学素子22で反射された光線が結像された像は、第2受光領域32の外側に結像される像(図2のR4)が第2受光領域32の内側に折り返された像に対応する。第2受光領域32の内側に折り返された像は、折り返し(反転)を括弧で示し、[R4]と表される。
 撮像装置1は第5光学素子13及び第6光学素子23の少なくとも1つを備えてよい。図1の構成例において、撮像装置1は第5光学素子13及び第6光学素子23を備える。第5光学素子13及び第6光学素子23は、反射面を有するミラーとして構成されてよい。第5光学素子13及び第6光学素子23は、例えば1枚の両面ミラーとして一体に構成されてよい。
 第5光学素子13は、第1受光領域31に近い面を反射面とするミラーとして構成される。また、図1の構成例において第5光学素子13は平面鏡である。第5光学素子13は、第3光学素子12に対向するように配置され、第1光学素子11から第1受光領域31の外に向かって進行する光の少なくとも一部を反射して第1受光領域31の中(内側)に向かって進行させる。第5光学素子13で反射された光線は、第1受光領域31の内側で結像される。第5光学素子13で反射された光線が結像される像は、第1受光領域31の外側に結像される像(図2のL4)が第1受光領域31の内側に折り返された像に対応する。第1受光領域31の内側に折り返された像は、折り返し(反転)を括弧で示し、[L4]と表される。
 第6光学素子23は、第2受光領域32に近い面を反射面とするミラーとして構成される。また、図1の構成例において第6光学素子23は平面鏡である。第6光学素子23は、第4光学素子22に対向するように配置され、第2光学素子21から第2受光領域32の外に向かって進行する光の少なくとも一部を反射して第2受光領域32の中(内側)に向かって進行させる。第6光学素子23で反射された光線は、第2受光領域32の内側で結像される。第6光学素子23で反射された光線が結像された像は、第2受光領域32の外側に結像される像(図2のR1)が第2受光領域32の内側に折り返された像に対応する。第2受光領域32の内側に折り返された像は、折り返し(反転)を括弧で示し、[R1]と表される。
 撮像素子30は、受光領域30Aの上に結像された像を撮像し、撮像画像を生成する。図3は、図1の撮像装置1が生成する重畳画像50を説明するための図である。撮像画像は、被写体40から到来する光が第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像に、他の光学素子を介して第1受光領域31で結像した像が重畳された重畳画像50Lを含む。また、撮像画像は、被写体40から到来する光が第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像に、他の光学素子を介して第2受光領域32で結像した像が重畳された重畳画像50Rを含む。ここで、重畳画像50Lと重畳画像50Rとを区別しない場合に、これらをまとめて重畳画像50と称することがある。
 図3に示すように、第1像41はL1、L2、L3及びL4の像を含む。L1は第3光学素子12で折り返されて、反転した像である[L1]として第1受光領域31で結像する。[L1]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。また、L4は第5光学素子13で折り返されて、反転した像である[L4]として第1受光領域31で結像する。[L4]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL3に重畳する。撮像素子30は、[L1]、L2、L3及び[L4]の像が含まれる重畳画像50Lを生成する。
 また、図3に示すように、第2像42はR1、R2、R3及びR4の像を含む。R4は第4光学素子22で折り返されて、反転した像である[R4]として第2受光領域32で結像する。[R4]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR3に重畳する。また、R1は第6光学素子23で折り返されて、反転した像である[R1]として第2受光領域32で結像する。[R1]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30は、[R1]、R2、R3及び[R4]の像が含まれる重畳画像50Rを生成する。
 図3に例示される重畳画像50において、第3光学素子12、第4光学素子22、第5光学素子13及び第6光学素子23は、紙面に向かって左右方向に像を折り返すように配置されているが、紙面に向かって上下方向に像を折り返すように配置されてよい。
 撮像素子30の受光領域30Aは、第1光学系10及び第2光学系20が被写体40から到来する光又は光束を受光領域30Aに結像させた像を撮像する。逆に言えば、受光領域30Aで撮像されるように第1光学系10及び第2光学系20によって光又は光束が結像され得る範囲が撮像装置1の画角に対応する。第1光学素子11と第2光学素子21を除く光学素子を介することなく、第1光学素子11及び第2光学素子21から受光領域30Aに直接結像される範囲は、直接画角とも称される。
 本実施形態に係る撮像装置1は、直接画角の外から第1光学系10及び第2光学系20に入射する光又は光束を、第1光学素子11と第2光学素子21以外の光学素子によって受光領域30Aに向けて進行させて結像させることによって撮像できる。その結果、焦点距離を変更することなく画角が広げられる。つまり、広角でありながら長焦点光学系の解像度を有する画像を得ることが可能になる。焦点距離を変更する必要がないことによって、撮像装置1で撮影する視差画像に基づく測距の分解能及び精度に対して広角化が影響を及ぼしにくい。
 撮像装置1は、撮像装置1を制御するコントローラ14を備える。コントローラ14は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などであってよい。本実施形態において、コントローラ14は、撮像素子30から取得する撮像画像に対して情報処理(画像処理)を実行する。
 コントローラ14は、第1受光領域31の重畳画像50Lと第2受光領域32の重畳画像50Rに少なくとも反転及び結合を含む変換処理を実行し、変換処理が実行された重畳画像50の比較によって被写体40の視差を算出する。図4は、図1の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L1]が含まれる部分について、外側方向に反転して(折り返して)結合する。また、コントローラ14は、重畳画像50Lのうちの[L4]が含まれる部分について、外側方向に反転して結合する。変換後重畳画像51Lは、変換処理が実行された重畳画像50Lである。変換後重畳画像51Lは、第1像41と同じ配置でL1、L2、L3及びL4の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R1]が含まれる部分について、外側方向に反転して(折り返して)結合する。また、コントローラ14は、重畳画像50Rのうちの[R4]が含まれる部分について、外側方向に反転して結合する。変換後重畳画像51Rは、変換処理が実行された重畳画像50Rである。変換後重畳画像51Rは、第2像42と同じ配置でR1、R2、R3及びR4の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。ここで、変換後重畳画像51Lと変換後重畳画像51Rとを区別しない場合に、これらをまとめて変換後重畳画像51と称することがある。
 図5は、変換後重畳画像51の一例を示す図である。コントローラ14は、例えば公知のステレオマッチング処理を行うことにより視差を算出する。コントローラ14は、ステレオマッチング処理において、変換後重畳画像51L及び変換後重畳画像51Rの一方を基準画像とし、他方を比較画像としてよい。コントローラ14は、基準画像と比較画像とで対応する部分の画像上の位置の差(視差)を算出することができる。また、コントローラ14は、算出した視差を用いて三角測量の原理により対象までの距離情報を算出することができる。ここで、変換後重畳画像51L及び変換後重畳画像51Rについて、どちらがステレオカメラとして構成されている撮像装置1の右眼側であるか又は左眼側であるかは既知である。したがって、コントローラ14は、基準画像と比較画像との比較において、視差によって被写体40がどの方向に移動するかを予め把握することができる。図4に示すように、変換後重畳画像51には反転した像が含まれているが、被写体40の反転した像が視差によって移動する方向は、予め算出した視差の方向(被写体40の像の移動する正しい方向)と反対になる。したがって、コントローラ14は、予め算出した視差の方向との照合を行うことによって、誤って被写体40の反転像について視差を算出することを回避できる。
 コントローラ14は、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。コントローラ14は、変換後重畳画像51L又は変換後重畳画像51Rに対して、例えば独立成分分析、ウェーブレット法又は画像分離モデル等の画像処理方法を適用することによって被写体像を分離する、すなわち反転した被写体像を除く処理を行ってよい。画像分離モデルは、例えば、事前に複数の画像を重ねた画像を作成し、事前に作成した画像から分離される複数の正解画像を学習させることにより構築されるモデルである。画像分離モデルは、画像を生成するgeneratorと、生成された画像が偽画像かどうか判定するdiscriminatorとを競わせて、その関係を反映したペア画像を生成するPix-to-Pixを適用したモデルであってよい。
 ここで、コントローラ14は、被写体像を分離する処理においても、上記の算出した視差の方向(被写体40の像の移動する正しい方向)を用いてよい。上記のように、変換後重畳画像51Lと変換後重畳画像51Rの比較によって、被写体40の像が算出した視差の方向に移動し、反転した被写体40の像が反対方向に移動する。そのため、コントローラ14は、算出した視差の方向に基づいて、反転した被写体40の像を特定して変換後重畳画像51から除くことができる。
 コントローラ14は、変換後重畳画像51から、重畳を分離して、重畳のない第1像41及び重畳のない第2像42の少なくとも1つを出力してよい。コントローラ14は、上記のように、三角測量の原理により対象までの距離情報を算出してよい。
 図6は、撮像装置1が実行する情報処理方法の処理例を示すフローチャートである。コントローラ14は、反転した被写体40の像が除かれた復元画像を得るために、図6のフローチャートで示される処理を実行してよい。
 コントローラ14は、第1受光領域31の重畳画像50Lと第2受光領域32の重畳画像50Rを取得する(ステップS1)。コントローラ14は、上記のように少なくとも反転及び結合を含む変換処理を実行する(ステップS2)。変換処理によって、変換後重畳画像51L及び変換後重畳画像51Rが得られる。コントローラ14は、変換後重畳画像51L及び変換後重畳画像51Rの比較によって被写体40の視差を算出する(ステップS3)。視差の算出において、ステレオマッチング処理などが実行されてよい。コントローラ14は、算出した視差の方向に基づいて被写体像(被写体40の像)を分離して、復元画像を得る。被写体像の分離において、例えば独立成分分析、ウェーブレット法又は画像分離モデル等の画像処理方法が適用されてよい。
(第2構成例)
 第2構成例の撮像装置1は、図7~図10を参照して説明される。図7~図10は、それぞれ図1~図4と同様の説明図であって、同じ要素について同じ符号が付されている。重複説明回避のため、第1構成例と同じ要素については説明を省略又は簡略化し、主に第1構成例と異なる部分について説明する。
 図7及び図8に示すように、撮像装置1は第5光学素子13及び第6光学素子23を備えなくてよい。第1像41の一部は、第1受光領域31で結像する。第1像41の一部は、第2受光領域32の一部で結像する。つまり、第1光学素子11は、被写体40から到来する光又は光束を第1像41として第1受光領域31よりも広い範囲に結像させるように構成される。また、第2像42の一部は、第2受光領域32で結像する。第2像42の一部は、第1受光領域31の一部で結像する。つまり、第2光学素子21は、被写体40から到来する光又は光束を第2像42として第2受光領域32よりも広い範囲に結像させるように構成される。
 図9に示すように、第1像41はL1、L2、L3及びL4の像を含む。L1は第3光学素子12で折り返されて、反転した像である[L1]として第1受光領域31で結像する。[L1]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。また、第2像42の一部であるR1が第1受光領域31で結像する。R1は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL3に重畳する。撮像素子30は、[L1]、L2、L3及びR1の像が含まれる重畳画像50Lを生成する。
 また、図9に示すように、第2像42はR1、R2、R3及びR4の像を含む。R4は第4光学素子22で折り返されて、反転した像である[R4]として第2受光領域32で結像する。[R4]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR3に重畳する。また、第1像41の一部であるL4が第2受光領域32で結像する。L4は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30は、L4、R2、R3及び[R4]の像が含まれる重畳画像50Rを生成する。
 図10は、図7の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L1]が含まれる部分について、外側方向に反転して結合する。また、コントローラ14は、重畳画像50RからL4が含まれる部分を抽出して、重畳画像50LのうちのL3が含まれる部分の外側方向に結合する。変換後重畳画像51Lは、第1像41と同じ配置でL1、L2、L3及びL4の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R4]が含まれる部分について、外側方向に反転して結合する。また、コントローラ14は、重畳画像50LからR1が含まれる部分を抽出して、重畳画像50RのうちのR2が含まれる部分の外側方向に結合する。変換後重畳画像51Rは、第2像42と同じ配置でR1、R2、R3及びR4の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 コントローラ14は、第1構成例の場合と同様に、変換後重畳画像51の比較によって被写体40の視差を算出する。また、コントローラ14は、第1構成例の場合と同様に、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。
(第3構成例)
 第3構成例の撮像装置1は、図11~図14を参照して説明される。図11~図14は、それぞれ図1~図4と同様の説明図であって、同じ要素について同じ符号が付されている。重複説明回避のため、第1構成例と同じ要素については説明を省略又は簡略化し、主に第1構成例と異なる部分について説明する。
 図11及び図12に示すように、撮像装置1は遮光部材である第5光学素子13及び第6光学素子23を備えてよい。第5光学素子13は、第3光学素子12に対向するように配置され、第1光学素子11から第1受光領域31の外に向かって進行する光の少なくとも一部を遮光する。また、第6光学素子23は、第4光学素子22に対向するように配置され、第2光学素子21から第2受光領域32の外に向かって進行する光の少なくとも一部を遮光する。
 図13に示すように、第1像41はL1及びL2の像を含む。L1は第3光学素子12で折り返されて、反転した像である[L1]として第1受光領域31で結像する。[L1]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。撮像素子30は、[L1]及びL2の像が含まれる重畳画像50Lを生成する。
 また、図13に示すように、第2像42はR2及びR3の像を含む。R3は第4光学素子22で折り返されて、反転した像である[R3]として第2受光領域32で結像する。[R3]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30は、R2及び[R3]の像が含まれる重畳画像50Rを生成する。
 図14は、図11の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L1]が含まれる部分(図14の例では重畳画像50Lの全体)について、外側方向に反転して結合する。変換後重畳画像51Lは、第1像41と同じ配置でL1及びL2の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R3]が含まれる部分(図14の例では重畳画像50Rの全体)について、外側方向に反転して結合する。変換後重畳画像51Rは、第2像42と同じ配置でR2及びR3の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 コントローラ14は、被写体40の視差を算出する前に、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。近距離側の視差算出(測距)範囲を広げることができる。
(第4構成例)
 第4構成例の撮像装置1は、図15~図18を参照して説明される。図15~図18は、それぞれ図1~図4と同様の説明図であって、同じ要素について同じ符号が付されている。重複説明回避のため、第1構成例と同じ要素については説明を省略又は簡略化し、主に第1構成例と異なる部分について説明する。
 図15及び図16に示すように、撮像装置1は、第2構成例と同様に、第5光学素子13及び第6光学素子23を備えなくてよい。第1像41の一部は、第1受光領域31で結像する。第1像41の一部は、第2受光領域32の一部で結像する。つまり、第1光学素子11は、被写体40から到来する光又は光束を第1像41として第1受光領域31よりも広い範囲に結像させるように構成される。また、第2像42の一部は、第2受光領域32で結像する。第2像42の一部は、第1受光領域31の一部で結像する。つまり、第2光学素子21は、被写体40から到来する光又は光束を第2像42として第2受光領域32よりも広い範囲に結像させるように構成される。
 図17に示すように、第1像41はL1、L2及びL4の像を含む。L1は第3光学素子12で折り返されて、反転した像である[L1]として第1受光領域31で結像する。[L1]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。また、第2像42の一部であるR1が第1受光領域31で結像する。R1は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。撮像素子30は、[L1]、L2及びR1の像が含まれる重畳画像50Lを生成する。
 また、図17に示すように、第2像42はR1、R2及びR4の像を含む。R4は第4光学素子22で折り返されて、反転した像である[R4]として第2受光領域32で結像する。[R4]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。また、第1像41の一部であるL4が第2受光領域32で結像する。L4は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30はL4、R2及び[R4]の像が含まれる重畳画像50Rを生成する。
 図18は、図15の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L1]が含まれる部分(図18の例では重畳画像50Lの全体)について、外側方向に反転して結合する。また、コントローラ14は、重畳画像50RからL4が含まれる部分(図18の例では重畳画像50Rの全体)を抽出して、逆側の外側方向に結合する。変換後重畳画像51Lは、第1像41と同じ配置でL1、L2及びL4の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R4]が含まれる部分(図18の例では重畳画像50Rの全体)について、外側方向に反転して結合する。また、コントローラ14は、重畳画像50LからR1が含まれる部分(図18の例では重畳画像50Lの全体)を抽出して、逆側の外側方向に結合する。変換後重畳画像51Rは、第2像42と同じ配置でR1、R2及びR4の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 コントローラ14は、第1構成例の場合と同様に、変換後重畳画像51の比較によって被写体40の視差を算出する。また、コントローラ14は、第1構成例の場合と同様に、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。
(第5構成例)
 第5構成例の撮像装置1は、図19~図22を参照して説明される。図19~図22は、それぞれ図1~図4と同様の説明図であって、同じ要素について同じ符号が付されている。重複説明回避のため、第1構成例と同じ要素については説明を省略又は簡略化し、主に第1構成例と異なる部分について説明する。
 図19及び図20に示すように、撮像装置1は、第3光学素子12を第1構成例における第5光学素子13の位置に移動し、第5光学素子13を備えない構成であってよい。第3光学素子12は、第1受光領域31に近い面を反射面とするミラーとして構成される。また、撮像装置1は遮光部材である第6光学素子23を備えてよい。
 図21に示すように、第1像41はL2及びL4の像を含む。L4は第3光学素子12で折り返されて、反転した像である[L4]として第1受光領域31で結像する。[L4]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。撮像素子30は、L2及び[L4]の像が含まれる重畳画像50Lを生成する。
 また、図21に示すように、第2像42はR2及びR4の像を含む。R4は第4光学素子22で折り返されて、反転した像である[R4]として第2受光領域32で結像する。[R4]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30は、R2及び[R4]の像が含まれる重畳画像50Rを生成する。
 図22は、図19の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L4]が含まれる部分(図22の例では重畳画像50Lの全体)について、外側方向に反転して結合する。変換後重畳画像51Lは、第1像41と同じ配置でL2及びL4の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R4]が含まれる部分(図22の例では重畳画像50Rの全体)について、外側方向に反転して結合する。変換後重畳画像51Rは、第2像42と同じ配置でR2及びR4の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 コントローラ14は、第1構成例の場合と同様に、変換後重畳画像51の比較によって被写体40の視差を算出する。また、コントローラ14は、第1構成例の場合と同様に、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。
(第6構成例)
 第6構成例の撮像装置1は、図23~図26を参照して説明される。図23~図26は、それぞれ図1~図4と同様の説明図であって、同じ要素について同じ符号が付されている。重複説明回避のため、第1構成例と同じ要素については説明を省略又は簡略化し、主に第1構成例と異なる部分について説明する。
 図23及び図24に示すように、撮像装置1は、第3光学素子12を第1構成例における第5光学素子13の位置に移動し、第5光学素子13を備えない構成であってよい。第3光学素子12は、第1受光領域31に近い面を反射面とするミラーとして構成される。また、撮像装置1は、第4光学素子22を第1構成例における第6光学素子23の位置に移動し、第6光学素子23を備えない構成であってよい。第4光学素子22は、第2受光領域32に近い面を反射面とするミラーとして構成される。
 図25に示すように、第1像41はL2及びL4の像を含む。L4は第3光学素子12で折り返されて、反転した像である[L4]として第1受光領域31で結像する。[L4]は、第1光学素子11から他の光学素子を介さずに第1受光領域31で結像した像であるL2に重畳する。撮像素子30は、L2及び[L4]の像が含まれる重畳画像50Lを生成する。
 また、図25に示すように、第2像42はR1及びR2の像を含む。R1は第4光学素子22で折り返されて、反転した像である[R1]として第2受光領域32で結像する。[R1]は、第2光学素子21から他の光学素子を介さずに第2受光領域32で結像した像であるR2に重畳する。撮像素子30は、[R1]及びR2の像が含まれる重畳画像50Rを生成する。
 図26は、図23の撮像装置1が実行する変換処理を説明するための図である。コントローラ14は、重畳画像50Lのうちの[L4]が含まれる部分(図26の例では重畳画像50Lの全体)について、外側方向に反転して結合する。変換後重畳画像51Lは、第1像41と同じ配置でL2及びL4の像を含む。つまり、変換後重畳画像51Lは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 また、コントローラ14は、重畳画像50Rのうちの[R1]が含まれる部分(図26の例では重畳画像50Rの全体)について、外側方向に反転して結合する。変換後重畳画像51Rは、第2像42と同じ配置でR1及びR2の像を含む。つまり、変換後重畳画像51Rは、反転した像が重畳されているが、被写体40の正しい位置情報を含む画像である。
 コントローラ14は、被写体40の視差を算出する前に、第1光学素子11又は第2光学素子21のみを介して撮像された被写体像と、第1光学素子11と第2光学素子21以外の光学素子も介して撮像された被写体像と、を分離してよい。
(反射面の形態)
 図27に示されるように、ミラーである第3光学素子12の反射面は、第1光学素子11の結像面側を向く内側傾斜の姿勢となるように、光軸11Aに対して傾斜してよい。この場合に、ミラーである第4光学素子22、第5光学素子13及び第6光学素子23の反射面が内側傾斜の姿勢であってよい。内側傾斜の姿勢によって、ミラーの反射面が光軸11A又は21Aと平行になる構成と比べて、光学装置全体が小型化され得る。ミラーは、例えば、平面ミラー、曲面ミラー、DMD(Digital Mirror Device)又はフレネルミラーであってよい。また、別の例として、ミラーである第3光学素子12の反射面は、第1光学素子11側を向く外側傾斜の姿勢となるように、光軸11Aに対して傾斜してよい。この場合に、ミラーである第4光学素子22、第5光学素子13及び第6光学素子23の反射面が外側傾斜の姿勢であってよい。外側傾斜の姿勢によって、ミラーの反射面が光軸11A又は21Aと平行になる構成と比べて、光学装置全体の画角が広角化され得る。
 ここで、図27に示されるように、第3光学素子12が内側傾斜している場合に、第3光学素子12で反射されて第1受光領域31で結像する[L4]の像は、第3光学素子12を介さずに結像した像であるL2に比べて縮小される。コントローラ14は、ミラーで反転される像が縮小又は拡大される場合に、変換処理に拡大処理又は縮小処理を含めて、変換後重畳画像51を生成する。すなわち、変換後重畳画像51は、光学素子の傾斜による像の縮小又は拡大が打ち消されるように生成される。また、ミラーの反射面が曲面などであって、ミラーで反転される像の位置が移動するような場合に、コントローラ14は変換処理に座標変換の処理を含めて、変換後重畳画像51を生成する。すなわち、変換後重畳画像51は、像の位置の移動が打ち消されるように生成される。また、このような拡大処理、縮小処理又は座標変換の処理によって、図27の[L4]は変換後重畳画像51において正しい像となる一方で、共に処理されるL2の一部は変形されて正しくない像となる。算出した視差の方向に基づくだけでなく、拡大処理、縮小処理又は座標変換の処理によって生じる像の変形も利用することによって、コントローラ14はさらに効率的に、視差の算出の処理及び被写体像の分離を行うことが可能である。
 以上のように、本実施形態に係る撮像装置1及び情報処理方法は、広角でありながら長焦点光学系の解像度を有する画像を得ることが可能である。
 また、本実施形態に係る撮像装置1及び情報処理方法では、変換後重畳画像51を用いて、被写体像を分離する前に被写体40の視差を算出することができる。例えば、従来の手法において、重畳画像50L及び重畳画像50Rの2つの画像のそれぞれについて被写体像を分離する処理を実行してから、2つの分離後の画像を用いて被写体40の視差を算出することが行われていた。このような従来の手法に比べて、計算量を削減することが可能である。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、各構成部などに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部などを1つに組み合わせたり又は分割したりすることが可能である。本開示の範囲にはこれらも包含されるものと理解されたい。
 本開示に記載された構成要件の全て及び/又は開示された全ての方法又は処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。また、本開示に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的又は類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一又は均等となる特徴の一例にすぎない。
 さらに、本開示に係る実施形態は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本開示に係る実施形態は、本開示に記載された全ての新規な特徴又はそれらの組合せ又は記載された全ての新規な方法又は処理のステップ又はそれらの組合せに拡張することができる。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1光学系10は、第2光学系20と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 また、撮像装置1を用いた情報処理を説明したが、本開示の実施形態としては、プログラムの他、プログラムが記録された記憶媒体としての実施態様をとることも可能である。記憶媒体は、例えば光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク又はメモリカードなどである。
 また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムであってよいが、これらに限定されない。例えばプログラムの実装形態としては、オペレーティングシステムに組み込まれるプログラムモジュール等の形態を含んでよい。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットによってその一部又は全部が実施されるように構成されてよい。
 1 撮像装置
 10 第1光学系
 11 第1光学素子
 11A 光軸
 12 第3光学素子
 13 第5光学素子
 20 第2光学系
 21 第2光学素子
 21A 光軸
 22 第4光学素子
 23 第6光学素子
 30 撮像素子
 30A 受光領域
 31 第1受光領域
 32 第2受光領域
 40 被写体
 41 第1像
 42 第2像
 50、50L、50R 重畳画像
 51、51L、51R 変換後重畳画像

Claims (4)

  1.  被写体から到来する光を第1像として撮像素子の第1受光領域に結像させる第1光学素子と、
     前記被写体から到来する光を第2像として前記撮像素子の前記第1受光領域に隣接する第2受光領域に結像させる第2光学素子と、
     前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を反射して前記第1受光領域の中に向かって進行させる第3光学素子と、
     前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を反射して前記第2受光領域の中に向かって進行させる第4光学素子と、
     前記第1受光領域の重畳画像と前記第2受光領域の重畳画像に少なくとも反転及び結合を含む変換処理を実行し、前記変換処理が実行された重畳画像の比較によって被写体の視差を算出するコントローラと、を備える、撮像装置。
  2.  第5光学素子及び第6光学素子の少なくとも1つを備え、
     前記第5光学素子は、前記第3光学素子に対向するように配置され、前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を遮光し、又は、反射して前記第1受光領域の中に向かって進行させ、
     前記第6光学素子は、前記第4光学素子に対向するように配置され、前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を遮光し、又は、反射して前記第2受光領域の中に向かって進行させる、請求項1に記載の撮像装置。
  3.  前記コントローラは、算出した視差の方向に基づいて、前記第1光学素子又は前記第2光学素子のみを介して撮像された被写体像と、前記第1光学素子と前記第2光学素子以外の光学素子も介して撮像された被写体像と、を分離する、請求項1又は2に記載の撮像装置。
  4.  被写体から到来する光を第1像として撮像素子の第1受光領域に結像させる第1光学素子と、前記被写体から到来する光を第2像として前記撮像素子の前記第1受光領域に隣接する第2受光領域に結像させる第2光学素子と、前記第1光学素子から前記第1受光領域の外に向かって進行する光の少なくとも一部を反射して前記第1受光領域の中に向かって進行させる第3光学素子と、前記第2光学素子から前記第2受光領域の外に向かって進行する光の少なくとも一部を反射して前記第2受光領域の中に向かって進行させる第4光学素子と、コントローラと、を備える撮像装置が実行する情報処理方法であって、
     前記コントローラが、
      前記第1受光領域の重畳画像と前記第2受光領域の重畳画像に少なくとも反転及び結合を含む変換処理を実行し、
      前記変換処理が実行された重畳画像の比較によって被写体の視差を算出する、情報処理方法。
PCT/JP2024/014328 2023-04-20 2024-04-08 撮像装置及び情報処理方法 Ceased WO2024219280A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023-069639 2023-04-20
JP2023069639A JP7802032B2 (ja) 2023-04-20 2023-04-20 撮像装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2024219280A1 true WO2024219280A1 (ja) 2024-10-24

Family

ID=93152452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/014328 Ceased WO2024219280A1 (ja) 2023-04-20 2024-04-08 撮像装置及び情報処理方法

Country Status (2)

Country Link
JP (1) JP7802032B2 (ja)
WO (1) WO2024219280A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289305A (ja) 2003-03-19 2004-10-14 Sumitomo Electric Ind Ltd 車載撮像システム及び撮像装置
JP2011064566A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd 距離推定装置
JP2019178871A (ja) * 2018-03-30 2019-10-17 株式会社リコー ステレオカメラ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289305A (ja) 2003-03-19 2004-10-14 Sumitomo Electric Ind Ltd 車載撮像システム及び撮像装置
JP2011064566A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd 距離推定装置
JP2019178871A (ja) * 2018-03-30 2019-10-17 株式会社リコー ステレオカメラ装置

Also Published As

Publication number Publication date
JP7802032B2 (ja) 2026-01-19
JP2024155175A (ja) 2024-10-31

Similar Documents

Publication Publication Date Title
NL2008639C2 (en) Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
JP5273356B2 (ja) 複眼画像入力装置及びそれを用いた距離測定装置
KR101737085B1 (ko) 3차원 카메라
JP6793608B2 (ja) ステレオ画像処理装置
JP7331222B2 (ja) 光学装置及び撮像装置
JP7802032B2 (ja) 撮像装置及び情報処理方法
JP7710963B2 (ja) 撮像装置
JP2012242488A (ja) 撮像装置、立体撮像光学系、およびプログラム
JP6983740B2 (ja) ステレオカメラシステム、及び測距方法
Lin et al. Single-view-point omnidirectional catadioptric cone mirror imager
WO2024101324A1 (ja) 光学装置及び撮像装置
WO2023166813A1 (ja) ステレオ画像処理装置
WO2024219279A1 (ja) 撮像装置
JP7583874B2 (ja) 画像処理装置、撮像装置及び画像処理方法
WO2020235249A1 (ja) ステレオカメラシステム、及び測距方法
US20230306623A1 (en) Apparatus, method, and storage medium
JP7519237B2 (ja) 撮像装置
JP2825707B2 (ja) 3次元撮像装置
JP2020112881A (ja) 距離算出装置及び距離算出方法、プログラム、記憶媒体
JPH07177423A (ja) 複眼撮像装置
JP2024070596A (ja) 光学装置及び撮像装置
WO2024101256A1 (ja) 光学装置及び撮像装置
WO2023166546A1 (ja) ステレオ画像処理装置
CN118176459A (zh) 光学装置以及拍摄装置
JP2024119171A (ja) 測距装置、移動体、制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24792555

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024792555

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2024792555

Country of ref document: EP

Effective date: 20251120

ENP Entry into the national phase

Ref document number: 2024792555

Country of ref document: EP

Effective date: 20251120

ENP Entry into the national phase

Ref document number: 2024792555

Country of ref document: EP

Effective date: 20251120

ENP Entry into the national phase

Ref document number: 2024792555

Country of ref document: EP

Effective date: 20251120