WO2015001992A1 - Compound-eye imaging device - Google Patents
Compound-eye imaging device Download PDFInfo
- Publication number
- WO2015001992A1 WO2015001992A1 PCT/JP2014/066464 JP2014066464W WO2015001992A1 WO 2015001992 A1 WO2015001992 A1 WO 2015001992A1 JP 2014066464 W JP2014066464 W JP 2014066464W WO 2015001992 A1 WO2015001992 A1 WO 2015001992A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- lens array
- image
- holder
- lens
- compound eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
- G02B3/0062—Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Definitions
- the present invention relates to a compound eye imaging device including a lens array having a plurality of lens portions arranged two-dimensionally.
- the compound eye optical system used in a compound eye imaging device that divides the detection area of the image sensor, arranges the optical system so as to correspond to each, and processes the obtained image to output the final image
- an optical system called “A” is attracting attention.
- the arrangement pitch of the lens unit of the imaging apparatus changes due to a change in environmental conditions such as the environmental temperature. It is possible to plan.
- an imaging device in which a light shielding wall having a rectangular hole corresponding to each lens is disposed between a lens array and an imaging element, and the light shielding wall is placed at an ambient temperature.
- a binary image reflecting the position of the light-shielding wall is acquired from the luminance information incident on the image sensor that can capture the shadow of the light-shielding wall between individual eye images, taking the shape and material according to the shape change of the lens array due to the change.
- Patent Document 1 there is a description that calculates and corrects the amount of distortion of the light shielding wall accompanying the change in ambient temperature
- the position of the shadow of the light shielding wall is used to indirectly grasp the deformation of the lens array due to the temperature change.
- the position of the shadow of the light shielding wall depends on the state of the light source and the use environment of the imaging device.
- the detection result is likely to be unstable due to the fact that the detection result is unstable.
- Patent Document 1 since the deformation of the lens array is indirectly estimated from the deformation of the light shielding wall, it is impossible to accurately grasp the deformation of the lens array and the deformation of the housing holding the lens array. Therefore, in the imaging apparatus of Patent Document 1, super-resolution processing for obtaining one high-resolution image from images of the same field formed by the individual lens units, and calculation of the parallax of the individual lens units with high accuracy. It is difficult to realize.
- the present invention provides a compound-eye imaging device capable of performing image processing quickly and satisfactorily even when the position of each single-eye image on the sensor array is shifted due to deformation of the lens array and the holder as the environmental conditions change.
- the purpose is to do.
- a compound eye imaging apparatus includes a compound eye optical system including a lens array having a plurality of lens units arranged two-dimensionally in a direction perpendicular to the optical axis, and a compound eye optical system.
- An image processing circuit for processing an image signal output from the array, and a first position that is a center position of deformation accompanying a change in the environmental condition of the holder when viewed from the optical axis direction in the reference environmental condition
- the lens array is fixed to the holder in a state where the second position, which is the center position of deformation accompanying the change in the environmental conditions of the lens array when viewed from the optical axis direction, is separated from the holder.
- the first position refers to the holder that is the center of deformation when viewed from the optical axis direction of the lens unit when the holder that fixes the lens array expands or contracts as the environmental conditions change. Is the position.
- the first position can be a place where the relative position with respect to the sensor array does not substantially change.
- the second position refers to the lens array that becomes the center of deformation when viewed from the optical axis direction of the lens unit when the lens array fixed to the holder expands or contracts as the environmental conditions change.
- the second position may be a place where the relative position does not substantially change with respect to the fixed place of the holder.
- a vector indicating movement from the first position to the second position can be used.
- a vector indicating the deformation for each position in the lens array derived from the linear expansion coefficient of the lens array can be used.
- the image processing circuit executes image processing based on at least information regarding a difference between the first position and the second position and information indicating a degree of deformation accompanying a change in environmental conditions of the lens array. To do. For example, a change in the position of each single-eye image on the sensor array caused by a change in environmental conditions such as a change in environmental temperature, that is, a change in the position of an image obtained corresponding to the optical image on the sensor array is corrected. Thereby, even when the deformation center of the lens array and the holder when viewed from the optical axis direction of the lens portion does not match, it is possible to quickly and accurately grasp the positional deviation of each eye image on the sensor array, Good image processing can be performed against changes in environmental conditions.
- the lens array is bonded to the holder with an adhesive.
- the adherend portion of the lens array is provided at a point-symmetrical position with respect to the center of the lens portion arrangement region where a plurality of lens portions are provided in the lens array.
- the adherend portion of the lens array is continuous so as to surround the plurality of lens portions.
- the holder has a ceiling portion and leg portions that support the ceiling portion.
- the lens array is fixed to the ceiling of the holder.
- the object side surface of the lens array is fixed to the image side surface of the ceiling of the holder.
- the holder has a deformation center that is substantially unchanged in relative position with respect to the sensor array when the shape changes in a direction perpendicular to the optical axis in accordance with a change in environmental conditions.
- a substrate having a sensor array is provided, and the holder is fixed to the substrate.
- a substrate provided with a sensor array is provided, and the legs of the holder are fixed to the substrate.
- the lens array is formed of a resin.
- the holder is made of resin.
- a holder having a shape suitable for a lens array, a sensor array, or the like can be easily obtained.
- the linear expansion coefficient ⁇ 1 (1 / ° C.) of the holder, the distance L (mm) between the first position and the second position, and the pixel pitch P (mm) of the sensor array are 30 L ⁇
- the relationship of ⁇ 1 ⁇ 5P is satisfied.
- the above relational expression assumes a temperature change of 30 ° C.
- the linear expansion coefficient ⁇ 1 of the holder, the distance L between the first position and the second position, and the pixel pitch P of the sensor array satisfy the relationship of 30L ⁇ ⁇ 1 ⁇ 2P.
- the linear expansion coefficient ⁇ 1 of the holder and the linear expansion coefficient ⁇ 2 of the lens array satisfy a relationship of 1.2> ⁇ 2 / ⁇ 1> 0.8.
- the deformation amounts of both when the environmental conditions change are close, so the relative positions of the plurality of optical images formed on the sensor array The shift is relatively small.
- the linear expansion coefficient ⁇ 2 of the lens array and the linear expansion coefficient ⁇ 3 of the sensor array satisfy the relationship of ⁇ 2 / ⁇ 3> 5.
- the image processing circuit uses a combined vector of a first vector indicating movement from the first position to the second position and a second vector indicating deformation for each position in the lens array. Image processing.
- the image processing circuit is configured to adjust the environmental condition based on information regarding a difference between the first position and the second position and information indicating a degree of deformation accompanying a change in the environmental condition of the lens array.
- the corresponding region of each single-eye image on the sensor array is estimated, and pattern matching of the image signal corresponding to the estimated presence region is executed, and the correction amount of the position change of each single-eye image due to the change in environmental conditions is calculated.
- the reference environmental condition is to set the environmental temperature to room temperature.
- the compound-eye optical system further includes a second lens array that is disposed so as to overlap the optical axis direction of the first lens array, with the lens array as the first lens array.
- FIGS. 3A to 3C are schematic views showing how the lens units shift with respect to the sensor array when the environmental conditions change. It is a figure explaining the measurement result which shows the position shift of the image on the sensor array which arises with the change of environmental conditions.
- FIG. 5A is a block diagram illustrating a basic configuration of the compound eye imaging apparatus according to the embodiment
- FIG. 5B is a block diagram functionally illustrating an image processing circuit provided in the digital processing circuit.
- FIGS. 13A to 13C are diagrams for explaining a specific example of the second positional deviation estimation processing step in step S13 of FIG. It is a figure showing the flow of the super-resolution process in step S14 of FIG. It is a figure explaining the deterioration information used by FIG.14 S33. It is a figure showing the specific example of deterioration information.
- an imaging device 100 (compound eye imaging device) includes a lens array stack 1 and a sensor array 61 corresponding to each synthetic lens 1a constituting the lens array stack 1.
- a digital processing circuit 103 including an image processing circuit 80 that performs image processing conforming to a visual field division method or a super-resolution method on an image signal detected by the sensor array 60, and a substrate on which the sensor array 60 is mounted SB.
- the lens array laminate 1, the sensor array 60, and the substrate SB function as an image detection unit.
- the field division method refers to a method of obtaining one image by joining images of different fields of view formed by individual lenses and connecting the images of the fields of view by image processing.
- the super-resolution method refers to a method of obtaining one high-resolution image by image processing from images of the same field of view formed by individual lenses.
- image processing refers to correction or conversion performed on image data by an image processing circuit including a computing device such as a computer in order to obtain a reconstructed image from each individual eye image. Refers to the processing.
- the illustrated lens array laminate 1 is a laminate in which a plurality (specifically, two) of lens arrays 10 and 20 are stacked, and is used as a compound eye optical system.
- the lens array laminate 1 may be referred to as a lens array.
- These first and second lens arrays 10 and 20 are square plate-like members extending in parallel to the XY plane, and are stacked in the Z-axis direction perpendicular to the XY plane and joined to each other.
- the lens array laminate 1 is stored in a rectangular frame-shaped holder 50 in a state of facing the sensor array 60.
- the first lens array 10 on the object side is an integrally molded product made of a light-transmitting thermoplastic resin that is an optical material, in other words, an integrated product made of a thermoplastic resin.
- the first lens array 10 has a rectangular outline when viewed from the central axis AX direction or the Z-axis direction.
- the central axis AX indicates an axis at the center of an array region (lens portion array region LR) of a plurality of lens units 10a described later.
- the first lens array 10 has a plurality of lens portions 10a each of which is an optical element, a support portion 10b that supports the plurality of lens portions 10a from the periphery, and a rectangular frame shape that extends in a strip shape outside the support portion 10b. And an edge portion 10r.
- the plurality of lens portions 10a constituting the first lens array 10 are two-dimensionally arranged on square lattice points (16 ⁇ 4 ⁇ 4 in the illustrated example) arranged in parallel to the XY plane.
- Each lens unit 10a has a first optical surface 11a that is convex on the first main surface 10p on the object side, and a second optical surface 11b that is convex on the second main surface 10q on the image side.
- the first and second optical surfaces 11a and 11b are, for example, aspherical surfaces.
- the support portion 10b is a flat plate-like portion and includes a plurality of peripheral portions 10c so as to surround each lens portion 10a.
- a square frame-shaped edge portion 10r on the periphery or outside in the lateral direction of the support portion 10b is a portion for joining the first lens array 10 to the second lens array 20.
- the first lens array 10 it is assumed that there are an area where the lens part 10a is arranged on a lattice point and a frame-like area where the lens part 10a is not provided on the support part 10b. You can also.
- the second lens array 20 on the image side is an integrally molded product made of a thermoplastic resin and has a rectangular outline when viewed from the direction of the central axis AX.
- the second lens array 20 has a plurality of lens portions 20a each of which is an optical element, a support portion 20b that supports the plurality of lens portions 20a from the periphery, and a rectangular frame shape that extends in a band shape outside the support portion 20b. And an edge portion 20r.
- the plurality of lens portions 20a are two-dimensionally arranged on square lattice points (16 ⁇ 4 ⁇ 4 in the illustrated example) arranged in parallel to the XY plane.
- Each lens unit 20a has a first optical surface 21a that is concave on the first main surface 20p on the object side, and a second optical surface 21b that is convex on the second main surface 20q on the image side.
- the first and second optical surfaces 21a and 21b are, for example, aspherical surfaces.
- the support portion 20b is a flat plate-like portion and includes a plurality of peripheral portions 20c so as to surround each lens portion 20a.
- a square frame-shaped edge portion 20r on the periphery or outside in the lateral direction of the support portion 20b is a portion for joining the second lens array 20 to the first lens array 10.
- the second lens array 20 it is assumed that there are an area where the lens part 20a is arranged on a lattice point and a frame-like area where the lens part 20a is not provided on the support part 20b. You can also.
- the above lens arrays 10 and 20 are positioned with respect to each other by their own structure, their own weight, electrostatic force, and the like by sequentially stacking them by machine or manual work. That is, self-alignment is performed. However, a positioning portion may be provided in the lens array, and positioning may be performed by bringing the lens array into contact with each other. Further, when the lens arrays 10 and 20 are stacked, the lens arrays 10 and 20 are bonded or bonded together by supplying, for example, a photocurable resin between the edge portions 10r and 20r and then curing the photocurable resin. By such joining or adhesion, a lens array laminate 1 including a large number of synthetic lenses 1a arranged two-dimensionally in a matrix is obtained. The optical axis OA of each synthetic lens 1a is parallel to the central axis AX of the entire area of the plurality of lens portions 10a, 20a.
- a thin light-shielding first aperture plate 41 is disposed between the first lens array 10 and the second lens array 20 so as to be sandwiched and fixed between the pair of support portions 10b and 20b. Although a detailed description is omitted in the first diaphragm plate 41, a large number of openings are formed corresponding to the respective lens portions 10a.
- a thin light-blocking second diaphragm plate 42 fixed to the support portion 20b by bonding or the like is disposed on the image side of the second lens array 20, a thin light-blocking second diaphragm plate 42 fixed to the support portion 20b by bonding or the like is disposed. Although a detailed description is omitted, the second aperture plate 42 has a large number of openings corresponding to the lens portions 20a and the like.
- the lens arrays 10 and 20 or the lens array laminate 1 described above are made of resin, they are lightweight, thin and inexpensive.
- the lens arrays 10 and 20 have a larger linear expansion coefficient than the sensor array 60, and the positional deviation of each eye image on the sensor array 60 tends to increase.
- the method of assembling the lens arrays 10 and 20 or the lens array laminated body 1 to the holder 50 is important. When such an assembling method is appropriate, the positional deviation of each eye image on the sensor array 60 is corrected. Effect is more prominent.
- the lens array laminated body 1 since each eye is comprised with the optical system which consists of several groups of lens parts 10a and 20a, it becomes advantageous to image quality improvement.
- the holder 50 is an integrally molded product made of a thermoplastic resin, and has a ceiling portion 50a having a rectangular outline when viewed from the central axis AX direction of the lens array laminate 1, and a ceiling portion arranged circumferentially along this outline.
- a wall-like leg portion 50b extending in the direction of the central axis AX from 50a.
- the holder 50 is fixed on the substrate SB by adhering the entire bottom surface of the leg portion 50b in a state where the lens array laminate 1, the sensor array 60, and the like are disposed so as to be surrounded by the ceiling portion 50a and the leg portion 50b.
- the holder 50 When the holder 50 is fixed on the substrate SB in this way, a circuit associated with the sensor array 60 can be disposed on the substrate SB in the vicinity of the sensor array 60.
- the performance can be improved.
- by fixing the leg portion 50b of the holder 50 to the substrate SB it becomes easy to grasp the deformation of the holder 50 due to a change in environmental conditions, and image processing becomes easy.
- the lens array laminate is provided at a position facing the sensor array 60 while ensuring the accommodation or arrangement space of the sensor array 60 in the holder 50. 1 can be arranged from the main surface side of the first lens array 10 constituting this.
- the main surface of the first lens array 10 is bonded and fixed to the image side of the ceiling 50a of the holder 50, whereby the lens array laminate 1 in the direction perpendicular to the optical axis OA of the lens portions 10a and 20a.
- An entrance diaphragm plate 45 fixed by adhesion to the holder 50 or the like is disposed on the object side of the holder 50 that houses the lens array stack 1.
- the ceiling 50a of the holder 50 is also restrained by the lens array laminate 1 (lens arrays 10 and 20) to which the holder 50 is bonded, but the size of the holder 50 is increased or a highly flexible adhesive is used. For example, the influence of the constraint on the lens arrays 10 and 20 can be reduced.
- a space in which the compound eye optical system faces the sensor array 60 can be secured even if another member is provided around the sensor array 60.
- the holder 50 is made of resin, it is inexpensive, and a holder having a shape suitable for the lens arrays 10, 20 and the sensor array 60 can be easily obtained.
- the linear expansion coefficient is larger than that of the sensor array 60, and the position shift of each individual eye image on the sensor array 60 tends to increase. For this reason, the effect which correct
- the sensor array 60 is mounted on the substrate SB.
- the sensor area 61 provided in the sensor array 60 is a two-dimensional array of a plurality of pixels that perform photoelectric conversion, and is arranged in a localized area corresponding to each synthetic lens 1a on the sensor array 60. Alternatively, the sensor array 60 may be disposed throughout.
- an AD conversion unit 101b which will be described later, and the like are mounted on the substrate SB.
- the lens array laminate 1, the holder 50, and the like will be described in detail with reference to FIGS. 1B, 2 and the like.
- the lens array laminate 1 is fixed to the image side surface of the ceiling 50 a of the holder 50 with an adhesive.
- the lens array laminate 1 including the lens arrays 10 and 20 is housed in the holder 50 and is stably fixed to an appropriate position in the holder 50 with high accuracy.
- the sensor array 60 is also accurate. It can be fixed stably and well.
- the adherend portion QB of the lens array stack 1 is relative to the central axis AX of the region (lens portion arrangement region LR) in the lens array stack 1 where the plurality of lens portions 10a and 20a are provided. It is arranged at a point-symmetrical position.
- the adherend portion QB of the first lens array 10 is disposed between the object-side main surface 10p of the first lens array 10 and the image side surface of the ceiling 50a of the holder 50 in the lens array stack 1.
- the adhesive is disposed so as to surround the plurality of lens portions 10a so as to be substantially square in a plan view (in FIGS. 1A, 1B, and 2, the adherend portion QB is on the object side).
- the support reference point OS that is the center of the region surrounded by the adherend portion QB is disposed.
- the adherend portion QB is arranged in this way, the lens array stack 1 is expanded or contracted isotropically and relatively undistorted from the central axis AX or the support reference point OS due to changes in environmental conditions.
- the central axis AX or the support reference point OS substantially coincides with a second position T2 described later.
- the adherend portion QB of the lens array 10 so as to surround the whole of the plurality of lens portions 10a, it becomes easy to realize isotropic deformation.
- the lens array stack 1 is associated with a first position T1 that is a center position of deformation accompanying a change in the environment of the holder 50 when viewed from the optical axis OA direction and a change in the environment of the lens array stack 1 under reference environmental conditions. It is fixed to the holder 50 so that the second position T2, which is the center position of deformation, is separated by a distance L.
- the reference environmental condition is an environmental condition in which the holder 50 and the lens array stacked body 1 are shaped to serve as a reference for defining the degree of deformation.
- the factor causing the deformation of the holder 50 and the lens array stack 1 is the environmental temperature
- the temperature at which the holder 50 and the lens array stack 1 become the reference shape is the reference environmental condition.
- the lens array stack 1, the holder 50, and the like can be assembled at room temperature, and the imaging device 100 can be easily manufactured.
- the first position T1 is a member that supports the holder 50 when the holder 50 that fixes the lens array stack 1 is deformed mainly in the planar direction in accordance with changes in environmental conditions (in this embodiment, It is a position on the holder 50 where the relative position when viewed from the direction of the optical axis OA with respect to the substrate SB) does not substantially change.
- the first position T1 is the center of the portion fixed to the substrate SB in the holder 50, that is, the center of the rectangular frame (intersection of diagonal lines) in the holder 50 in plan view.
- the first position T1 can also be viewed as being position-invariant with respect to the sensor array 60.
- the second position T2 is relative to the holder 50 when the lens array stack 1 fixed to the holder 50 is deformed mainly in the planar direction with changes in environmental conditions. This is the position on the lens array laminate 1 where the relative position does not change substantially.
- the second position T2 is the center (intersection of diagonal lines) of the frame-shaped adherend QB in the lens array stack 1. That is, the center axis AX of the lens unit arrangement region LR and the deformation center substantially coincide.
- the first position T1 and the second position T2 are separated from each other first because it is difficult to accurately match them.
- the shape of the holder 50 cannot be the same as the aspect ratio of the lens portion arrangement region LR of the lens array stack 1.
- the sensor array 60 requires a functional unit such as a reading unit in addition to the photoelectric conversion unit, and (2) the wire bonding of the sensor array 60 may not be arranged on four sides.
- the substrate SB When mounting the sensor array 60 on the substrate SB, it may be necessary to arrange other electrical components such as resistors and capacitors in the vicinity of the sensor array 60, and (4) the compound eye imaging device.
- Design requirements (5) When the lens arrays 10 and 20 are made of plastic, a margin portion is provided in the vicinity of the gate portion for injection molding to increase the injection stability.
- the shape is not similar to the lens portion arrangement region.
- the lens part array region LR of the lens array stack 1 is fixed at a position offset with respect to the holder 50, and the center position of the lens part array region LR of the lens array stack 1 and the center of the holder 50 are aligned.
- the position of each optical image formed on the sensor array 60 is isotropic starting from the center of the arrangement of the lens portions 10a and 20a as the environmental conditions such as the environmental temperature change. It will behave differently from change.
- the lens array laminate 1 and the holder 50 are each formed of resin. It is preferable that the linear expansion coefficient ⁇ 2 of the lens array laminate 1 (lens arrays 10 and 20) and the linear expansion coefficient ⁇ 1 of the holder 50 satisfy the relationship of 1.2> ⁇ 2 / ⁇ 1> 0.8.
- the linear expansion coefficients ⁇ 1 and ⁇ 2 of the holder 50 and the lens array stacked body 1 are larger than the linear expansion coefficient of the sensor array 60 (for example, 5 times or more), and the positional deviation of each eye image on the sensor array 60 tends to increase. There is.
- the linear expansion coefficient of the lens array laminate 1 and the linear expansion coefficient of the holder 50 are relatively close, the deformation center position when the environmental conditions change is close to the first position T1 of the holder 50, so the sensor array 60 The relative positional deviation of the plurality of optical images formed on the image becomes relatively small. Thereby, it is possible to prevent an increase in the number of pixels corresponding to non-overlapping portions occurring before and after the positional deviation, and the calculation for correction is simplified.
- the linear expansion coefficient ⁇ 1 (1 / ° C.) of the holder 50, the distance L (mm) between the first position T1 and the second position T2, and the pixel pitch P (mm) of the sensor array 60 are 30L ⁇ ⁇ 1 ⁇ 5P.
- the relationship of 30L ⁇ ⁇ 1 ⁇ 2P is satisfied.
- the linear expansion coefficient ⁇ 2 of the lens array laminate 1 (lens arrays 10 and 20) and the linear expansion coefficient ⁇ 3 of the sensor array 60 satisfy the relationship of ⁇ 2 / ⁇ 3> 5.
- the state of deformation and displacement of the lens array laminate 1 when the environmental conditions change will be described.
- the shape change state of the first lens array 10 will be described, but the same applies to the shape change state of the lens array stack 1. That is, the deformation and misalignment that occur in the first lens array 10 also occur in the lens array stack 1. At this time, if there is a slight difference in expansion coefficient between the first and second lens arrays 10 and 20, a deformation or a positional deviation that averages the expansion coefficients of the first and second lens arrays 10 and 20 occurs.
- the second position T2 that is the deformation center is the support center (support reference point OS) or the center.
- the first lens array 10 coincides with the axis AX and isotropically deformed around the support center (support reference point OS) or the center axis AX. Therefore, as shown in FIG. 3B, the sensor array 60 is displaced radially isotropically around the second position T2.
- the deformation center of the holder 50, the deformation center of the lens array stack 1, and the center position of the sensor array 60 are matched.
- the first position T1 that is the deformation center of the holder 50 and the second position T2 that is the deformation center of the first lens array 10 are separated by a distance L (see FIG. 2),
- the one lens array 10 isotropically deformed around the first position T1 and moves relative to the sensor array 60 by the deformation of the holder 50.
- a vector M1 indicating the movement of the second position T2 due to the deformation of the holder 50 is represented by a one-dot chain line
- a vector M2 indicating the deformation of the first lens array 10 is represented by a two-dot chain line.
- the direction in which the vector M1 and the vector M2 are combined becomes a deformation vector M3 for the substrate SB of the first lens array 10 and the sensor array 60 when the environmental conditions change. From the sensor array 60 side, it is observed as if each lens unit 10a moved radially about a certain point (coordinate SP0 in FIG. 3A).
- the deformation vector M3 of the first lens array 10 has a half size as shown in FIG. 3C.
- the vectors M1, M2, and M3 are exaggerated for easy understanding.
- the positional shift caused by these effects can be grasped almost accurately. be able to.
- the vectors M1 and M2 in the reference environmental condition and correcting the vectors M1 and M2 in accordance with the change in the environmental condition, it is possible to grasp the positional deviation by combining the corrected vectors M1 and M2. it can.
- it is preferable to perform the correction by predicting the deviation based on the two vectors and then narrowing down the region and analyzing the image. By doing so, correction can be performed accurately and quickly.
- the sensor area 61 has an area with the number of pixels that can sufficiently cover the displacement of the single-eye image due to a change in environmental conditions.
- FIG. 4 is a diagram showing actual measurement results for explaining deformation and displacement due to a change in environmental conditions of the lens array laminate 1.
- an 11 mm square plastic lens array 10 in which 4 ⁇ 4 lens portions are arranged in a matrix with a pitch of 2.5 mm, and the size of the ceiling portion 50a are horizontal (X direction) 13.9 mm, vertical (Y Direction)
- the lens array 10 was made of cyclic polyolefin APEL (linear expansion coefficient 70 ⁇ 10 ⁇ 6 / ° C.) made of Mitsui Chemicals, and the holder 50 was made of polycarbonate (linear expansion coefficient 60 ⁇ 10 ⁇ 6 / ° C.). .
- a sensor array 60 having a pixel pitch P of 1.7 ⁇ m and a linear expansion coefficient of 4 ⁇ 10 ⁇ 6 / ° C. was used.
- the lens array 10 was adhered to the holder 50 using a thermosetting adhesive so that the distance L between the first position T1 and the second position T2 was 1.5 mm.
- an adhesive was applied in a quadrangular shape so as to surround the plurality of lens portions 10 a symmetrically with respect to the center of the arrangement of the plurality of lens portions 10 a and adhered to the holder 50.
- the leg part 50b of the holder 50 was bonded and fixed to the substrate on which the sensor array 60 was mounted. Then, the environmental temperature was changed from 26 ° C.
- FIG. 4 shows 16 image data corresponding to each individual eye, with only the vicinity of the center pixel extracted and arranged. As the environmental temperature rises, a positional deviation occurs, and apparently, a radial positional deviation occurs centering on a position (coordinate SP0) that is shifted from the central axis AX of the lens portion arrangement region LR. It was observed.
- FIG. 5A is a block diagram illustrating a basic circuit configuration of the imaging apparatus according to the present embodiment.
- the imaging apparatus 100 includes an image detection unit 101, a CPU (Central Processing Unit) 102, a digital processing circuit 103, an image display unit 104, a card interface (I / F) 107, and a storage unit 108. And an operation key 109.
- CPU Central Processing Unit
- I / F card interface
- the imaging apparatus 100 can be configured as a system in which each unit is embodied as an independent apparatus, but is generally embodied as a digital camera, a personal computer, a portable communication terminal, or the like. That is, a user such as a digital camera can view a high-resolution image on the image display unit 104 by capturing an image of a subject using the imaging device 100, and store the high-resolution image in the storage unit 108. Can do.
- the image detection unit 101 detects light from the subject and generates an image signal (input image) corresponding to the subject, and the image processing circuit 80 of the digital processing circuit 103 uses the image signal.
- a high-resolution output image having a higher frequency component than the input image (hereinafter also referred to as “high-resolution image”) is generated. Then, the digital processing circuit 103 outputs the high resolution image to the image display unit 104, the storage unit 108, and the like.
- the image detection unit 101 is a part that generates an image of an object (an input image obtained by imaging the object) as data by capturing an image of the object, and is also called a camera module.
- the image detection unit 101 includes a main body part 101a including an optical system as shown in FIGS. 1A and 1B, and an A / D (Analog-to-Digital) conversion unit 101b connected to the main body part 101a.
- the A / D conversion unit 101b converts a video signal (analog electrical signal) indicating a subject detected by the main body 101a into a digital signal and outputs the digital signal.
- the digital signal output from the A / D conversion unit 101b, that is, the image detection unit 101 includes information about an input image obtained by imaging the subject.
- the image detection unit 101 may further include a control processing circuit for controlling each part of the imaging device 100.
- the CPU 102 executes processes based on programs and setting values stored in advance in a ROM or RAM, so that the image detection unit 101, the digital processing circuit 103, the image display unit 104, the card interface (I / F) 107, etc.
- the operation is comprehensively controlled, and the entire imaging apparatus 100 is caused to perform a predetermined operation such as an operation according to a user request such as imaging or a state monitoring.
- the first position T1, the second position T2, the linear expansion coefficient ⁇ 1 of the holder 50, the linear expansion coefficient ⁇ 2 of the lens array stack 1 (lens arrays 10 and 20), the linear expansion coefficient ⁇ 3 of the sensor array 60, the vector W1, Correction coefficients and the like of W2 and vectors W1 and W2 due to changes in environmental temperature are stored in ROM or RAM.
- the digital processing circuit 103 operates under the control of the CPU 102 and executes various digital processes including image processing according to the present embodiment.
- the digital processing circuit 103 typically includes a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an LSI (Large Scale Integration), an FPGA (Field-Programmable Gate Array), and the like.
- the digital processing circuit 103 includes an image processing circuit 80 that performs intended image processing including super-resolution processing on the input image obtained by the image detection unit 101 to generate an output image.
- the image display unit 104 displays an input image provided by the image detection unit 101, an output image generated by the digital processing circuit 103, various setting information related to the imaging apparatus 100, a control GUI (Graphical User Interface) screen, and the like. .
- GUI Graphic User Interface
- a card interface (I / F) 107 is an interface for writing an output image or image data generated by the image processing circuit 80 of the digital processing circuit 103 to the storage unit 108 or reading image data or the like from the storage unit 108. is there.
- the storage unit 108 is a storage device that stores image data generated by the image processing circuit 80 and other various types of information (setting values such as control parameters and operation modes of the imaging apparatus 100).
- the storage unit 108 includes a flash memory, an optical disk, a magnetic disk, and the like, and stores data in a nonvolatile manner.
- FIG. 5B is a block diagram functionally illustrating the image processing circuit 80 provided in the digital processing circuit 103.
- the image processing circuit 80 generates a high-resolution image by performing the image processing method according to the present embodiment on the input image acquired by the image detection unit 101. More specifically, the image processing circuit 80 includes a position shift estimation unit 81 for performing a position shift estimation process described later, a super-resolution processing unit 82, and an input / output unit 83.
- the misregistration estimation unit 81 further includes a first estimation unit 81a for performing the first misregistration estimation process and a second estimation unit 81b for performing the second misregistration estimation process.
- the first estimation unit 81a includes a setting unit 81d for setting a search area to be described later.
- the super-resolution processing unit 82 includes a calculation unit 82a for calculating parameters used for the super-resolution processing based on the estimated positional deviation and the like.
- the super-resolution processing unit 82 performs super-resolution processing described later on the input image.
- the super-resolution processing is processing for generating frequency information that exceeds the Nyquist frequency of the input image.
- the misregistration estimation unit 81 performs a first misregistration estimation processing step and a second misregistration estimation processing step, which will be described later, to estimate the misregistration from the reference image for each input image.
- a high resolution image is obtained by performing super-resolution processing on a plurality of input images respectively obtained from different viewpoints obtained by photographing with the image detection unit 101 functioning as a camera array.
- the imaging apparatus 100 has an environmental condition (temperature change or the like) for a large number of input images IG detected in a large number of conversion areas AR arranged in a matrix on the photoelectric conversion surface PC of the sensor array 60 shown in FIG.
- Super-resolution processing is performed in consideration of the displacement of the pixel position due to.
- the image capturing apparatus 100 uniformly expands to the periphery or uniformly to the center due to the temperature variation of the lens array stacked body 1 or the like with respect to the input image IG corresponding to the image projected on the sensor array 60.
- the displacement of the pixel position is evaluated in advance with high accuracy. Perform super-resolution processing.
- FIG. 7 is a flowchart showing an operation flow in the imaging apparatus 100 according to the present embodiment.
- the 16 input images IG illustrated in FIG. 6 are acquired by executing the process of acquiring the input images IG by the 16 single-lens cameras constituting the image detection unit 101.
- Step S11 digital image signals corresponding to input images IG respectively obtained by photoelectric conversion in the 16 conversion areas AR of the sensor array 60 of FIG. 6 are input to the image processing circuit 80 of the digital processing circuit 103.
- a low resolution image of about 1000 ⁇ 750 pixels is input.
- the image processing circuit 80 can perform pre-processing on the obtained digital image signal, thereby facilitating detection and correction of a displacement described later.
- This preprocessing includes smoothing processing such as a Gaussian filter, and an image for each color (RGB) can also be obtained by demosaic processing.
- the image processing mode is selected (step S10).
- Mode 1 is selected when high image quality is required, and mode 2 is selected when high speed is required.
- the mode selection may be switched in advance to match the image processing mode designated by the operation of the operator's operation key, or automatically switched according to the shooting mode such as still image shooting and moving image shooting. it can.
- step S12 the first estimation unit 81a of the image processing circuit 80 executes a positional deviation approximate estimation process as a first positional deviation estimation processing step.
- the shift amount in pixel units integer pixels
- the positional deviation of the pixel for each input image IG due to the change in the position of each synthetic lens 1a constituting the lens array stack 1 due to a temperature change is estimated.
- the second estimation unit 81b of the image processing circuit 80 executes a second positional shift estimation process step (step S13).
- the shift amount in sub-pixel units decimal pixels
- FIGS. 8 and 9 are diagrams for explaining a specific example of the misalignment rough estimation process as the first misalignment estimation process in step S12.
- the environmental condition is temperature.
- FIG. 8 is a diagram for explaining the displacement of the pixel position due to the temperature change of the input image IG from each synthetic lens 1a.
- the input image IG before and after the temperature rises by 30 ° C. is schematically represented. It is a figure.
- FIG. 9 is a diagram for explaining the shift (including enlargement) of the input image IG focusing on one conversion area AR.
- the 16 solid line rectangles represent the input images IG (A to P) on the sensor array 60, respectively.
- the 16 dotted line rectangles represent the input images A to P before the temperature rise
- the 16 solid line rectangles represent the input images A to P after the temperature rise.
- Reference signs A to P of the input image also identify the synthetic lens 1 a constituting the lens array stack 1. That is, the 16 synthetic lenses 1a constituting the lens array stack 1 may be represented by reference signs A to P.
- the imaging apparatus 100 uses the input image IG (K) from one synthetic lens 1a out of the four lens units arranged on the inner side as a reference for the positional deviation approximate estimation process in step S12. Used as an image.
- the processing is executed on the assumption that all the input images IG (A to P) expand and contract as similar shapes and maintain a relatively congruent relationship during the above expansion and contraction.
- the expansion of the interval on the input image IG is 1/1000 times the temperature increase of 30 ° C.
- the distance between the input image IG (K) as the reference image and the input image IG (A) farthest from the input image IG (A) is 4000 pixels in the oblique direction (X direction and Y direction)
- the input image IG (A) changes by four pixels in an oblique direction (X direction and Y direction) due to a temperature change of 30 ° C. That is, the relative position of the input image IG (A) with respect to the input image IG (K) changes within a range of 9 ⁇ 9 pixels in an environment where the standard temperature is ⁇ 30 ° C.
- step S12 the remaining input image IG (A to J, L to P) on the basis of the pixel (reference pixel) CP represented by a small circle in FIG. 8 on the input image IG (K) as the reference image.
- the pixel CP ′ the displacement due to expansion and contraction due to temperature is estimated in pixels.
- the reference pixel CP on the input image IG (K) is determined based on the first position T1 and the second position T2.
- a reference pixel CP is determined by calculating a pixel that minimizes movement due to temperature change.
- the reference pixel CP is small in movement due to temperature change, there is an effect that the margin width of the search area described later can be narrowed.
- the position shift due to the temperature change occurs.
- the pixel CP ′ corresponding to the absence is specified as a coordinate position set in advance (dotted circle).
- a range A1 that covers the shift amount assumed in the input image IG (A) with a temperature change of ⁇ 30 ° C. around the pixel CP. This is the minimum area for searching for a pixel corresponding to the reference pixel CP.
- the range A1 that covers the shift amount assumed for the input image IG (A) is the pixel CP when the distance from the reference pixel CP to the pixel CP ′ is D and the expansion / contraction rate per unit temperature is ⁇ . It is obtained by expanding a certain margin width around a square defined by a diagonal line having a length of D ⁇ ⁇ ⁇ 60 (60 is a unit in degrees Celsius) centering on '.
- the search area indicated by the range A1 is a set for each input image IG (A to J, L to P), and the input image IG (K) that is the reference image. It is set wider in the radial direction and longer in the radial direction.
- the range (search area) A1 is set to an area obtained by adding a margin width to the values shown in Table 1 below.
- Table 1 the values a and b are Px ⁇ ⁇ ⁇ 30, Py ⁇ ⁇ ⁇ 30 using the expansion / contraction ratio ⁇ , where Px is the pitch in the X direction of the input image IG and Py is the pitch in the Y direction. It is equivalent to.
- the range A1 is an example, and is not limited to the range A1.
- the diagonal line is set rather than setting the entire range A1 as a search area.
- the search efficiency is better when the long and narrow area A2 along the corresponding line segment TL is set as the search area. That is, as shown in FIG. 9, a pixel CP1 that corresponds to the pixel CP ′ when the temperature decreases by 30 ° C. and a pixel CP2 that corresponds to the pixel CP ′ when the temperature increases by 30 ° C. are specified.
- a range A2 that connects the pixels CP1 and CP2 and is expanded by a certain margin width is set as a search area.
- FIG. 10 shows the search area range A2 for all input images IG (A to J, L to P) to be searched. In this case, the range A2 is inclined with respect to the axes X and Y of the input image IG.
- the range A1 that covers the shift amount assumed for the input images IG (B to J, L to P), more preferably ⁇ A long and narrow area A2 widened by a certain margin width along the line segment TL connecting the upper limit and the lower limit of 30 ° C. is set as a search area.
- the search area is based on the first position T1, the second position T2, the distance L between the first position T1 and the second position T2, and the linear expansion coefficient ⁇ 2 of the lens array stacked body 1 (lens arrays 10 and 20). You may decide. In this case, since the above-described procedure is omitted, the processing becomes faster.
- the temperature of the image detection unit 101 cannot be specified.
- the imaging apparatus 100 includes a temperature sensor that detects the temperature around the image detection unit 101, as illustrated in FIG. A range A3 close to a restricted square can also be used as a search area.
- the illustrated range A3 corresponds to a case where + 30 ° C. is raised from the standard temperature. That is, the range A3 moves within the range A2 corresponding to the temperature around the image detection unit 101.
- the ranges A1, A2, and A3 as described above are based on the existence area of a single-eye image estimated by a relatively simple method, and pattern matching is performed using the ranges A1, A2, and A3 as search areas. Thus, the load on image processing can be made relatively small.
- the ranges A2, A3, etc. corresponding to the search area are margins that are assumed only from the temperature change in consideration of the deviation from the design value such as the actual distance between the synthetic lenses 1a in addition to the temperature change. It is possible to make the range wider than the width.
- the template matching process is performed using the image including the reference pixel CP ′ of the input image IG (A), and the input image IG (The pixel TP having the highest degree of coincidence with the reference pixel CP of K) is specified as a pixel at a position corresponding to the reference pixel CP.
- An example of the template matching process here is NCC (Normalized Cross Correlation). Other examples include SAD (Sum of Absolute Difference) and SSD (Sum of Squared Difference).
- the template matching process is performed in the ranges A1, A2, and A3 (preferably the ranges A2 and A3) that are similar search areas.
- a pixel at a position corresponding to the reference pixel CP of the input image IG (K) is specified.
- FIG. 12 corresponds to FIG. 9 and is a diagram for explaining a modification example such as setting a search area.
- the reference pixel CP is on the input image IG (K), it is set at a position away from the point SP where there is no position shift due to temperature. As a result, the reference pixel CP is also shifted in a relatively wide range.
- the imaging apparatus 100 includes a temperature sensor that detects the temperature around the image detection unit 101, the range A2 ′ depends on the ambient temperature of the image detection unit 101.
- a pixel CPV at a specific location in the center may be selected and used as a reference pixel CP for template matching processing.
- Positional deviation estimation processing 1 As the second positional deviation estimation processing step in step S13 of FIG. 7 will be described.
- positional deviation estimation is performed in units of sub-pixels in which the rough estimation in step S12 is improved more accurately.
- FIGS. 13A to 13C are diagrams for explaining the positional deviation estimation processing 1 in step S13.
- a positional deviation in units of subpixels is estimated for one input image IG (A) after temperature change.
- the specified range A4 of the range of, for example, 3 ⁇ 3 pixels centered on the pixel TP corresponding to the reference pixel CP ′ in the input image IG (A) identified by the first positional deviation estimation processing step in step S12, Quadratic curved surface fitting is performed based on the matching degree (for example, NCC value) for each pixel in template matching (see FIG. 13B).
- the paper “Robust Super-Resolution Processing Based on Pixel Selection Considering Misregistration Amount” (Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J92-D, No. 5, pp. 650-660, 2009, May 2009) can be employed. That is, as shown in FIGS. 13B and 13C, the coordinates of the pixel having the highest matching degree among the matching degrees for each pixel are specified as the shift amount. Since pattern matching is performed after setting the search area in this way, processing can be performed at a higher speed than when pattern matching is performed on all images.
- step S13 other methods such as fitting to a quadratic curve in each of the X coordinate and the Y coordinate may be employed instead of the quadratic curved surface fitting described above.
- step S16 a positional deviation estimation process 2 that is a simple positional deviation estimation process is executed.
- the displacement is simply estimated based on the vector W1 based on the difference between the first position T1 and the second position T2 and the vector W2 based on the isotropic deformation of the lens array 10. is there.
- a temperature sensor is provided in the imaging device, and after correcting both vectors W1 and W2 by the measured environmental temperature, a shift amount for each pixel is calculated from the combined vector of both, and the calculation result is Presumed to indicate misalignment.
- the temperature change is estimated from a plurality of distant pixels of the image data, both vectors W1 and W2 are corrected based on the change, and the corrected vectors are combined to estimate the positional deviation.
- misregistration estimation can be performed at high speed. That is, it is possible to grasp the positional deviation of the single-eye image accompanying the change in the environmental conditions by relatively simple calculation, and it is possible to perform good image processing quickly.
- the first position T1 and the second position T2 may be calculated from the holder shape and the lens array shape at the reference temperature, or the temperature after the lens array 10 is bonded to the holder 50.
- the first position T1 and the second position T2 may be measured by moving up and down.
- the vector W2 differs depending on the position, the vector W2 can be easily calculated as a function of the position with respect to the second position T2 by regarding the isotropic deformation centered on the second position T2.
- FIG. 14 is a diagram showing the flow of super-resolution processing in step S14.
- FIG. 14 as a specific example, the case of performing the processing described in the paper “Fast and Robust Multiframe Super Resolution” (IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344) is shown. The flow of resolution processing is shown.
- step S31 one of the input images is subjected to an interpolation process such as a bilinear method to convert the resolution of the input image to a high resolution that is a resolution after the super-resolution process.
- an output candidate image as an initial image is generated.
- step S32 the amount of BTV (Bilateral Total Variation) for robust convergence to noise is calculated.
- step S33 the generated output candidate images are compared with the 16 input images, and a residual is calculated. That is, in step S33, the generated output candidate image is converted into an input image size based on each input image and its deterioration information (information indicating the relationship between the image after super-resolution and the input image). The resolution is reduced (see step S41 in FIG. 15), and the difference from the 16 input images is calculated and recorded (see step S42 in FIG. 15). Then, the difference is returned to the size after the super-resolution processing (see step S43 in FIG. 15), and is set as a residual.
- step S34 the residual output calculated from the output candidate image generated in step S31 and the BTV amount are reduced to generate the next output candidate image.
- steps S31 to S34 is repeated until the output candidate image converges, and the converged output candidate image is output as the output image after the super-resolution processing.
- the repetition may be a predetermined number of times such as the number of times of convergence (for example, 200 times) approximately enough, or a convergence determination may be made for each series of processing, and may be repeated according to the result. .
- FIG. 15 is a diagram for explaining the deterioration information used in step S33.
- Deterioration information refers to information representing the relationship of each input image with respect to a high-resolution image after super-resolution processing, and is represented, for example, in a matrix format.
- the deterioration information includes a shift amount, a downsampling amount, a blur amount, and the like of each of the input images estimated in step S13.
- the degradation information is defined by a matrix indicating the conversion when each of the input image and the high-resolution image after super-resolution processing is expressed as a one-dimensional vector.
- the imaging apparatus 100 calculates a parameter used for the super-resolution processing based on the positional deviation estimated in the estimation processing in steps S12 and S13, and incorporates it as deterioration information.
- FIG. 16 is a diagram showing a specific example of deterioration information.
- the imaging apparatus 100 displays the deterioration information as illustrated in FIG. Stipulate.
- the degradation information includes 1 in 16 locations.
- a coefficient of / 16 is listed. Therefore, when the pixel shift amount is 0.25 pixel, each 16 pixels of the high resolution image contributes by 1/16 of the shift amount.
- the super-resolution processing in step S14 is not limited to the processing shown in FIG. 14, but is reconfigurable super-resolution processing that generates one image from a plurality of input images. Other processes may be employed if any.
- the constraint term calculated in step S32 may be replaced with another value such as a 4-neighbor Laplacian instead of the BTV amount.
- the image processing circuit 80 at least has information on the difference between the first position T1 and the second position T2 and the environmental conditions of the lens array stack 1 (lens arrays 10 and 20). Image processing is executed based on information indicating the degree of deformation accompanying the change. For example, a change in the position of each eye image on the sensor array 60 caused by a change in environmental conditions such as a change in environmental temperature, that is, a change in the position of the image obtained corresponding to the optical image on the sensor array 60 is corrected. To do.
- the sensor array 60 and the substrate SB hardly expand and contract.
- the sensor array 60 and the substrate SB are less than the holder 50, there is a slight expansion and contraction due to the temperature. The calculation may be performed.
- step S14 the super-resolution processing is executed in consideration of the positional deviation amount and the degree of blur.
- the temperature deformation of the holder 50, the lens array stack 1 and the like is linear.
- a nonlinear component may be caused due to the fixing condition between these members and the shape of the holder 50. is there.
- the direction of contraction can be calculated in consideration of such a non-linear component. In this case, for example, it is possible to perform image processing assuming that the range A2 of the search area extends in a curved manner.
- the compound eye imaging device concerning an embodiment was explained, the compound eye imaging device concerning the present invention is not restricted to the thing of the above illustration.
- the arrangement of the lens portions 10a and 20a constituting the lens arrays 10 and 20 and the shape of the optical surfaces 11a and 11b are appropriately changed according to the use or specification of the lens array stack 1 or the imaging device 100. be able to.
- the lens units 10a and 20a are not limited to being arranged at 4 ⁇ 4 lattice points, but can be arranged at lattice points of 3 ⁇ 3, 5 ⁇ 5, and the like.
- the lattice is not limited to a square lattice, and may be a rectangular lattice.
- the environmental condition is described as the environmental temperature.
- the environmental condition is not limited to this, and the humidity of the surrounding environment, the concentration of a specific component in the surrounding environment, or a combination of a plurality of these elements. May be. You may make it provide a humidity sensor, a gas sensor, etc. as needed.
- two lens arrays are stacked, but a single-layer lens array may be used instead of stacking them. Three or more lens arrays may be stacked.
- the adherend portion QB to the holder 50 of the lens array laminate 1 is substantially square in plan view, it may be rectangular or circular.
- the lens arrays 10 and 20 are made of resin, but may be made of glass.
- the resin is not limited to a thermoplastic resin, and a thermosetting resin, a photocurable resin, or the like can be used.
- the lens arrays 10 and 20 may be, for example, wafer level lenses in which resin lens portions are two-dimensionally arranged on a glass substrate.
- the holder 50 is fixed to the substrate SB, but may be fixed to the sensor array 60.
- the support reference point OS of the lens arrays 10 and 20 is made to coincide with the central axis AX.
- the support reference point OS can be positively shifted from the central axis AX.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Lens Barrels (AREA)
- Studio Devices (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Cameras In General (AREA)
- Mounting And Adjusting Of Optical Elements (AREA)
Abstract
Description
本発明は、2次元的に配列された複数のレンズ部を有するレンズアレイを含む複眼撮像装置に関する。 The present invention relates to a compound eye imaging device including a lens array having a plurality of lens portions arranged two-dimensionally.
近年の撮像光学系に対する薄型化の要求は非常に高まっている。それに対応するために、光学設計による全長短縮やそれに伴う誤差感度増大に対応した製造精度向上を行ってきたが、さらなる薄型化の要求に対応するためには、従来の1つの光学系と撮像素子とによって像を得るという手法では不十分となっている。 Demand for thinning of imaging optical systems in recent years has been greatly increased. In order to respond to this, we have improved the manufacturing accuracy in response to the shortening of the overall length by optical design and the accompanying increase in error sensitivity, but in order to meet the demand for further thinning, one conventional optical system and image sensor The method of obtaining an image by the above is insufficient.
そこで、撮像素子の検出領域を分割して、それぞれに対応するように光学系を配置し、得られた画像を処理することで最終的な画像出力を行う複眼撮像装置に用いられる、複眼光学系と呼ばれる光学系が、薄型化への要求に対応するために注目されている。しかし、複眼光学系を含む撮像装置では、環境温度等の環境条件の変化により、撮像装置のレンズ部の配列ピッチ等が変化するため、これらに対処する必要があり、例えば、画像処理によって解決を図ることが考えられる。 Therefore, the compound eye optical system used in a compound eye imaging device that divides the detection area of the image sensor, arranges the optical system so as to correspond to each, and processes the obtained image to output the final image In order to meet the demand for thinning, an optical system called “A” is attracting attention. However, in an imaging apparatus including a compound eye optical system, the arrangement pitch of the lens unit of the imaging apparatus changes due to a change in environmental conditions such as the environmental temperature. It is possible to plan.
画像処理を行う複眼撮像装置の一例として、レンズアレイと撮像素子との間に各レンズに対応して矩形の孔をあけた遮光壁が配置された撮像装置であって、遮光壁を周囲温度の変化によるレンズアレイの形状変化に従うような形状や材質としておき、個眼像間において遮光壁の影を取り込むことができる撮像素子に入射した輝度情報から遮光壁の位置を反映した2値画像を取得し、これに基づいて周囲温度の変化に伴う遮光壁の歪み量を算出して補正するものが記載されている(特許文献1参照)。 As an example of a compound-eye imaging device that performs image processing, an imaging device in which a light shielding wall having a rectangular hole corresponding to each lens is disposed between a lens array and an imaging element, and the light shielding wall is placed at an ambient temperature. A binary image reflecting the position of the light-shielding wall is acquired from the luminance information incident on the image sensor that can capture the shadow of the light-shielding wall between individual eye images, taking the shape and material according to the shape change of the lens array due to the change. On the basis of this, there is a description that calculates and corrects the amount of distortion of the light shielding wall accompanying the change in ambient temperature (see Patent Document 1).
しかしながら、本発明者らの検討によれば、レンズアレイ又は遮光壁の変形に着目するだけでは、環境温度等の環境条件の変化に十分対応できない場合があることが判明している。これは、通常、レンズアレイが撮像素子に対向するようにホルダーによって保持されているところ、このホルダーが環境条件により変形すること等に起因して、撮像素子上の各個眼像の位置変化が見かけ上、複雑になって環境条件の変化に正確に対応することができなくなるためであると考えられる。より詳しくは、環境条件の変化に伴うホルダーの変形中心とレンズアレイの変形中心とを一致させることが現実的には難しいため、環境条件の変化に伴って生じる撮像素子に対するレンズ部のシフトが複雑になるものと考えられる。上記特許文献1では、遮光壁の影の位置を用いて温度変化に伴うレンズアレイの変形を間接的に把握しようとしているが、遮光壁の影の位置は、光源の状態や撮像装置の使用環境等によって影響を受けやすく検出結果が不安定になりやすい。また、遮光壁と撮像素子とを密着させることが難しく、撮像素子に投影される遮光壁の影がぼけやすくなる。従って、遮光壁の位置、特に四隅の位置を正確に求められないおそれがある。また、特許文献1では、遮光壁の変形から間接的にレンズアレイの変形を推定しているので、レンズアレイの変形やレンズアレイを保持する筺体の変形を正確に把握することができない。従って、特許文献1の撮像装置では、個々のレンズ部によって結像された同じ視野の画像から1つの高解像度の画像を得る超解像処理や、個々のレンズ部の視差の算出を高精度に実現することが難しい。
However, according to the study by the present inventors, it has been found that it may not be possible to sufficiently cope with changes in environmental conditions such as the environmental temperature simply by focusing on the deformation of the lens array or the light shielding wall. This is because the lens array is normally held by a holder so as to face the image sensor, and the position change of each eye image on the image sensor is apparent due to deformation of the holder due to environmental conditions. Furthermore, it is thought that it becomes complicated and it becomes impossible to respond accurately to changes in environmental conditions. More specifically, since it is practically difficult to match the center of deformation of the holder and the center of deformation of the lens array due to changes in environmental conditions, the shift of the lens portion relative to the image sensor that occurs with changes in environmental conditions is complicated. It is thought to become. In
本発明は、レンズアレイ及びホルダーが環境条件の変化に伴って変形することに起因してセンサーアレイ上の各個眼像の位置ずれが生じる場合でも迅速かつ良好に画像処理が行える複眼撮像装置を提供することを目的とする。 The present invention provides a compound-eye imaging device capable of performing image processing quickly and satisfactorily even when the position of each single-eye image on the sensor array is shifted due to deformation of the lens array and the holder as the environmental conditions change. The purpose is to do.
上記課題を解決するため、本発明に係る複眼撮像装置は、光軸に対して垂直な方向に2次元的に配列された複数のレンズ部を有するレンズアレイを含む複眼光学系と、複眼光学系により複数のレンズ部に対応する複数の光学像が結像され、複数の光学像に対応する画像信号を出力するセンサーアレイと、複眼光学系をセンサーアレイに対向するように保持するホルダーと、センサーアレイから出力される画像信号を処理するための画像処理回路と、を備え、基準環境条件において、光軸方向からみたときの、ホルダーの環境条件の変化に伴う変形の中心位置である第1位置と、光軸方向からみたときの、レンズアレイの環境条件の変化に伴う変形の中心位置である第2位置とが離れた状態でレンズアレイがホルダーに固定され、画像処理回路は、少なくとも、第1位置と第2位置との違いに関する情報、及びレンズアレイの環境条件の変化に伴う変形の度合いを示す情報に基づいて画像処理を行う。ここで、第1位置とは、レンズアレイを固定しているホルダーが環境条件の変化に伴って膨張又は収縮する際の、レンズ部の光軸方向から見たときの変形の中心となるホルダー上の位置である。センサーアレイやセンサーアレイが設けられた基板にホルダーを固定する場合、第1位置は、センサーアレイとの相対位置が実質的に変化しない箇所とすることができる。また、第2位置とは、ホルダーに対して固定されたレンズアレイが環境条件の変化に伴って膨張又は収縮する際の、レンズ部の光軸方向から見たときの変形の中心となるレンズアレイ上の位置である。第2位置は、ホルダーの固定箇所に対して相対位置が実質的に変化しない箇所とすることができる。第1位置と第2位置との違いに関する情報としては、例えば、第1位置から第2位置への移動を示すベクトルを用いることができる。レンズアレイの環境条件の変化に伴う変形の度合いを示す情報としては、例えば、レンズアレイの線膨張係数から導かれるレンズアレイ内の位置ごとの変形を示すベクトルを用いることができる。 In order to solve the above-described problems, a compound eye imaging apparatus according to the present invention includes a compound eye optical system including a lens array having a plurality of lens units arranged two-dimensionally in a direction perpendicular to the optical axis, and a compound eye optical system. Forms a plurality of optical images corresponding to the plurality of lens units, outputs a sensor signal corresponding to the plurality of optical images, a holder for holding the compound eye optical system so as to face the sensor array, and a sensor An image processing circuit for processing an image signal output from the array, and a first position that is a center position of deformation accompanying a change in the environmental condition of the holder when viewed from the optical axis direction in the reference environmental condition The lens array is fixed to the holder in a state where the second position, which is the center position of deformation accompanying the change in the environmental conditions of the lens array when viewed from the optical axis direction, is separated from the holder. At least, performs image processing based on the first position information about the differences between the second position, and information indicating the degree of deformation due to changes in environmental conditions of the lens array. Here, the first position refers to the holder that is the center of deformation when viewed from the optical axis direction of the lens unit when the holder that fixes the lens array expands or contracts as the environmental conditions change. Is the position. When the holder is fixed to the sensor array or the substrate on which the sensor array is provided, the first position can be a place where the relative position with respect to the sensor array does not substantially change. The second position refers to the lens array that becomes the center of deformation when viewed from the optical axis direction of the lens unit when the lens array fixed to the holder expands or contracts as the environmental conditions change. It is the upper position. The second position may be a place where the relative position does not substantially change with respect to the fixed place of the holder. As information regarding the difference between the first position and the second position, for example, a vector indicating movement from the first position to the second position can be used. As the information indicating the degree of deformation accompanying the change in the environmental conditions of the lens array, for example, a vector indicating the deformation for each position in the lens array derived from the linear expansion coefficient of the lens array can be used.
上記複眼撮像装置では、画像処理回路が、少なくとも、第1位置と第2位置との違いに関する情報、及びレンズアレイの環境条件の変化に伴う変形の度合いを示す情報に基づいて、画像処理を実行する。例えば、環境温度の変動等の環境条件の変化に伴って生じるセンサーアレイ上の各個眼像の位置の変化、すなわちセンサーアレイ上の光学像に対応して得られる画像の位置の変化を補正する。これにより、レンズ部の光軸方向から見たときのレンズアレイ及びホルダーの変形中心が一致していなくても、センサーアレイ上の各個眼像の位置ずれを迅速かつ正確に把握することができ、環境条件の変化に対して良好な画像処理を行うことができる。 In the compound eye imaging device, the image processing circuit executes image processing based on at least information regarding a difference between the first position and the second position and information indicating a degree of deformation accompanying a change in environmental conditions of the lens array. To do. For example, a change in the position of each single-eye image on the sensor array caused by a change in environmental conditions such as a change in environmental temperature, that is, a change in the position of an image obtained corresponding to the optical image on the sensor array is corrected. Thereby, even when the deformation center of the lens array and the holder when viewed from the optical axis direction of the lens portion does not match, it is possible to quickly and accurately grasp the positional deviation of each eye image on the sensor array, Good image processing can be performed against changes in environmental conditions.
本発明の具体的な側面又は態様では、レンズアレイが、接着剤によってホルダーに接着されている。 In a specific aspect or embodiment of the present invention, the lens array is bonded to the holder with an adhesive.
本発明の別の側面では、レンズアレイの被接着部は、レンズアレイのうち複数のレンズ部が設けられるレンズ部配列領域の中心に対して点対称な位置に設けられる。 In another aspect of the present invention, the adherend portion of the lens array is provided at a point-symmetrical position with respect to the center of the lens portion arrangement region where a plurality of lens portions are provided in the lens array.
本発明のさらに別の側面では、レンズアレイの被接着部は、複数のレンズ部を囲むように連続する。 In yet another aspect of the present invention, the adherend portion of the lens array is continuous so as to surround the plurality of lens portions.
本発明のさらに別の側面では、ホルダーは、天井部と該天井部を支える脚部とを有する。 In still another aspect of the present invention, the holder has a ceiling portion and leg portions that support the ceiling portion. *
本発明のさらに別の側面では、レンズアレイは、ホルダーの天井部に固定される。 In yet another aspect of the present invention, the lens array is fixed to the ceiling of the holder. *
本発明のさらに別の側面では、レンズアレイの物体側面が、ホルダーの天井部の像側面に固定される。 In yet another aspect of the present invention, the object side surface of the lens array is fixed to the image side surface of the ceiling of the holder.
本発明のさらに別の側面では、ホルダーは、環境条件の変化に伴って光軸に垂直な方向の形状変化を生じる際に、センサーアレイに対して実質的に相対位置が不変の変形中心を有するように配置されている。 In yet another aspect of the present invention, the holder has a deformation center that is substantially unchanged in relative position with respect to the sensor array when the shape changes in a direction perpendicular to the optical axis in accordance with a change in environmental conditions. Are arranged as follows.
本発明のさらに別の側面では、センサーアレイが設けられた基板を備え、ホルダーは、基板に固定される。 In yet another aspect of the present invention, a substrate having a sensor array is provided, and the holder is fixed to the substrate.
本発明のさらに別の側面では、センサーアレイが設けられた基板を備え、ホルダーの脚部が基板に固定される。 In yet another aspect of the present invention, a substrate provided with a sensor array is provided, and the legs of the holder are fixed to the substrate.
本発明のさらに別の側面では、レンズアレイは、樹脂で形成される。 In yet another aspect of the present invention, the lens array is formed of a resin.
本発明のさらに別の側面では、ホルダーは、樹脂で形成される。レンズアレイやセンサーアレイ等に合った形状のホルダーを容易に得ることができる。 In yet another aspect of the present invention, the holder is made of resin. A holder having a shape suitable for a lens array, a sensor array, or the like can be easily obtained.
本発明のさらに別の側面では、ホルダーの線膨張係数α1(1/℃)、第1位置と第2位置との距離L(mm)、及びセンサーアレイの画素ピッチP(mm)が、30L・α1<5Pの関係を満たす。ここで、上記関係式は、30℃の温度変化を想定したものとなっている。 In still another aspect of the present invention, the linear expansion coefficient α1 (1 / ° C.) of the holder, the distance L (mm) between the first position and the second position, and the pixel pitch P (mm) of the sensor array are 30 L · The relationship of α1 <5P is satisfied. Here, the above relational expression assumes a temperature change of 30 ° C.
本発明のさらに別の側面では、ホルダーの線膨張係数α1、第1位置と第2位置との距離L、及びセンサーアレイの画素ピッチPが、30L・α1<2Pの関係を満たす。 In still another aspect of the present invention, the linear expansion coefficient α1 of the holder, the distance L between the first position and the second position, and the pixel pitch P of the sensor array satisfy the relationship of 30L · α1 <2P.
本発明のさらに別の側面では、ホルダーの線膨張係数α1、及びレンズアレイの線膨張係数α2が、1.2>α2/α1>0.8の関係を満たす。この場合、レンズアレイの線膨張係数とホルダーの線膨張係数とが近いため、環境条件変化時の両者の変形量が近くなるので、センサーアレイに結像される複数の光学像の相対的な位置ずれが比較的小さくなる。 In still another aspect of the present invention, the linear expansion coefficient α1 of the holder and the linear expansion coefficient α2 of the lens array satisfy a relationship of 1.2> α2 / α1> 0.8. In this case, since the linear expansion coefficient of the lens array and the linear expansion coefficient of the holder are close to each other, the deformation amounts of both when the environmental conditions change are close, so the relative positions of the plurality of optical images formed on the sensor array The shift is relatively small.
本発明のさらに別の側面では、レンズアレイの線膨張係数α2、及びセンサーアレイの線膨張係数α3が、α2/α3>5の関係を満たす。 In still another aspect of the present invention, the linear expansion coefficient α2 of the lens array and the linear expansion coefficient α3 of the sensor array satisfy the relationship of α2 / α3> 5.
本発明のさらに別の側面では、画像処理回路は、第1位置から第2位置への移動を示す第1ベクトルと、レンズアレイ内の位置ごとの変形を示す第2ベクトルとの合成ベクトルを用いて画像処理を行う。 In still another aspect of the present invention, the image processing circuit uses a combined vector of a first vector indicating movement from the first position to the second position and a second vector indicating deformation for each position in the lens array. Image processing.
本発明のさらに別の側面では、画像処理回路は、第1位置及び第2位置の違いに関する情報と、レンズアレイの環境条件の変化に伴う変形の度合いを示す情報とに基づいて、環境条件に応じた各個眼像のセンサーアレイ上の存在領域を推定し、推定された存在領域に対応する画像信号のパターンマッチングを実行して、環境条件の変化に伴う各個眼像の位置変化の補正量を求める。 In still another aspect of the present invention, the image processing circuit is configured to adjust the environmental condition based on information regarding a difference between the first position and the second position and information indicating a degree of deformation accompanying a change in the environmental condition of the lens array. The corresponding region of each single-eye image on the sensor array is estimated, and pattern matching of the image signal corresponding to the estimated presence region is executed, and the correction amount of the position change of each single-eye image due to the change in environmental conditions is calculated. Ask.
本発明のさらに別の側面では、基準環境条件は、環境温度を常温に設定することである。 In yet another aspect of the present invention, the reference environmental condition is to set the environmental temperature to room temperature.
本発明のさらに別の側面では、複眼光学系は、レンズアレイを第1のレンズアレイとし、第1レンズアレイの光軸方向に重ねて配置される第2のレンズアレイをさらに備える。 In still another aspect of the present invention, the compound-eye optical system further includes a second lens array that is disposed so as to overlap the optical axis direction of the first lens array, with the lens array as the first lens array.
〔撮像装置の像検出部〕
図1A及び1Bは、本発明の一実施形態に係る複眼撮像装置のうち像検出を行うための像検出部を説明する平面図及び断面図である。
図1A及び1B等に示すように、撮像装置100(複眼撮像装置)は、レンズアレイ積層体1と、レンズアレイ積層体1を構成する個々の合成レンズ1aに対応するセンサー領域61を有するセンサーアレイ60と、センサーアレイ60によって検出された画像信号に対して視野分割方式又は超解像方式に適合する画像処理を行う画像処理回路80を含むデジタル処理回路103と、センサーアレイ60が実装される基板SBとを備える。このうち、レンズアレイ積層体1、センサーアレイ60、及び基板SBは、像検出部として機能する。ここで、視野分割方式とは、個々のレンズによって結像された異なる視野の画像を、画像処理よって各視野の画像をつなぎ合わせることで1つの画像を得る方式を指す。また、超解像方式とは、個々のレンズによって結像された同じ視野の画像から画像処理によって1つの高解像度の画像を得る方式を指す。なお、本明細書において、画像処理とは、個々の個眼像から再構成画像を得るために、コンピューター等の演算装置を含む画像処理回路によって、画像データに対して施される補正や変換等の加工処理を指す。
[Image Detection Unit of Imaging Device]
1A and 1B are a plan view and a cross-sectional view illustrating an image detection unit for performing image detection in a compound eye imaging apparatus according to an embodiment of the present invention.
As shown in FIGS. 1A and 1B and the like, an imaging device 100 (compound eye imaging device) includes a
図示のレンズアレイ積層体1は、複数(具体的には2つ)のレンズアレイ10,20を積み重ねた積層体であり、複眼光学系として用いられる。以下の説明においては、レンズアレイ積層体1をレンズアレイと呼ぶこともある。これらの第1及び第2レンズアレイ10,20は、XY面に平行に延びる四角平板状の部材であり、XY面に垂直なZ軸方向に積み重ねられて相互に接合されている。
The illustrated
レンズアレイ積層体1は、センサーアレイ60に対向した状態で矩形枠状のホルダー50に収納されている。レンズアレイ積層体1において、物体側の第1レンズアレイ10は、光学材料である光透過性の熱可塑性樹脂製の一体成形品、換言すれば、熱可塑性樹脂からなる一体物である。第1レンズアレイ10は、中心軸AX方向又はZ軸方向から見て矩形の輪郭を有する。ここで、中心軸AXは、後述する複数のレンズ部10aの配列領域(レンズ部配列領域LR)の中心の軸を指す。第1レンズアレイ10は、それぞれが光学素子である複数のレンズ部10aと、複数のレンズ部10aを周囲から支持する支持部10bと、支持部10bの外側に帯状に延在する四角枠状の縁部10rとを有する。第1レンズアレイ10を構成する複数のレンズ部10aは、XY面に平行に配列された正方の格子点(図示の例では4×4の16点)上に2次元的に配置されている。各レンズ部10aは、物体側の第1主面10pにおいて凸の第1光学面11aを有し、像側の第2主面10qにおいて凸の第2光学面11bを有する。第1及び第2光学面11a,11bは、例えば非球面となっている。支持部10bは、平板状の部分であり、各レンズ部10aの周りをそれぞれ囲むように複数の周囲部分10cを備える。支持部10bの横方向の周辺又は外側にある四角枠状の縁部10rは、第1レンズアレイ10を第2レンズアレイ20と接合するための部分となっている。なお、第1レンズアレイ10において、支持部10b上にレンズ部10aが格子点上に配列されている領域と、レンズ部10aが設けられていない枠状の領域とが存在していると捉えることもできる。
The
像側の第2レンズアレイ20は、熱可塑性樹脂製の一体成形品であり、中心軸AX方向から見て矩形の輪郭を有する。第2レンズアレイ20は、それぞれが光学素子である複数のレンズ部20aと、複数のレンズ部20aを周囲から支持する支持部20bと、支持部20bの外側に帯状に延在する四角枠状の縁部20rとを有する。複数のレンズ部20aは、XY面に平行に配列された正方の格子点(図示の例では4×4の16点)上に2次元的に配置されている。各レンズ部20aは、物体側の第1主面20pにおいて凹の第1光学面21aを有し、像側の第2主面20qにおいて凸の第2光学面21bを有する。第1及び第2光学面21a,21bは、例えば非球面となっている。支持部20bは、平板状の部分であり、各レンズ部20aの周りをそれぞれ囲むように複数の周囲部分20cを備える。支持部20bの横方向の周辺又は外側にある四角枠状の縁部20rは、第2レンズアレイ20を第1レンズアレイ10と接合するための部分となっている。なお、第2レンズアレイ20において、支持部20b上にレンズ部20aが格子点上に配列されている領域と、レンズ部20aが設けられていない枠状の領域とが存在していると捉えることもできる。
The
以上のレンズアレイ10,20は、機械や手作業によって順次積み重ねることによって、自身の構造、及び自重や静電気力等によって互いに位置決めされる。つまり、セルフアライメントされる。ただし、レンズアレイに位置決め部を設けておき、片寄せして突き当てることで位置決めするようにしてもよい。また、レンズアレイ10,20は、積み重ねる際に縁部10r,20r間に例えば光硬化性樹脂を供給し積み重ねた後に光硬化性樹脂を硬化させることによって、互いに接合又は接着される。このような接合又は接着によって、2次元的にマトリックス状に配列された多数の合成レンズ1aを備えるレンズアレイ積層体1が得られる。各合成レンズ1aの光軸OAは、複数のレンズ部10a,20aの全体領域の中心軸AXに平行になっている。
The
なお、第1レンズアレイ10と第2レンズアレイ20との間には、一対の支持部10b,20bに挟持されて固定された薄い遮光性の第1絞り板41が配置されている。この第1絞り板41には、詳細な説明を省略するが、各レンズ部10aに対応して多数の開口が形成されている。第2レンズアレイ20の像側には、接着等によって支持部20bに固定された薄い遮光性の第2絞り板42が配置されている。この第2絞り板42には、詳細な説明を省略するが、各レンズ部20a等に対応して多数の開口が形成されている。
Note that a thin light-shielding
以上のレンズアレイ10,20又はレンズアレイ積層体1は、樹脂製であることから、軽量かつ薄型で安価なものとなる。その半面、レンズアレイ10,20は、センサーアレイ60に比べて線膨張係数が大きく、センサーアレイ60上の各個眼像の位置ずれが大きくなる傾向がある。このため、レンズアレイ10,20又はレンズアレイ積層体1のホルダー50への組付け方法が大切になり、かかる組付け方法が適切である場合、センサーアレイ60上の各個眼像の位置ずれを補正する効果がより顕著に発現する。なお、レンズアレイ積層体1を用いる場合、各個眼が複数群のレンズ部10a,20aからなる光学系で構成されるため、高画質化に有利になる。
Since the
ホルダー50は、熱可塑性樹脂製の一体成形品であり、レンズアレイ積層体1の中心軸AX方向から見て矩形の輪郭を有する天井部50aと、この輪郭に沿って周状に配置され天井部50aから中心軸AX方向に延びる壁状の脚部50bとを有する。ホルダー50は、レンズアレイ積層体1、センサーアレイ60等を天井部50a及び脚部50bによって囲むようにして配置した状態で、脚部50bの底面全体を接着することによって基板SB上に固定されている。このようにホルダー50を基板SB上に固定する場合、センサーアレイ60に付随する回路を基板SB上にセンサーアレイ60に近接して配置することも可能になり、撮像装置(複眼撮像装置)100の性能向上を図ることができる。特に、ホルダー50の脚部50bを基板SBに固定することにより、環境条件の変化に伴うホルダー50の変形を把握しやすくなり、画像処理が容易になる。
天井部50a及び脚部50bを有する上記のようなホルダー50を用いることにより、ホルダー50内にセンサーアレイ60の収容又は配置スペースを確保しつつ、センサーアレイ60に対向する位置に、レンズアレイ積層体1を、これを構成する第1レンズアレイ10の主面側から支持し得る天井部50aを配置することができる。また、ホルダー50の天井部50aの像側に第1レンズアレイ10の主面を接着して固定を行うことにより、レンズ部10a,20aの光軸OAに垂直な方向へのレンズアレイ積層体1又はレンズアレイ10,20の移動を含む変形を比較的妨げにくくなり、環境条件の変化に伴って生じるレンズアレイ10,20等の変形を把握しやすくなる。レンズアレイ積層体1を収納するホルダー50の物体側には、ホルダー50への接着等によって固定された入射絞り板45が配置されている。ホルダー50の天井部50aや入射絞り板45には、詳細な説明を省略するが、各レンズ部10a等に対応して多数の開口が形成されている。ホルダー50は、その脚部50bが基板SBに接着固定されているため、環境温度の変化によって、主に天井部50aが変形することになる。このため、天井部50aの対角中心が変形中心にほぼ一致する。なお、ホルダー50の天井部50aは接着されているレンズアレイ積層体1(レンズアレイ10,20)によっても拘束されるが、ホルダー50のサイズを大きくしたり、柔軟性の高い接着剤を利用したりする等して、レンズアレイ10,20の拘束による影響を小さくすることができる。なお、レンズアレイ10,20をホルダー50で保持することにより、センサーアレイ60の周囲に他の部材を設けても複眼光学系がセンサーアレイ60に対向する空間を確保することができる。
The
By using the
以上のホルダー50は、樹脂製であることから、安価なものとなり、レンズアレイ10,20やセンサーアレイ60等に合った形状を有するものを容易に得ることができる。その半面、センサーアレイ60に比べて線膨張係数が大きく、センサーアレイ60上の各個眼像の位置ずれが大きくなる傾向がある。このため、センサーアレイ60上の各個眼像の位置ずれを補正する効果がより顕著に発現する。
Since the
センサーアレイ60は、基板SB上に実装されている。センサーアレイ60に設けられるセンサー領域61は、光電変換を行う複数の画素を2次元的に配列したものであり、センサーアレイ60上の個々の合成レンズ1aに対応する局在的な領域に配置されていてもよいし、センサーアレイ60の全体に配置されていてもよい。なお、基板SB上には、センサーアレイ60の他に、後述するAD変換部101b等も実装されている。
The
以下、図1B、図2等を参照しつつ、レンズアレイ積層体1、ホルダー50等について詳述する。図1B、図2等に示すように、レンズアレイ積層体1は、ホルダー50の天井部50aの像側面に接着剤によって固定されている。これにより、レンズアレイ10,20からなるレンズアレイ積層体1は、ホルダー50内に収容されるとともにホルダー50内の適所に精度よく安定して固定され、結果的にセンサーアレイ60に対しても精度よく安定して固定可能となる。本実施形態の場合、レンズアレイ積層体1の被接着部QBは、レンズアレイ積層体1のうち複数のレンズ部10a,20aが設けられる領域(レンズ部配列領域LR)の中心軸AXに対して点対称な位置に配されている。具体的には、レンズアレイ積層体1のうち第1レンズアレイ10の物体側の主面10pと、ホルダー50の天井部50aの像側面との間に、第1レンズアレイ10の被接着部QBが、複数のレンズ部10aを囲むように連続し平面視において略正方形となるように接着剤を配している(なお、図1A、1B、及び図2において、被接着部QBは、物体側からは直接観察されないため、破線で示してある)。ここで、レンズアレイ積層体1の中心軸AX上に、被接着部QBに囲まれた領域の中心である支持基準点OSが配置されている。被接着部QBをこのように配置することにより、環境条件の変化によって、レンズアレイ積層体1は、中心軸AX又は支持基準点OSから比較的歪みなく等方的に膨張変形又は収縮変形し、中心軸AX又は支持基準点OSは、後述する第2位置T2とほぼ一致する。特に、レンズアレイ10の被接着部QBを複数のレンズ部10a全体を囲むように連続して設けることで、等方的な変形を実現しやすくなる。レンズアレイ積層体1は、基準環境条件において、光軸OA方向から見たときのホルダー50の環境変化に伴う変形の中心位置である第1位置T1と、レンズアレイ積層体1の環境変化に伴う変形の中心位置である第2位置T2とが距離Lだけ離れた状態となるように、ホルダー50に固定されている。
Hereinafter, the
ここで、基準環境条件とは、ホルダー50及びレンズアレイ積層体1を、変形の度合いを規定するための基準となる形状にする環境条件である。例えば、ホルダー50及びレンズアレイ積層体1の変形を生じさせる因子が環境温度であれば、ホルダー50及びレンズアレイ積層体1が基準形状となる温度(例えば20℃の常温)が基準環境条件である。この場合、レンズアレイ積層体1、ホルダー50等を室温で組み立てることができ、撮像装置100を容易に作製することができる。
また、第1位置T1は、レンズアレイ積層体1を固定しているホルダー50が、環境条件の変化に伴って主に平面方向に変形する際の、ホルダー50を支持する部材(本実施形態では基板SB)に対して光軸OA方向から見たときの相対位置が実質的に変化しないホルダー50上の位置である。本実施形態の場合、第1位置T1は、ホルダー50において、基板SBに固定される部分の中心、すなわち平面視のホルダー50において矩形枠の中心(対角線の交点)である。基板SBとセンサーアレイ60の環境変化における変形が、ホルダー50の変形に比べて十分小さい場合、第1位置T1は、センサーアレイ60に対して位置不変であると見ることもできる。このように、ホルダー50にセンサーアレイ60に対して位置不変の第1位置T1が存在することにより、環境条件の変化に伴うホルダー50の変形を把握しやすくなり、画像処理が容易になる。
また、本実施形態では、第2位置T2は、ホルダー50に対して固定されたレンズアレイ積層体1が、環境条件の変化に伴って主に平面方向に変形する際の、ホルダー50に対して相対位置が実質的に変化しないレンズアレイ積層体1上の位置である。本実施形態の場合、第2位置T2は、レンズアレイ積層体1において、枠状の被接着部QBの中心(対角線の交点)である。つまり、レンズ部配列領域LRの中心軸AXと変形中心とがほぼ一致する。
Here, the reference environmental condition is an environmental condition in which the
Further, the first position T1 is a member that supports the
Further, in the present embodiment, the second position T2 is relative to the
なお、第1位置T1と第2位置T2とが離れた状態としているのは、まず第1に、両者を正確に一致させることが難しいという理由による。第2に、次のような要因で、ホルダー50の形状を、レンズアレイ積層体1のレンズ部配列領域LRの縦横比と同じ形状にできないという理由による。具体的には、(1)センサーアレイ60には、光電変換部以外に読み出し部等の機能部が必要であること、(2)センサーアレイ60のワイヤーボンディングが4辺に配置されていない場合があること、(3)基板SB上にセンサーアレイ60を実装する場合、センサーアレイ60近傍に抵抗やコンデンサー等の他の電気部品を配置しなければならない場合があること、(4)複眼撮像装置のデザイン上の要請、(5)レンズアレイ10,20がプラスチック製である場合、射出成形のためのゲート部の近辺に射出の安定性を高めるために余白部を設ける結果、レンズアレイ10,20の形状がレンズ部配列領域に対して相似な形状でなくなること等である。これらの理由により、レンズアレイ積層体1のレンズ部配列領域LRがホルダー50に対して偏った位置に固定され、レンズアレイ積層体1のレンズ部配列領域LRの中心位置とホルダー50の中心とを一致させにくくなり、環境温度等の環境条件の変化に伴って、センサーアレイ60上に結像される各光学像の位置が、レンズ部10a,20aの配列の中心を起点とした等方的な変化とは異なる挙動を示すことになる。
Note that the first position T1 and the second position T2 are separated from each other first because it is difficult to accurately match them. Second, because of the following factors, the shape of the
既に説明した通り、レンズアレイ積層体1及びホルダー50は、それぞれ樹脂で形成されている。レンズアレイ積層体1(レンズアレイ10,20)の線膨張係数α2とホルダー50の線膨張係数α1は、1.2>α2/α1>0.8の関係を満たすことが好ましい。ホルダー50やレンズアレイ積層体1の線膨張係数α1,α2は、センサーアレイ60の線膨張係数よりも大きくなり(例えば5倍以上)、センサーアレイ60上の各個眼像の位置ずれが大きくなる傾向がある。また、レンズアレイ積層体1の線膨張係数とホルダー50の線膨張係数とが比較的近いため、環境条件変化時の変形中心位置が、ホルダー50の第1位置T1と近くなるので、センサーアレイ60に結像される複数の光学像の相対的な位置ずれが比較的小さくなる。これにより、位置ずれの前後で生じる非重複部分に相当する画素が多くなるのを防止でき、補正のための計算が簡単になる。
As already described, the
ホルダー50の線膨張係数α1(1/℃)、第1位置T1と第2位置T2との距離L(mm)、及びセンサーアレイ60の画素ピッチP(mm)は、30L・α1<5P、より好ましくは、30L・α1<2Pの関係を満たす。このようにすることで、レンズアレイ10,20のレンズ部10a,20a、ホルダー50、及びセンサーアレイ60の相対位置の関係で決まる画像取得のために必要な有効領域を確実に確保することができる。換言すれば、センサーアレイ60の画素数を必要以上に多くする必要がなくなる。ここで、上記関係式は、30℃の温度変化を想定したものとなっている。
The linear expansion coefficient α1 (1 / ° C.) of the
レンズアレイ積層体1(レンズアレイ10,20)の線膨張係数α2、及びセンサーアレイ60の線膨張係数α3は、α2/α3>5の関係を満たす。このようにすることで、環境温度の変化に伴うレンズアレイ10,20の変形量に比べて、環境温度の変化に伴うセンサーアレイ60の変形量を十分小さくすることができ、画像処理への負荷を軽減しやすくなる。
The linear expansion coefficient α2 of the lens array laminate 1 (
以下、環境条件変化時のレンズアレイ積層体1の変形や位置ずれの状態を説明する。以下では説明を簡単にするため、第1レンズアレイ10の形状変化状態について説明するが、レンズアレイ積層体1の形状変化状態についても同様である。つまり、第1レンズアレイ10について生じた変形や位置ずれは、レンズアレイ積層体1についても同様に生じる。この際、第1及び第2レンズアレイ10,20間に僅かな膨張率差がある場合、第1及び第2レンズアレイ10,20の膨張率を平均化した変形や位置ずれが生じる。
Hereinafter, the state of deformation and displacement of the
ホルダー50が変形を生じないものであると仮定した場合、環境条件変化において、第1レンズアレイ10のみが変形し、その変形中心である第2位置T2が支持中心(支持基準点OS)又は中心軸AXと一致し、第1レンズアレイ10は、支持中心(支持基準点OS)又は中心軸AXを中心として等方的に変形する。従って、図3Bに示すように、センサーアレイ60に対して第2位置T2を中心に等方的に放射状に位置ずれが生じる。なお、ホルダー50の変形中心、レンズアレイ積層体1の変形中心、及びセンサーアレイ60の中心位置を一致させた場合も同様になる。
When it is assumed that the
一方、本実施形態のように、ホルダー50の変形中心である第1位置T1と第1レンズアレイ10の変形中心である第2位置T2とが距離L離れている場合(図2参照)、第1レンズアレイ10は第1位置T1を中心に等方的に変形するとともに、ホルダー50の変形によってセンサーアレイ60に対して移動する。
On the other hand, as in the present embodiment, when the first position T1 that is the deformation center of the
図3Aにおいて、ホルダー50の変形による第2位置T2の移動を示すベクトルM1を一点鎖線で表し、第1レンズアレイ10の変形を示すベクトルM2を二点鎖線で表している。ベクトルM1とベクトルM2とを合成した方向が、環境条件が変化した際の第1レンズアレイ10の基板SBやセンサーアレイ60等に対する変形ベクトルM3となる。センサーアレイ60側からは、あたかもある一点(図3Aの座標SP0)を中心にして、放射状に各レンズ部10aが移動したように観察されることになる。環境条件の変化の度合いが図3Aの1/2の場合、図3Cに示すように、第1レンズアレイ10の変形ベクトルM3は半分の大きさとなる。なお、図3A~3Cにおいて、各ベクトルM1,M2,M3は理解を容易にするために誇張して図示してある。
3A, a vector M1 indicating the movement of the second position T2 due to the deformation of the
従って、単純なモデルとしては、レンズアレイ10自身の変形の度合いを示すベクトルM2と、レンズアレイ10の移動を示すベクトルM1とを合成することにより、これらの影響による位置ずれをほぼ正確に把握することができる。例えば、基準環境条件におけるベクトルM1,M2を記憶しておき、環境条件の変化に合わせてベクトルM1,M2を補正することで、補正後のベクトルM1,M2の合成によって位置ずれを把握することができる。実際には、補正をより正確に行うため、2つのベクトルに基づいてずれを予測した後、領域を絞って画像解析することで補正を行うことが好ましい。このようにすることで、正確にしかも速く補正を行うことができる。なお、センサー領域61は環境条件の変化による個眼像の位置ずれを十分カバーし得る画素数の領域を有している。
Therefore, as a simple model, by synthesizing the vector M2 indicating the degree of deformation of the
図4は、レンズアレイ積層体1の環境条件変化による変形や位置ずれを説明する実測結果を示す図である。実測に当たっては、4×4個のレンズ部が2.5mmのピッチでマトリクス配列された11mm角のプラスチック製レンズアレイ10と、天井部50aのサイズが横(X方向)13.9mm、縦(Y方向)13.7mmのプラスチック製ホルダー50とを使用した。レンズアレイ10の材質は、環状ポリオレフィンである三井化学社製APEL(線膨張係数70×10-6/℃)とし、ホルダー50の材質はポリカーボネート(線膨張係数60×10-6/℃)とした。センサーアレイ60としては、画素ピッチPが1.7μmで、線膨張係数が4×10-6/℃のものを用いた。レンズアレイ10は、第1位置T1と第2位置T2との距離Lが1.5mmとなるように、熱硬化性接着剤を用いてホルダー50に接着した。この際、複数のレンズ部10aの配列の中心に対して対称に複数のレンズ部10aを囲むように四角形状に接着剤を塗布してホルダー50に接着した。ホルダー50の脚部50bをセンサーアレイ60が実装された基板に接着固定した。そして、環境温度を26℃から58℃まで変化させ、得られた画像を解析することによって、各個眼像の中心位置の変化を測定した。図4は、各個眼に対応する16個の画像データについて、中心画素付近のみを抜き出して並べたものである。環境温度が上昇するのに伴って位置ずれを生じており、見かけ上、レンズ部配列領域LRの中心軸AXからずれた位置(座標SP0)を中心とするように放射状に位置ずれが生じていることが観測された。
FIG. 4 is a diagram showing actual measurement results for explaining deformation and displacement due to a change in environmental conditions of the
〔撮像装置の回路部分〕
図5Aは、本実施形態に係る撮像装置の基本的な回路構成を説明するブロック図である。図示のように、撮像装置100は、像検出部101と、CPU(Central Processing Unit)102と、デジタル処理回路103と、画像表示部104と、カードインターフェイス(I/F)107と、記憶部108と、操作キー109とを含む。
[Circuit part of imaging device]
FIG. 5A is a block diagram illustrating a basic circuit configuration of the imaging apparatus according to the present embodiment. As illustrated, the
なお、撮像装置100は、各部を独立の装置で具現化したシステムとして構成可能であるが、汎用的には、デジタルカメラ、パーソナルコンピューター、携帯通信端末等として具現化される。すなわち、デジタルカメラ等のユーザーは、撮像装置100を用いて被写体を撮像することで、画像表示部104において高解像度の画像を視認することができ、記憶部108に高解像度の画像を保管することができる。具体的には、撮像装置100において、像検出部101が被写体からの光を検出して被写体に相当する画像信号(入力画像)を生成し、デジタル処理回路103の画像処理回路80がこの画像信号に対して後述するような画像処理を行うことで、入力画像よりも高周波数成分を有する高解像度の出力画像(以下、「高解像度画像」とも称する)を生成する。そして、デジタル処理回路103は、この高解像度画像を画像表示部104、記憶部108等へ出力する。
Note that the
像検出部101は、被写体を撮像することで、データとして被写体の画像(被写体を映像化した入力画像)を生成する部分であり、カメラモジュールとも呼ばれる。像検出部101は、既に説明したように、図1A及び1Bに示すような光学系を含む本体部分101aと、この本体部分101aに接続されたA/D(Analog to Digital)変換部101bとを含む。A/D変換部101bは、本体部分101aによって検出された被写体を示す映像信号(アナログ電気信号)をデジタル信号に変換して出力する。A/D変換部101bすなわち像検出部101から出力されるデジタル信号には、被写体を映像化した入力画像に関する情報が含まれている。なお、像検出部101は、さらに撮像装置100の各部分を制御するための制御処理回路等を含み得る。
The
CPU102は、予めROMやRAMに格納されたプログラムや設定値に基づいて処理を実行することで、像検出部101、デジタル処理回路103、画像表示部104、カードインターフェイス(I/F)107等の動作を統括的に制御しており、撮像装置100の全体に撮像等のユーザーの要求に応じた動作又は状態監視等の既定の動作を行わせる。上述した第1位置T1、第2位置T2、ホルダー50の線膨張係数α1、レンズアレイ積層体1(レンズアレイ10,20)の線膨張係数α2、センサーアレイ60の線膨張係数α3、ベクトルW1,W2、及び環境温度の変化によるベクトルW1,W2の補正係数等は、ROM又はRAMに記憶されている。
The
デジタル処理回路103は、CPU102の制御下で動作し、本実施形態に従う画像処理を含む各種のデジタル処理を実行する。デジタル処理回路103は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)等によって構成される。このデジタル処理回路103は、像検出部101によって得た入力画像に対して超解像処理等を含む所期の画像処理を行って出力画像を生成する画像処理回路80を含む。
The
画像表示部104は、像検出部101により提供される入力画像、デジタル処理回路103によって生成される出力画像、撮像装置100に係る各種設定情報、制御用GUI(Graphical User Interface)画面等を表示する。
The
カードインターフェイス(I/F)107は、デジタル処理回路103の画像処理回路80によって生成された出力画像又は画像データを記憶部108に書き込み、或いは、記憶部108から画像データ等を読み出すためのインターフェイスである。記憶部108は、画像処理回路80によって生成された画像データや、その他の各種情報(撮像装置100の制御パラメーター、動作モード等の設定値)を格納する記憶デバイスである。この記憶部108は、フラッシュメモリ、光学ディスク、磁気ディスク等からなり、データを不揮発的に記憶する。
A card interface (I / F) 107 is an interface for writing an output image or image data generated by the
図5Bは、デジタル処理回路103に設けた画像処理回路80を機能的に説明するブロック図である。画像処理回路80は、像検出部101によって取得された入力画像に対して、本実施形態に従う画像処理方法を実施することで高解像度画像を生成する。より具体的には、画像処理回路80は、後述する位置ずれ推定処理を行うための位置ずれ推定部81と、超解像処理部82と、入出力部83とを含む。位置ずれ推定部81は、さらに第1の位置ずれ推定処理工程を行うための第1推定部81aと第2の位置ずれ推定処理工程を行うための第2推定部81bとを含む。第1推定部81aは、後述する探索エリアを設定するための設定部81dを含む。また、超解像処理部82は、推定された位置ずれ等に基づいて超解像処理に用いるパラメーターを算出するための算出部82aを含む。
FIG. 5B is a block diagram functionally illustrating the
超解像処理部82は、入力画像に対して後述する超解像処理を行う。超解像処理とは、入力画像が持つナイキスト周波数を超える周波数情報を生成する処理である。その際に、位置ずれ推定部81は、後述する第1の位置ずれ推定処理工程及び第2の位置ずれ推定処理工程を行って、入力画像それぞれについて、基準画像からの位置ずれを推定する。
The
〔動作概要〕
撮像装置100では、カメラアレイとして機能する像検出部101によって撮影することで得られる、それぞれ異なる視点の複数の入力画像について超解像処理を施し、高解像度画像を得る。
[Operation overview]
In the
撮像装置100は、図6に示すセンサーアレイ60の光電変換面PC上にマトリックス状に配列された多数の変換領域ARにおいて検出された多数の入力画像IGに対して、環境条件(温度変化等)による画素位置のずれを考慮して超解像処理を行う。この際、撮像装置100は、センサーアレイ60上に投射される画像に対応する入力画像IGに関して、レンズアレイ積層体1等の温度変動に起因する周辺への一様な膨張又は中心への一様な収縮の現象だけでなく、ホルダー50、レンズアレイ積層体1等に起因する温度依存性を有する空間的に一様なシフト現象を考慮して、画素位置のずれを予め高い確度で評価して超解像処理を行う。
The
〔動作フロー〕
(全体動作)
図7は、本実施形態に係る撮像装置100での動作の流れを表わすフローチャートである。
まず、撮像装置100では、像検出部101を構成する16個の個眼カメラによってそれぞれ入力画像IGを取得する処理が実行されることで、図6に示す16枚の入力画像IGが取得される(ステップS11)。具体的には、図6のセンサーアレイ60の16個の変換領域ARにおける光電変換によってそれぞれ得た入力画像IGに対応するデジタル画像信号がデジタル処理回路103の画像処理回路80に入力される。ここでは、例えば1000×750画素程度の低解像度の画像が入力されるものとする。なお、画像処理回路80では、得られたデジタル画像信号に対して前処理を行うことができ、これによって後述する位置ずれの検出や補正が容易になる。この前処理には、ガウシャンフィルターのような平滑化の処理が含まれ、デモザイク処理によって色ごと(RGB)の画像を得ることもできる。
[Operation flow]
(Overall operation)
FIG. 7 is a flowchart showing an operation flow in the
First, in the
入力画像が取得されると、画像処理モードの選択を行う(ステップS10)。高画質を求める場合はモード1を、高速性を求める場合はモード2が選択される。モードの選択は、予め、操作者の操作キーの操作によって指定された画像処理モードに合うように切替えたり、静止画撮影と動画撮影等の撮影の態様に応じて自動的に切り替えたりすることができる。
When the input image is acquired, the image processing mode is selected (step S10).
モード1が選択された場合はステップS12へ移行し、モード2が選択された場合はステップS16へ移行する。ステップS12においては、画像処理回路80の第1推定部81aにおいて、第1の位置ずれ推定処理工程として、位置ずれ概略推定処理が実行される。この処理工程では、ピクセル単位(整数画素)でのずれ量が推定される。なお、ここでは、レンズアレイ積層体1を構成する各合成レンズ1aが温度変化によって位置が変化することによる、入力画像IGごとの画素の位置ずれが推定される。
When
次に、ピクセル単位でのずれ量に基づいて、画像処理回路80の第2推定部81bにおいて、第2の位置ずれ推定処理工程が実行される(ステップS13)。ここでは、サブピクセル単位(小数画素)でのずれ量が推定される。
Next, on the basis of the shift amount in units of pixels, the
そして、画像処理回路80の超解像処理部82において、ステップS12,S13で得た位置ずれ量を考慮して超解像処理が実行され(ステップS14)、4000×3000画素程度の高解像度画像が出力画像OGとして生成される。
Then, in the
(位置ずれ概略推定処理)
図8及び図9は、上記ステップS12での、第1の位置ずれ推定処理工程としての位置ずれ概略推定処理の具体例を説明するための図である。以下、環境条件が温度であるものとして説明する。図8は、各合成レンズ1aからの入力画像IGの温度変化による画素位置のずれを説明するための図であって、一例として、温度が30℃上昇する前後の入力画像IGを模式的に表わした図である。また、図9は、1つの変換領域ARに着目した入力画像IGのシフト(拡大含む)を説明する図である。
(Position estimation process)
FIGS. 8 and 9 are diagrams for explaining a specific example of the misalignment rough estimation process as the first misalignment estimation process in step S12. Hereinafter, description will be made assuming that the environmental condition is temperature. FIG. 8 is a diagram for explaining the displacement of the pixel position due to the temperature change of the input image IG from each
図8の温度上昇前の図(左図)において、16個の実線矩形は、センサーアレイ60上の入力画像IG(A~P)をそれぞれ表わしている。図8の温度上昇後の図(右図)では、16個の点線矩形が温度上昇前の入力画像A~Pを表わし、16個の実線矩形が温度上昇後の入力画像A~Pを表わしている。入力画像の符号A~Pは、レンズアレイ積層体1を構成する合成レンズ1aを識別するものともなっている。つまり、レンズアレイ積層体1を構成する16個の合成レンズ1aは、符号A~Pによって表される場合もある。
In the figure before the temperature rise in FIG. 8 (left figure), the 16 solid line rectangles represent the input images IG (A to P) on the
図8に示すように、温度が上昇すると、各合成レンズ1a及びホルダー50が膨張するため、各入力画像の撮影範囲が全体的に変化する。本実施形態においては、撮像装置100は、内側に配される4つのレンズ部のうちの一つの合成レンズ1aからの入力画像IG(K)を上記ステップS12での位置ずれ概略推定処理に際しての基準画像として用いる。なお、本処理においては、以上の伸縮に際して、すべての入力画像IG(A~P)は、相似形状として伸縮し、相対的には合同な関係を保つものと仮定して処理を実行する。
As shown in FIG. 8, when the temperature rises, each
例えば、入力画像IG上の間隔の伸びが30℃の温度上昇に対して1/1000倍であるものとする。この場合、基準画像である入力画像IG(K)と、これから最も離れた入力画像IG(A)との距離が、斜め方向(X方向、Y方向それぞれ)に4000画素であるとすると、入力画像IG(A)が30℃の温度変化によって斜め方向(X方向、Y方向それぞれ)に4画素変化する。つまり、入力画像IG(A)の入力画像IG(K)に対する相対位置は、標準温度±30℃の環境下、9×9画素の範囲で変化することになる。 For example, it is assumed that the expansion of the interval on the input image IG is 1/1000 times the temperature increase of 30 ° C. In this case, if the distance between the input image IG (K) as the reference image and the input image IG (A) farthest from the input image IG (A) is 4000 pixels in the oblique direction (X direction and Y direction), the input image IG (A) changes by four pixels in an oblique direction (X direction and Y direction) due to a temperature change of 30 ° C. That is, the relative position of the input image IG (A) with respect to the input image IG (K) changes within a range of 9 × 9 pixels in an environment where the standard temperature is ± 30 ° C.
上記ステップS12では、基準画像である入力画像IG(K)上の、図8において小円で表わした画素(基準画素)CPを基準として、残りの入力画像IG(A~J,L~P)上の対応する基準画素CP'について、温度に起因する膨張及び収縮による位置ずれをピクセル単位で推定する。ここで、入力画像IG(K)上の基準画素CPは、第1位置T1及び第2位置T2に基づいて決定する。つまり、第1位置T1、第2位置T2、第1位置T1から第2位置T2に向かう第1ベクトルW1、及びレンズアレイ積層体1(レンズアレイ10,20)の線膨張係数α2を用いて、温度変化による移動が最も小さくなるような画素を算出して基準画素CPを決める。基準画素CPが温度変化による移動が小さいものであると、後述する探索エリアのマージン幅を狭くできる効果がある。
In the above step S12, the remaining input image IG (A to J, L to P) on the basis of the pixel (reference pixel) CP represented by a small circle in FIG. 8 on the input image IG (K) as the reference image. For the corresponding reference pixel CP ′ above, the displacement due to expansion and contraction due to temperature is estimated in pixels. Here, the reference pixel CP on the input image IG (K) is determined based on the first position T1 and the second position T2. That is, using the first position T1, the second position T2, the first vector W1 from the first position T1 to the second position T2, and the linear expansion coefficient α2 of the lens array stack 1 (
図9に示すように、基準画像である入力画像IG(K)を除いた入力画像IG(A~J,L~P)のうち、例えば入力画像IG(A)において、温度変化による位置ずれがない場合に対応する画素CP'が、予め適宜設定された座標位置として特定される(点線丸)。そして、±30℃の温度変化による位置ずれを推定する場合、この画素CPを中心に、±30℃の温度変化に伴って入力画像IG(A)に想定されるシフト量をカバーする範囲A1が、基準画素CPに対応する画素を探索するための最低限のエリアとなる。ここで、入力画像IG(A)に想定されるシフト量をカバーする範囲A1は、基準画素CPから画素CP'までの距離をDとし、単位温度あたりの伸縮率をβとした場合、画素CP'を中心として長さD×β×60(60は、温度で℃単位)の対角線によって規定される四角形の周囲に一定のマージン幅だけ広げたものとなる。図8に示されるように、範囲A1で示す探索エリアは、入力画像IG(A~J,L~P)ごとに設定される一組のものであり、基準画像である入力画像IG(K)から遠いほど広く、また放射状の方向に長く設定される。具体的には、範囲(探索エリア)A1は、以下の表1のような値にマージン幅を追加した領域に設定される。
〔表1〕
以上の表において、値a,bは、入力画像IGのX方向のピッチをPxとし、Y方向のピッチをPyとすると、伸縮率βを用いて、Px×β×30,Py×β×30に相当するものとなっている。
As shown in FIG. 9, among the input images IG (A to J, L to P) excluding the input image IG (K) that is the reference image, for example, in the input image IG (A), the position shift due to the temperature change occurs. The pixel CP ′ corresponding to the absence is specified as a coordinate position set in advance (dotted circle). When estimating a positional shift due to a temperature change of ± 30 ° C., a range A1 that covers the shift amount assumed in the input image IG (A) with a temperature change of ± 30 ° C. around the pixel CP. This is the minimum area for searching for a pixel corresponding to the reference pixel CP. Here, the range A1 that covers the shift amount assumed for the input image IG (A) is the pixel CP when the distance from the reference pixel CP to the pixel CP ′ is D and the expansion / contraction rate per unit temperature is β. It is obtained by expanding a certain margin width around a square defined by a diagonal line having a length of D × β × 60 (60 is a unit in degrees Celsius) centering on '. As shown in FIG. 8, the search area indicated by the range A1 is a set for each input image IG (A to J, L to P), and the input image IG (K) that is the reference image. It is set wider in the radial direction and longer in the radial direction. Specifically, the range (search area) A1 is set to an area obtained by adding a margin width to the values shown in Table 1 below.
[Table 1]
In the above table, the values a and b are Px × β × 30, Py × β × 30 using the expansion / contraction ratio β, where Px is the pitch in the X direction of the input image IG and Py is the pitch in the Y direction. It is equivalent to.
探索エリア(推定される存在領域とも呼ぶ)については、上記範囲A1は例示であり、上記範囲A1に限定されるものではない。入力画像IG(A~J,L~P)において、基準画素CP'が上記範囲A1を規定する対角線に沿ってシフトすることを考えると、範囲A1全てを探索エリアとして設定するよりも、対角線に対応する線分TLに沿った細長い範囲A2を探索エリアとして設定する方が、探索の効率がより良くなる。すなわち、図9に示すように、30℃温度低下した場合に画素CP'に対応する位置となる画素CP1と、30℃温度上昇した場合に画素CP'に対応する位置となる画素CP2とを特定することで、画素CP1と画素CP2とをつなぐとともに一定のマージン幅だけ広げた範囲A2を探索エリアとする。図10は、検索の対象となるすべての入力画像IG(A~J,L~P)について、探索エリアの範囲A2を示したものである。この場合、範囲A2は、入力画像IGの軸X,Yに対して傾いたものとなる。 As for the search area (also referred to as the estimated presence area), the range A1 is an example, and is not limited to the range A1. In the input image IG (A to J, L to P), considering that the reference pixel CP ′ shifts along the diagonal line defining the range A1, the diagonal line is set rather than setting the entire range A1 as a search area. The search efficiency is better when the long and narrow area A2 along the corresponding line segment TL is set as the search area. That is, as shown in FIG. 9, a pixel CP1 that corresponds to the pixel CP ′ when the temperature decreases by 30 ° C. and a pixel CP2 that corresponds to the pixel CP ′ when the temperature increases by 30 ° C. are specified. Thus, a range A2 that connects the pixels CP1 and CP2 and is expanded by a certain margin width is set as a search area. FIG. 10 shows the search area range A2 for all input images IG (A to J, L to P) to be searched. In this case, the range A2 is inclined with respect to the axes X and Y of the input image IG.
他の入力画像IG(B~J,L~P)についても、同様の手法で、入力画像IG(B~J,L~P)に想定されるシフト量をカバーする範囲A1、より好ましくは±30℃の上限と下限とをつなぐ線分TLに沿って一定のマージン幅だけ広げた細長い範囲A2を探索エリアとする。 For other input images IG (B to J, L to P), the range A1 that covers the shift amount assumed for the input images IG (B to J, L to P), more preferably ± A long and narrow area A2 widened by a certain margin width along the line segment TL connecting the upper limit and the lower limit of 30 ° C. is set as a search area.
なお、探索エリアを第1位置T1、第2位置T2、第1位置T1と第2位置T2との距離L、及びレンズアレイ積層体1(レンズアレイ10,20)の線膨張係数α2に基づいて決定してもよい。この場合、上述の手順が省略されるため、処理が高速になる。
The search area is based on the first position T1, the second position T2, the distance L between the first position T1 and the second position T2, and the linear expansion coefficient α2 of the lens array stacked body 1 (
以上では、像検出部101の温度が特定できないことを前提としたが、撮像装置100が像検出部101周辺の温度を検出する温度センサーを備える場合、図11に示すように、範囲A2をより制限した正方形に近い範囲A3を探索エリアとすることもできる。図示の範囲A3は、標準温度よりも+30℃上昇した場合に相当する。つまり、範囲A3は、像検出部101周辺の温度に対応して、範囲A2内で移動する。
In the above description, it is assumed that the temperature of the
以上のような範囲A1,A2,A3は、比較的簡易な方法で推定した個眼像の存在領域を前提としており、このような範囲A1,A2,A3を探索エリアとしてパターンマッチングを実行することで、画像処理への負荷を比較的小さくすることができる。 The ranges A1, A2, and A3 as described above are based on the existence area of a single-eye image estimated by a relatively simple method, and pattern matching is performed using the ranges A1, A2, and A3 as search areas. Thus, the load on image processing can be made relatively small.
なお、上記探索エリアに対応する範囲A2,A3等は、温度変化に加えて、例えば実際の合成レンズ1a間の距離等の設計値からのずれを考慮して、温度変化のみから想定されるマージン幅より大きく外側に広げた範囲とすることができる。
Note that the ranges A2, A3, etc. corresponding to the search area are margins that are assumed only from the temperature change in consideration of the deviation from the design value such as the actual distance between the
上記探索エリアすなわち範囲A1,A2,A3(好ましくは範囲A2,A3)内おいて、入力画像IG(A)の基準画素CP'を含む画像を用いてテンプレートマッチング処理が行われ、入力画像IG(K)の基準画素CPと最も一致度が高い画素TPが基準画素CPに対応する位置にある画素として特定される。ここでのテンプレートマッチング処理の一例として、NCC(Normalized Cross Correlation)が挙げられる。他の例として、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等であってもよい。そして、他の入力画像IG(B~J,L~P)についても、同様の探索エリアである範囲A1,A2,A3(好ましくは範囲A2,A3)内において、上記テンプレートマッチング処理が行われて、各入力画像IG(A~J,L~P)において、入力画像IG(K)の基準画素CPに対応する位置にある画素が特定される。 Within the search area, that is, the range A1, A2, A3 (preferably the range A2, A3), the template matching process is performed using the image including the reference pixel CP ′ of the input image IG (A), and the input image IG ( The pixel TP having the highest degree of coincidence with the reference pixel CP of K) is specified as a pixel at a position corresponding to the reference pixel CP. An example of the template matching process here is NCC (Normalized Cross Correlation). Other examples include SAD (Sum of Absolute Difference) and SSD (Sum of Squared Difference). For the other input images IG (B to J, L to P), the template matching process is performed in the ranges A1, A2, and A3 (preferably the ranges A2 and A3) that are similar search areas. In each input image IG (A to J, L to P), a pixel at a position corresponding to the reference pixel CP of the input image IG (K) is specified.
図12は、図9に対応するものであり、探索エリアの設定等の変形例を説明する図である。この場合、基準画素CPは、入力画像IG(K)上にあるものの、温度による位置ずれがないとする点SPから離れた位置に設定されている。結果的に、基準画素CPも比較的広い範囲でシフトするが、撮像装置100が像検出部101周辺の温度を検出する温度センサーを備える場合、像検出部101の周辺温度に応じて範囲A2'中の特定箇所の画素CPVを選択して、この画素をテンプレートマッチング処理用の基準画素CPとすればよい。
FIG. 12 corresponds to FIG. 9 and is a diagram for explaining a modification example such as setting a search area. In this case, although the reference pixel CP is on the input image IG (K), it is set at a position away from the point SP where there is no position shift due to temperature. As a result, the reference pixel CP is also shifted in a relatively wide range. However, when the
(位置ずれ推定処理1)
以下、図7のステップS13における、第2の位置ずれ推定処理工程としての位置ずれ推定処理1について説明する。この位置ずれ推定処理1では、ステップS12での概略推定をより精度的に高めたサブピクセル単位で位置ずれ推定が行われる。
(Position displacement estimation process 1)
Hereinafter, the positional
図13A~13Cは、上記ステップS13での位置ずれ推定処理1を説明するための図である。図13Aに示すように、温度変化後の1つの入力画像IG(A)について、サブピクセル単位での位置ずれが推定される。上記ステップS12の第1の位置ずれ推定処理工程によって特定された、入力画像IG(A)において基準画素CP'に相当する画素TPを中心とした例えば3×3画素の範囲の規定範囲A4で、テンプレートマッチングにおける画素ごとの一致度(例えばNCC値)を元に2次曲面フィッティングが行われる(図13B参照)。ステップS13の位置ずれ推定処理1では、一例として、論文「位置ずれ量を考慮した画素選択に基づくロバスト超解像処理」(電子情報通信学会論文誌、Vol.J92-D、No.5、pp.650-660、2009、2009年5月)に記載された手法を採用することができる。すなわち、図13B及び13Cに表わされたように、画素ごとの一致度のうち、最も一致度の高い画素の座標がずれ量として特定される。このように、探索エリアを設定してからパターンマッチングを行うので、全ての画像に対してパターンマッチングを行うのに比べて、高速に処理を行うことができる。
FIGS. 13A to 13C are diagrams for explaining the positional
以上は、基準画像の入力画像IG(A)について、精密な位置ずれ推定を行う処理について説明したが、他の入力画像IG(B~J,L~P)についても、上記ステップS12の第1の位置ずれ推定処理工程によって特定された画素TPを基準として、入力画像IG(A)の場合と同様の処理を行うことで、精密な位置ずれ推定を行うことができる。 The above has described the processing for performing accurate positional deviation estimation for the input image IG (A) of the reference image. However, for the other input images IG (B to J, L to P), the first step of the above step S12. By performing the same processing as in the case of the input image IG (A) with reference to the pixel TP specified in the positional deviation estimation processing step, it is possible to perform precise positional deviation estimation.
なお、ステップS13では、上記の2次曲面フィッティングに替えて、X座標及びY座標それぞれで2次曲線にフィッティングする等の他の手法が採用されてもよい。 In step S13, other methods such as fitting to a quadratic curve in each of the X coordinate and the Y coordinate may be employed instead of the quadratic curved surface fitting described above.
(位置ずれ推定処理2)
ステップS10でモード2が選択された場合、ステップS16において、簡易な位置ずれ推定処理である位置ずれ推定処理2が実行される。本ステップにおいては、第1位置T1と第2位置T2との差異に基づくベクトルW1と、レンズアレイ10の等方的な変形に基づくベクトルW2とに基づいて、簡易に位置ずれを推定するものである。具体的には、撮像装置内に温度センサーを設けておき、両ベクトルW1,W2を測定した環境温度によって補正した上で、両者の合成ベクトルから画素ごとのずれ量を算出し、この算出結果が位置ずれを示すものと推定する。或いは、画像データの離れた複数の画素から温度変化を推定し、それに基づいて両ベクトルW1,W2を補正し、補正後の両ベクトルを合成して位置ずれを推定する。この方法によれば、上述したような探索エリアの設定やパターンマッチングによる正確な位置ずれ検出を行わないので、高速に位置ずれ推定を行うことができる。つまり、比較的簡易な演算により、環境条件の変化に伴う個眼像の位置ずれを把握することができ、迅速に良好な画像処理を行うことができる。なお、ベクトルW1の算出に当たっては、基準温度における、ホルダー形状及びレンズアレイ形状から、第1位置T1及び第2位置T2を算出してもよいし、ホルダー50にレンズアレイ10を接着した後に、温度を昇降させて第1位置T1及び第2位置T2を実測してもよい。ベクトルW2は、位置によってそれぞれ異なるものであるが、第2位置T2を中心とする等方的な変形とみなすことで、第2位置T2に対する位置の関数として容易に算出することができる。
(Position displacement estimation process 2)
When mode 2 is selected in step S10, in step S16, a positional deviation estimation process 2 that is a simple positional deviation estimation process is executed. In this step, the displacement is simply estimated based on the vector W1 based on the difference between the first position T1 and the second position T2 and the vector W2 based on the isotropic deformation of the
(超解像処理)
図14は、上記ステップS14での超解像処理の流れを表わした図である。図14では、具体例として、論文「Fast and Robust Multiframe Super Resolution」(IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344)に記載された処理を行う場合の超解像処理の流れが示されている。
(Super-resolution processing)
FIG. 14 is a diagram showing the flow of super-resolution processing in step S14. In FIG. 14, as a specific example, the case of performing the processing described in the paper “Fast and Robust Multiframe Super Resolution” (IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344) is shown. The flow of resolution processing is shown.
図14に示すように、ステップS31で、入力画像のうちの1枚に対してバイリニア法等の補間処理を施して入力画像の解像度を超解像処理後の解像度である高解像度に変換することで、初期画像としての出力候補画像が生成される。 As shown in FIG. 14, in step S31, one of the input images is subjected to an interpolation process such as a bilinear method to convert the resolution of the input image to a high resolution that is a resolution after the super-resolution process. Thus, an output candidate image as an initial image is generated.
ステップS32で、ノイズにロバストに収束させるためのBTV(Bilateral Total Variation)量が算出される。 In step S32, the amount of BTV (Bilateral Total Variation) for robust convergence to noise is calculated.
ステップS33で、上記生成された出力候補画像と16枚分の入力画像とが比較されて、残差が算出される。すなわち、ステップS33では、上記生成された出力候補画像が、各入力画像とその劣化情報(超解像後の画像と入力画像との間の関係を示す情報)とに基づいて入力画像サイズに変換(低解像度化)されて(図15のステップS41参照)、16枚分の入力画像との差異が算出され、記録される(図15のステップS42参照)。そして、その差異が、超解像処理後のサイズに戻され(図15のステップS43参照)、残差とされる。 In step S33, the generated output candidate images are compared with the 16 input images, and a residual is calculated. That is, in step S33, the generated output candidate image is converted into an input image size based on each input image and its deterioration information (information indicating the relationship between the image after super-resolution and the input image). The resolution is reduced (see step S41 in FIG. 15), and the difference from the 16 input images is calculated and recorded (see step S42 in FIG. 15). Then, the difference is returned to the size after the super-resolution processing (see step S43 in FIG. 15), and is set as a residual.
ステップS34で、上記ステップS31で生成された出力候補画像から算出された残差とBTV量とが減ぜられて次の出力候補画像が生成される。 In step S34, the residual output calculated from the output candidate image generated in step S31 and the BTV amount are reduced to generate the next output candidate image.
上記ステップS31~S34の処理が、出力候補画像が収束するまで繰り返され、収束した出力候補画像が超解像処理後の出力画像として出力される。 The processing in steps S31 to S34 is repeated until the output candidate image converges, and the converged output candidate image is output as the output image after the super-resolution processing.
繰り返しは、おおよそ充分に収束する回数(例えば200回)等の、予め規定された回数であってもよいし、一連の処理の都度、収束判定がなされ、その結果に応じて繰り返されてもよい。 The repetition may be a predetermined number of times such as the number of times of convergence (for example, 200 times) approximately enough, or a convergence determination may be made for each series of processing, and may be repeated according to the result. .
図15は、上記ステップS33で用いられる劣化情報を説明するための図である。劣化情報とは、超解像処理後の高解像度画像に対する入力画像それぞれの関係を表わす情報を指し、例えば行列形式で表わされる。劣化情報には、上記ステップS13で推定された入力画像それぞれのサブピクセルレベルでのずれ量、ダウンサンプリング量、及びぼけ量等が含まれる。 FIG. 15 is a diagram for explaining the deterioration information used in step S33. Deterioration information refers to information representing the relationship of each input image with respect to a high-resolution image after super-resolution processing, and is represented, for example, in a matrix format. The deterioration information includes a shift amount, a downsampling amount, a blur amount, and the like of each of the input images estimated in step S13.
図15を参照して、劣化情報は、入力画像及び超解像処理後の高解像度画像それぞれを1次元のベクトル表現した場合に、その変換を示す行列で規定される。撮像装置100は、上記ステップS12及びS13の推定処理にて推定された位置ずれに基づいて超解像処理に用いるパラメーターを算出し、劣化情報として組み込む。
Referring to FIG. 15, the degradation information is defined by a matrix indicating the conversion when each of the input image and the high-resolution image after super-resolution processing is expressed as a one-dimensional vector. The
図16は、劣化情報の具体例を表わした図である。撮像装置100は、画素のずれ量が0.25画素と推定され、ダウンサンプリング量が縦方向及び横方向それぞれに1/4であった場合に、図16に表わされたような劣化情報を規定する。入力画像の内の1画素に対応した1か所と、超解像処理後の高解像度画像の16か所の16画素とが対応しているときに、劣化情報には、16か所に1/16の係数が記載されている。そのため、画素のずれ量が0.25画素である場合、高解像度画像の16画素それぞれに対してはそのずれ量の1/16分、寄与することになる。
FIG. 16 is a diagram showing a specific example of deterioration information. When the amount of pixel shift is estimated to be 0.25 pixels and the amount of downsampling is 1/4 in each of the vertical direction and the horizontal direction, the
なお、上記ステップS14での超解像処理は、図14に表わされた処理に限定されるものではなく、複数枚の入力画像から1枚の画像を生成する再構成型超解像処理であれば他の処理が採用されてもよい。上記ステップS32で算出される拘束項は、BTV量に替えて、例えば4近傍ラプラシアン等の他のものが用いられてもよい。 Note that the super-resolution processing in step S14 is not limited to the processing shown in FIG. 14, but is reconfigurable super-resolution processing that generates one image from a plurality of input images. Other processes may be employed if any. The constraint term calculated in step S32 may be replaced with another value such as a 4-neighbor Laplacian instead of the BTV amount.
以上説明した複眼撮像装置によれば、画像処理回路80が、少なくとも、第1位置T1と第2位置T2との違いに関する情報、及びレンズアレイ積層体1(レンズアレイ10,20)の環境条件の変化に伴う変形の度合いを示す情報に基づいて、画像処理を実行する。例えば、環境温度の変動等の環境条件の変化に伴って生じるセンサーアレイ60上の各個眼像の位置の変化、すなわちセンサーアレイ60上の光学像に対応して得られる画像の位置の変化を補正する。これにより、レンズ部10a,20aの光軸OA方向から見たときのレンズアレイ10,20及びホルダー50の変形中心が一致していなくても、センサーアレイ60上の各個眼像の位置ずれを迅速かつ正確に把握することができ、環境条件の変化に対して良好な画像処理を行うことができる。
According to the compound eye imaging device described above, the
以上では、センサーアレイ60や基板SBが殆ど膨張収縮しないことを前提としたが、センサーアレイ60や基板SBもホルダー50に比べて少ないものの温度に伴う若干の膨張収縮があり、これも加味して、計算を行ってもよい。
In the above, it is assumed that the
また、上記実施形態では、ホルダー50、レンズアレイ積層体1又は第1レンズアレイ10の変形によって像の形成位置が撮像面に沿って位置ずれする場合について説明したが、像の形成位置が環境温度に伴って光軸OA方向に微少変位(焦点ずれ)する可能性もある。この場合、環境温度に伴って発生する局所的な焦点ずれを補償するような処理も可能である。具体的には、図13A~13Cに示す第2の位置ずれ推定処理工程の際にぼけ度合い推定処理を行って、入力画像それぞれについて、基準画像からのぼけ度合いを推定する。つまり、上記変形後のステップS13では、サブピクセル単位(小数画素)でのずれ量が推定される際にぼけ度合いも推定される。そして、上記ステップS14では、位置ずれ量及びぼけ度合いを考慮して、超解像処理が実行される。
In the above embodiment, the case where the image forming position is displaced along the imaging surface due to the deformation of the
上記実施形態では、ホルダー50やレンズアレイ積層体1等の温度変形が線形的であるとしたが、これらの部材間の固定条件やホルダー50の形状に起因して非線形的成分を持つ可能性もある。この場合、このような非線形的成分も加味して収縮の方位を算定することができ、この場合、例えば上記探索エリアの範囲A2が曲線的に延びるとして画像処理を行うこともできる。
In the above embodiment, the temperature deformation of the
以上、実施形態に係る複眼撮像装置について説明したが、本発明に係る複眼撮像装置は、上記例示のものには限られない。例えば、各レンズアレイ10,20を構成するレンズ部10a,20aの配列やその光学面11a,11b等の形状等は、レンズアレイ積層体1又は撮像装置100の用途又は仕様に応じて適宜変更することができる。例えばレンズ部10a,20aは、4×4の格子点に配列するものに限らず、例えば3×3、5×5等の格子点に配列することができる。また、格子は、正方の格子に限らず、長方の格子でもよい。
As mentioned above, although the compound eye imaging device concerning an embodiment was explained, the compound eye imaging device concerning the present invention is not restricted to the thing of the above illustration. For example, the arrangement of the
上記各実施形態においては、環境条件が環境温度であるとして説明したが、これに限るものではなく、周辺環境の湿度、周辺環境における特定成分の濃度、或いはこれらのうち複数の要素の組み合わせであってもよい。必要に応じて湿度センサーやガスセンサー等を設けるようにしてもよい。 In each of the above embodiments, the environmental condition is described as the environmental temperature. However, the environmental condition is not limited to this, and the humidity of the surrounding environment, the concentration of a specific component in the surrounding environment, or a combination of a plurality of these elements. May be. You may make it provide a humidity sensor, a gas sensor, etc. as needed.
また、上記実施形態において、レンズアレイを2枚積層したが、積層せず、単層のレンズアレイとしてもよい。また、レンズアレイを3枚以上積層してもよい。 In the above embodiment, two lens arrays are stacked, but a single-layer lens array may be used instead of stacking them. Three or more lens arrays may be stacked.
レンズアレイ積層体1のホルダー50に対する被接着部QBを平面視において、略正方形としたが、矩形や円形にしてもよい。
Although the adherend portion QB to the
上記実施形態において、レンズアレイ10,20は、樹脂製としたが、ガラス製であってもよい。また、樹脂としては、熱可塑性樹脂に限らず、熱硬化性樹脂や光硬化性樹脂等を用いることができる。また、レンズアレイ10,20は、例えばガラスの基板上に樹脂のレンズ部を2次元的に配列したウェハーレベルレンズであってもよい。
In the above embodiment, the
また、上記実施形態おいて、ホルダー50を基板SBに固定したが、センサーアレイ60に固定してもよい。
In the above embodiment, the
また、上記実施形態おいてレンズアレイ10,20の支持基準点OSを中心軸AXに一致させているが、支持基準点OSを中心軸AXから積極的にずらして配置することもできる。
In the above embodiment, the support reference point OS of the
Claims (20)
前記複眼光学系により前記複数のレンズ部に対応する複数の光学像が結像され、前記複数の光学像に対応する画像信号を出力するセンサーアレイと、
前記複眼光学系を前記センサーアレイに対向するように保持するホルダーと、
前記センサーアレイから出力される画像信号を処理するための画像処理回路と、
を備え、
基準環境条件において、前記光軸方向からみたときの、前記ホルダーの環境条件の変化に伴う変形の中心位置である第1位置と、前記光軸方向からみたときの、前記レンズアレイの環境条件の変化に伴う変形の中心位置である第2位置とが離れた状態で前記レンズアレイが前記ホルダーに固定され、
前記画像処理回路は、少なくとも、前記第1位置と前記第2位置との違いに関する情報、及び前記レンズアレイの環境条件の変化に伴う変形の度合いを示す情報に基づいて画像処理を行う複眼撮像装置。 A compound eye optical system including a lens array having a plurality of lens portions arranged two-dimensionally in a direction perpendicular to the optical axis;
A plurality of optical images corresponding to the plurality of lens units are formed by the compound eye optical system, and a sensor array that outputs image signals corresponding to the plurality of optical images;
A holder for holding the compound eye optical system so as to face the sensor array;
An image processing circuit for processing an image signal output from the sensor array;
With
In a reference environmental condition, a first position that is a center position of deformation associated with a change in the environmental condition of the holder when viewed from the optical axis direction, and an environmental condition of the lens array when viewed from the optical axis direction The lens array is fixed to the holder in a state in which the second position which is the center position of the deformation accompanying the change is separated from the second position,
The image processing circuit performs image processing based on at least information regarding a difference between the first position and the second position and information indicating a degree of deformation accompanying a change in environmental conditions of the lens array. .
前記ホルダーは、前記基板に固定される、請求項1から8までのいずれか一項に記載の複眼撮像装置。 Comprising a substrate provided with the sensor array;
The compound eye imaging apparatus according to any one of claims 1 to 8, wherein the holder is fixed to the substrate.
前記ホルダーの脚部が前記基板に固定される、請求項5に記載の複眼撮像装置。 Comprising a substrate provided with the sensor array;
The compound eye imaging apparatus according to claim 5, wherein a leg portion of the holder is fixed to the substrate.
30L・α1<5P
の関係を満たす、請求項1から12までのいずれか一項に記載の複眼撮像装置。 The linear expansion coefficient α1 of the holder, the distance L between the first position and the second position, and the pixel pitch P of the sensor array are:
30L ・ α1 <5P
The compound eye imaging device according to any one of claims 1 to 12, which satisfies the relationship:
30L・α1<2P
の関係を満たす請求項1から12までのいずれか一項に記載の複眼撮像装置。 The linear expansion coefficient α1 of the holder, the distance L between the first position and the second position, and the pixel pitch P of the sensor array are:
30L ・ α1 <2P
The compound eye imaging device according to any one of claims 1 to 12, which satisfies the relationship:
1.2>α2/α1>0.8
の関係を満たす、請求項1から14までのいずれか一項に記載の複眼撮像装置。 The linear expansion coefficient α1 of the holder and the linear expansion coefficient α2 of the lens array are:
1.2> α2 / α1> 0.8
The compound eye imaging device according to claim 1, wherein the compound eye imaging device satisfies the relationship:
α2/α3>5
の関係を満たす、請求項1から15までのいずれか一項に記載の複眼撮像装置。 The linear expansion coefficient α2 of the lens array and the linear expansion coefficient α3 of the sensor array are:
α2 / α3> 5
The compound eye imaging device according to claim 1, wherein the compound eye imaging device satisfies the relationship:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015525148A JPWO2015001992A1 (en) | 2013-07-05 | 2014-06-20 | Compound eye imaging device |
| CN201480038398.6A CN105379245B (en) | 2013-07-05 | 2014-06-20 | Compound eye imaging device |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013142186 | 2013-07-05 | ||
| JP2013-142186 | 2013-07-05 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2015001992A1 true WO2015001992A1 (en) | 2015-01-08 |
Family
ID=52143571
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2014/066464 Ceased WO2015001992A1 (en) | 2013-07-05 | 2014-06-20 | Compound-eye imaging device |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JPWO2015001992A1 (en) |
| CN (1) | CN105379245B (en) |
| WO (1) | WO2015001992A1 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110661960B (en) * | 2019-10-30 | 2022-01-25 | Oppo广东移动通信有限公司 | Camera module and electronic equipment |
| CN113188776B (en) * | 2021-04-27 | 2022-11-11 | 哈尔滨工业大学 | Compound eye imaging contact ratio detection system and detection method |
| TWI900906B (en) * | 2023-03-17 | 2025-10-11 | 財團法人工業技術研究院 | Array objective lens module and optical interference microscopy device |
| CN120751232A (en) * | 2025-06-30 | 2025-10-03 | 上海安科迪智能科技有限公司 | High-resolution standardized microarray compound eye lens module and light field regulation and control system |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05127002A (en) * | 1991-10-31 | 1993-05-25 | Ricoh Co Ltd | Plastic lens and lens optical system |
| JP2009053011A (en) * | 2007-08-27 | 2009-03-12 | Panasonic Corp | Imaging device |
| JP2011019088A (en) * | 2009-07-09 | 2011-01-27 | Fujifilm Corp | Compound eye imaging apparatus |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4066960B2 (en) * | 2004-01-28 | 2008-03-26 | 三菱電機株式会社 | Image sensor |
| JPWO2006068129A1 (en) * | 2004-12-22 | 2008-06-12 | 松下電器産業株式会社 | Imaging device and manufacturing method thereof |
| CN101834988B (en) * | 2006-03-22 | 2012-10-17 | 松下电器产业株式会社 | camera device |
| US20100053414A1 (en) * | 2008-01-11 | 2010-03-04 | Satoshi Tamaki | Compound eye camera module |
| JP2011197479A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Lens, lens array, and manufacturing method thereof |
-
2014
- 2014-06-20 WO PCT/JP2014/066464 patent/WO2015001992A1/en not_active Ceased
- 2014-06-20 CN CN201480038398.6A patent/CN105379245B/en not_active Expired - Fee Related
- 2014-06-20 JP JP2015525148A patent/JPWO2015001992A1/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05127002A (en) * | 1991-10-31 | 1993-05-25 | Ricoh Co Ltd | Plastic lens and lens optical system |
| JP2009053011A (en) * | 2007-08-27 | 2009-03-12 | Panasonic Corp | Imaging device |
| JP2011019088A (en) * | 2009-07-09 | 2011-01-27 | Fujifilm Corp | Compound eye imaging apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| CN105379245A (en) | 2016-03-02 |
| CN105379245B (en) | 2018-08-07 |
| JPWO2015001992A1 (en) | 2017-02-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6079333B2 (en) | Calibration apparatus, method and program | |
| Suwajanakorn et al. | Depth from focus with your mobile phone | |
| JP6576945B2 (en) | Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method | |
| US8773652B2 (en) | Method and device for aligning a lens with an optical system | |
| KR101921672B1 (en) | Image processing method and device | |
| US9007490B1 (en) | Approaches for creating high quality images | |
| JP2011209269A (en) | Image pickup apparatus and range obtaining system | |
| US10200629B2 (en) | Image capturing device and method for image capturing | |
| WO2019171984A1 (en) | Signal processing device, signal processing method, and program | |
| WO2015001992A1 (en) | Compound-eye imaging device | |
| KR20150002995A (en) | Distortion Center Correction Method Applying 2D Pattern to FOV Distortion Correction Model | |
| JP5493900B2 (en) | Imaging device | |
| US11073386B2 (en) | Sensing element and optical distance measurement system | |
| JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
| JP2014164574A (en) | Image processor, image processing method and image processing program | |
| Ueno et al. | Compound-Eye Camera Module as Small as 8.5$\times $8.5$\times $6.0 mm for 26 k-Resolution Depth Map and 2-Mpix 2D Imaging | |
| JP6153318B2 (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
| KR101938067B1 (en) | Method and Apparatus for Stereo Matching of Wide-Angle Images using SIFT Flow | |
| JP2011169853A (en) | Distance image acquisition device | |
| Hannemose et al. | Superaccurate camera calibration via inverse rendering | |
| WO2018139250A1 (en) | Entire celestial-sphere image capture device | |
| Oberdörster et al. | Interactive alignment and image reconstruction for wafer-level multi-aperture camera systems | |
| CN113345024A (en) | Method for judging assembling quality of camera module | |
| JP4695557B2 (en) | Element image group correction apparatus, element image group acquisition system, element image group correction method, and element image group correction program | |
| US9591287B2 (en) | Lens module applied to camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14819402 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2015525148 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 14819402 Country of ref document: EP Kind code of ref document: A1 |