[go: up one dir, main page]

WO2002028091A1 - Procede et dispositif de creation d'images - Google Patents

Procede et dispositif de creation d'images Download PDF

Info

Publication number
WO2002028091A1
WO2002028091A1 PCT/JP2001/008423 JP0108423W WO0228091A1 WO 2002028091 A1 WO2002028091 A1 WO 2002028091A1 JP 0108423 W JP0108423 W JP 0108423W WO 0228091 A1 WO0228091 A1 WO 0228091A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
blur
information
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2001/008423
Other languages
English (en)
French (fr)
Inventor
Yosuke Kusaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Nippon Kogaku KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Nippon Kogaku KK filed Critical Nikon Corp
Priority to US10/148,338 priority Critical patent/US7260270B2/en
Priority to AU2001292265A priority patent/AU2001292265A1/en
Priority to DE60131759T priority patent/DE60131759T2/de
Priority to EP01972526A priority patent/EP1322108B1/en
Publication of WO2002028091A1 publication Critical patent/WO2002028091A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • the present invention relates to an image generation apparatus and an image generation method for performing image processing on an image deteriorated due to camera shake or the like to restore an image without blur.
  • an image generating apparatus disclosed in Japanese Patent Application Laid-Open No. 62-127796 describes image degradation due to camera shake at the time of shooting with a point spread function. Have been repaired.
  • An object of the present invention is to provide an image generating apparatus and an image generating method capable of satisfactorily restoring a blurred image even for an image or a close-up image in which objects at different distances are mixed on a screen.
  • an image generation device includes: an imaging unit configured to capture an image of an object scene formed on a screen by a shooting optical system and generate an image signal; A distance detection unit that detects a distance of the object scene and generates distance information; a blur detection unit that detects a blur when capturing an image of an imaging optical system and generates a blur signal; and a distance based on the distance information and the blur signal.
  • a point spread function generator for generating a point spread function according to An image restoration unit that restores an image signal by using an image distribution function and forms a restored image.
  • the distance detection unit detects a two-dimensional distance distribution of the object field, divides the object distance into a plurality of distance zones based on the distance distribution information, and obtains a plurality of distance data representing each distance zone.
  • the point spread function generation unit generates a plurality of point spread functions according to the plurality of distance data
  • the image restoration unit divides the image signal into a plurality of partial images according to the distance zone.
  • a restoration image is formed by combining each of the plurality of partial restoration images by performing restoration using a point spread function corresponding to the distance data for each of the partial images, and synthesizing the plurality of partial restoration images. Is preferred.
  • an image generating apparatus provides a recording medium on which image information of an object scene, distance information of the object scene at the time of shooting, and blur information at the time of shooting are recorded.
  • An information reading unit that reads out image information, distance information, and blur information from the image data;
  • a point image distribution function generating unit that generates a point spread function according to the distance based on the distance information and the blur information;
  • An image restoration unit that restores image information using a function and forms a restored image.
  • an image generation method forms an image of a scene on a predetermined screen, generates an image signal by capturing an image of the scene formed on the screen, Detects the distance of the object scene on the screen to generate distance information, detects blur during imaging, generates a blur signal, and generates a point spread function according to the distance based on the distance information and the blur signal. Generate and restore the image signal using the point spread function to form a restored image.
  • the blur detection unit may detect angular blurring in which the imaging optical system shakes around two axes each orthogonal to the optical axis.
  • the shake detecting unit may detect a parallel shake in which the imaging optical system shifts in parallel to the optical axis.
  • the shake detection unit detects an angle shake in which the imaging optical system shakes around two axes orthogonal to the optical axis and a parallel shake in which the imaging optical system shifts parallel to the optical axis, and detects the angle shift and the parallel shake.
  • the shake signal may be generated based on the shake signal.
  • the information reading section electronically reads the image information, the distance information, and the blur information recorded on the recording medium.
  • the information reading unit may read out the image information, the distance information, and the pre-information recorded on the silver halide film using a scanner.
  • the image generation device and the image generation method according to the present invention detect the distance or the distance distribution of the field on the screen and generate a point spread function according to the distance or the distance distribution. Since the blurred image restoration is performed using the optimal point spread function according to the distance or the distance distribution, a good blurred image restoration becomes possible. This is especially effective for restoring blurring of close-up shot images that are greatly affected by camera shake.
  • FIG. 1 is a block diagram showing a configuration of an embodiment of an image generating apparatus according to the present invention.
  • FIG. 2 is a block diagram showing a configuration of a digital camera to which the present invention is applied.
  • Figure 3 illustrates the principle of distance detection.
  • Figure 4 illustrates the principle of distance detection.
  • FIG. 5 is a block diagram showing the configuration of the CPU and its surroundings
  • Figure 6 shows the waveform of the angular velocity signal
  • Figure 7 shows the waveform of the relative angle signal.
  • Figure 8 shows the two-dimensional state of the relative angle signal.
  • Figure 9 shows the coordinates on the shooting screen
  • Figure 10 is a diagram showing the appearance frequency of distance values on the shooting screen
  • Fig. 11 is a diagram illustrating the relationship between angular blur and image blur according to the distance.
  • Figure 12 shows an example of the point spread function.
  • Fig. 13 is a diagram illustrating the blurred image restoration process according to the distance.
  • FIG. 14 is a flowchart showing the CPU operation process
  • FIG. 15 is a flowchart showing the CPU operation process
  • FIG. 16 is a flowchart showing the CPU operation process
  • FIG. 17 is a diagram for explaining the relationship between parallel blur and image blur according to the distance.
  • FIG. 1 is a block diagram showing the concept of an image generating apparatus according to an embodiment of the present invention.
  • the image generating apparatus 1 includes an imaging optical system 3, an imaging unit 4, a distance detector 5, a blur detector 6, a point spread function generator 7, and an image restoration unit 8.
  • the photographing optical system 3 forms an image of the object field 2 on a predetermined screen.
  • the imaging unit 4 includes a solid-state imaging device such as a CCD or a CMOS that captures an image of the object scene 2 formed on a predetermined screen, and a control circuit therefor.
  • the control circuit controls the exposure time (charge accumulation time) of the solid-state imaging device according to the brightness of the subject image, and generates an image signal corresponding to the image of the object field 2.
  • the distance detector 5 is configured by a known distance detecting device.
  • the distance detector 5 detects a two-dimensional distance distribution of the object field 2 formed on a predetermined screen, and generates distance distribution information.
  • the pre-detector 6 detects a shake of the imaging optical system 3 during an imaging period of the imaging unit 4, and generates a time-varying shake signal.
  • the shake detector 6 includes an angular velocity sensor and the like.
  • the point spread function generator 7 generates a different point spread function for each distance in accordance with the distance distribution information of the scene 2 and the blur signal input from the distance detector 5 and the blur detector 6. .
  • the image restoration unit 8 converts the image signal (blurred image signal) generated by the imaging unit 4 that has been degraded due to camera shake according to the distance distribution information using the point spread function generated by the point spread function generation unit 7. Image processing is performed to generate an image signal in which deterioration due to camera shake is restored.
  • FIG. 2 is a block diagram showing a case where the image generating apparatus according to the present invention is applied to a digital still camera 10.
  • the image generating apparatus and the image generating method according to the present invention will be described in detail with reference to FIG.
  • a subject image formed by the photographing lens 11 is photoelectrically converted by a charge storage type solid-state imaging device 12 such as a CCD, and an image signal is output.
  • the image signal is converted into a digital image signal by an AD conversion circuit 18 and stored in a volatile memory 19 such as a RAM.
  • the image signal stored in the memory 19 is displayed on the liquid crystal display device 20 as an image, and is also stored on a non-volatile recording medium 21 such as a compact flash memory. Be recorded.
  • the CPU (Central Processing Controller) 17 controls the above-described imaging operation, storage operation, display operation, and recording operation.
  • the angular velocity sensor V 13 and the angular velocity sensor H 14 are blur detection sensors for detecting blur of the digital still camera 10.
  • the angular velocity sensor V 13 and the angular velocity sensor HI 4 detect the angular velocities around two axes orthogonal to the optical axis of the photographing lens 11 and orthogonal to each other in real time. This detection output is sent to CPU 17 as an angular velocity signal.
  • the distance sensor 15 is a sensor for detecting a two-dimensional distance distribution of the object scene. The details of the distance sensor 15 will be described later.
  • the release button 16 is a member operated by the photographer at the time of photographing, and generates a release signal in accordance with the operation.
  • the digital still camera 10 includes an optical finder (not shown). The photographer can observe the subject through an optical finder (not shown).
  • the CPU 17 calculates the shake of the photographing lens 11 during the imaging period based on the angular velocity signals from the angular velocity sensors V13 and H14. Further, the CPU 17 acquires distance distribution information of the object scene detected by the distance sensor 15. The CPU 17 generates a point spread function according to the distance based on the shake signal and the distance distribution information. Furthermore, using these point spread functions, the blurred image signal stored in the memory 19 is subjected to an image restoration process described later. The restored image signal is restored in the memory 19. The restored image signal is displayed on the liquid crystal display device 20 according to the command signal from the CPU 17 and is recorded on the recording medium 21.
  • FIG. 3 shows the configuration of the distance sensor 15.
  • the distance sensor 15 detects distance distribution information of the object scene when a release signal is input from the release button 16 to the CPU 17.
  • the distance sensor 15 receives an object light beam by an optical system different from the photographing optical system 3.
  • the image of the field formed by the distance measuring lens 42 is captured by a two-dimensional image sensor 44 disposed at a distance E behind the distance measuring lens 42.
  • the two-dimensional image sensor 44 generates an image of the scene image.
  • the image of the object field formed by the ranging lens 43 having the same optical characteristics as the ranging lens 43 is captured by the two-dimensional image sensor 45 arranged behind the ranging lens 43.
  • the image data of the scene image is generated.
  • the distance measuring lens 42 and the distance measuring lens 43 are provided with a base line length B therebetween.
  • Figure 4 shows a point 46 at an unknown distance d from the ranging lenses 42, 43, and imaging points 47, 48 on the two-dimensional image sensors 44, 45 corresponding to the point 46.
  • the relationship is shown below.
  • the image interval L between the imaging points 47 and 48 is measured based on the image data generated by the two-dimensional image sensors 44 and 45.
  • the distance d to the point 46 can be obtained by (Equation 1) according to the principle of triangulation.
  • the screen is divided into several areas, for example, a 5 x 10 area, and the distance measurement points in each area are scanned to measure the distance. This makes it possible to detect the two-dimensional distance distribution of the object scene.
  • the image signal of the solid-state image sensor 12 and the image data of the two-dimensional image sensors 44 and 45 are associated with each other to detect the distance distribution of the scene in the shooting screen. If the size of the solid-state image sensor 12 that generates the image signal is different from the size of the two-dimensional image sensors 44 and 45 for distance measurement, the image signal and the image data are reduced, enlarged, or shifted. To make each correspond.
  • the distance distribution information of the detected object scene is transmitted to CPU 17.
  • FIG. 5 is a block diagram showing the configuration of the CPU 17 in FIG. 2 and its surroundings in more detail.
  • the CPU 17 includes an integral operation unit 31, a blur distribution storage unit 32, a photographing control unit 33, a distance distribution operation unit 34, a point spread function operation unit 35, and an image restoration unit 3. Consists of eight.
  • the original image memory 36 and the repaired image memory 37 constitute a memory 19.
  • FIG. 6 is a relative angle signal when the relative angular velocity signal of FIG. 6 is integrated.
  • the release signal is sent to the photographing control unit 33 and the distance sensor 15.
  • the imaging control unit 33 controls the exposure of the solid-state imaging device 12 based on the brightness of the subject, the sensitivity of the solid-state imaging device 12, and the exposure time set by the aperture value of the imaging lens 11. . Further, the imaging control unit 33 transmits an exposure timing signal to the blur distribution storage unit 32.
  • the pre-distribution storage unit 32 stores a relative angular velocity signal during the exposure period according to the exposure timing signal.
  • FIG. 8 shows the two-dimensional state of the relative angle signal stored in the blur distribution storage unit 32 as described above.
  • Data values of relative angles sampled at predetermined time intervals during the exposure period are indicated by black circles.
  • FIG. 8 represents an angle around the X axis
  • 6 y represents an angle around the ⁇ axis.
  • the X axis and the Y axis are defined to be orthogonal to each other on the imaging screen 41.
  • the X axis and the Y axis are each orthogonal to the optical axis.
  • the total number of relative angle samplings during the exposure period is N
  • the n-th sampling is (S x n, ⁇ y n).
  • conversion is performed so that the average of N pieces of relative angle data sampled during the exposure period becomes (0, 0).
  • the distance sensor 15 measures the distance distribution of the scene to be photographed, and sends the distance distribution to the distance distribution calculator 34.
  • the distance distribution calculator 34 summarizes the appearance frequency of the distance values on the photographing screen into a histogram as shown in FIG. 10 based on the received two-dimensional distance distribution. Using this histogram, the field distance from a short distance to an infinite distance is divided into several distance zones according to the frequency of appearance. Select the distance data that will be the representative value of the divided distance zone. In FIG. 10, the object distance is divided into Z1, Z2, Z3, and Z4 distance zones, and the representative distance data is d1, d2, d3, and d4.
  • the distance distribution calculation unit 34 divides the image signal into a plurality of partial images according to the divided distance zones, and obtains position information of the images.
  • the point spread function calculator 35 calculates the relative angle signals (0 ⁇ , ⁇ yn) stored in the blur distribution memory 32 on the screen based on the distance data obtained by the distance distribution calculator 34.
  • FIG. 11 is a diagram illustrating the principle of conversion from a relative angle signal to an image blur signal according to distance.
  • the imaging optical system is shown with one lens 51.
  • the focal length of the lens 51 is f.
  • the point spread function calculation unit 35 converts the relative angle signals (S xn, S yn) as shown in FIG. 8 into image blurs based on the distance data d 1, d 2, based on (Equation 2).
  • the signals are converted into (X 1 ⁇ , ⁇ 1 ⁇ ), ( ⁇ 2 ⁇ , ⁇ 2 ⁇ ).
  • the discrete image blur signals (X 1 n, Y in), (X 2 n, Y 2 n) are converted into a continuous point image as shown in FIG. 12 by a technique such as smoothing. It is transformed into distribution functions h 1 (x, y) and h 2 (x, y)- ⁇ .
  • the image restoration section 38 reads out the image signal degraded by the pre-stored image stored in the original image memory 36.
  • This image information is represented by functions g l (x, y) and g 2 (x, y).
  • the point spread function hi (x, y) and h 2 (x, y) * To perform image restoration processing.
  • a restored image signal is generated by performing image synthesis processing according to the distance zone division (zl, z2,...) Within the screen, and stored in the restored image memory 37.
  • FIG. 13 is an image diagram of the image restoration process described above.
  • position information 62 of the recognized image divided into a plurality of parts according to the distance zones (Zl, Z2, Z3, Z4) is obtained.
  • the image 61 degraded by blurring is calculated according to the representative distance data (dl, d2, d3, d4) of each distance zone (Zl, Z2, Z3, Z4).
  • Image restoration processing by the specified point spread function h1 (x, y), h2 (x, y), h3 (x, y), h4 (x, y) Is done.
  • the partial images 63, 64, 65, 66 divided for each distance are extracted by the image information 62.
  • the divided partial images 63, 64, 65, and 66 are combined to generate a restored image 67.
  • the function f (x, y) is the image information of the image without the press
  • the function g (x, y) is the image information of the image degraded by the blur
  • the point information is the image information when the point image is blurred by the blur.
  • S () represents an inverse Fourier transform. Perform the Fourier transform of the image function degraded by blurring, divide this by the Fourier transform of the point spread function due to blur, and then perform the inverse Fourier transform to find the original image function without blur it can.
  • FIG. 14 is a flowchart of the main program of the CPU 17.
  • Figure 15 is a flow chart of the timer interrupt program for AD conversion of the angular velocity signal at specified time intervals.
  • Fig. 16 shows the release interrupt producer activated by the release signal. It is a chart of the mouth of the musume.
  • the timer interrupt and release interrupt processing programs in Fig. 15 and Fig. 16 are interrupted and executed as appropriate.
  • step S101 the operation of the CCD12 is reset, and the timers are reset. Thereafter, the timer interrupt and the release interrupt are permitted.
  • step S102 the CCD 12 charge accumulation time (exposure time) is calculated according to the information (subject brightness, pixel sensitivity, aperture value, etc.) necessary for determining the exposure time. Thereafter, step S102 is repeated.
  • step S201 the angular velocity signal is AD-converted and stored in a memory (not shown).
  • step S202 the angular velocity data stored in the memory is integrated until the latest data to calculate a relative angle signal.
  • step S203 the calculated relative angle signal is stored in a memory (not shown) and the process returns.
  • FIG. 16 is a flowchart for explaining a release interrupt program. This process is started when a release signal is input to the CPU 17 by operating the release button 16.
  • step S301 distance distribution information of the object scene on the photographing screen is fetched from the distance sensor 15, and a distance histogram as shown in FIG. 10 is created. Further, representative distance data (d1, d2,...) Is calculated and stored according to the distance zone (Z1, Z2,).
  • step S302 the CCD 12 captures an image of the field formed by the imaging lens 11 based on the latest exposure time calculated in step S102.
  • step S303 the image signal stored in CCD12 is read.
  • step S304 the read image signal is A / D-converted, and in step S305, the A / D-converted image signal, that is, the image signal degraded by blurring, is temporarily stored in the memory 19.
  • step S306 the image signal stored in the memory 19 is recorded on the recording medium 21.
  • step S307 the image signal is divided into partial images according to the distance zones (Z1, Z2,).
  • step S308 the relative angle signal stored in the memory (not shown) in step S203 described above and the representative distance calculated in step S301 , Based on the representative distance data (d 1, d 2 ⁇ ), the point spread function hi (x, y), h 2 (x, y) ⁇ ⁇ ⁇ ⁇ is calculated.
  • step S309 the image restoration processing operation is performed using the point spread function h1 (x, y) and h2 (x, y)-in accordance with the representative distance data (dl, d2, ). And a restoration image is extracted for each part divided according to the distance zone (Z l, Z 2 ⁇ ).
  • step S310 the images restored for each part are combined to generate an overall restored image.
  • step S311 the combined restored image is recorded on the recording medium 21 and the process returns to step S102.
  • blurring can be effectively restored even when there are multiple subjects at different distances on the screen or in close-up shooting. It can be carried out.
  • the two-dimensional distance distribution of the object scene is detected, and a plurality of point spread functions are prepared according to the distance to restore the blurred image. There is no need to detect a precise distance distribution.
  • FIG. 17 is a diagram for explaining the principle of conversion from a parallel blur signal to an image blur signal in accordance with a distance. The same components as those in FIG. 11 are given the same numbers.
  • the screen of points 5 2 and 5 3 at the distances d 1 and d 2 on the optical axis is used to reduce the amount of image blur in the X-axis direction.
  • the image blur amounts X 1 and X 2 in the screen X-axis direction at the respective points 52 and 53 are obtained by the following (Equation 7), respectively.
  • image blur amount Y l, ⁇ 2 in the y-axis direction can be calculated in the same manner.
  • the parallel blur can be converted into image blur on the screen according to the distance, and a point spread function corresponding to the image blur can be obtained.
  • Pre-image restoration is performed using the point spread function obtained in this way. This makes it possible to restore an image that has deteriorated due to the image pocket caused by the parallel blur according to the distance.
  • the effect of the image restoration can be further enhanced.
  • an angular velocity sensor for detecting angular shake and an acceleration sensor for detecting parallel shake are used.
  • the amount of image blur corresponding to the angle blur calculated using (Equation 2) and the amount of image blur corresponding to the parallel pre-calculation calculated using (Equation 7) are converted into respective image blur amounts. Synthesize accordingly.
  • the synthesized image blur amount Xt in the X-axis direction is expressed by the following (Equation 8).
  • X t KXX a + LXX ⁇ (0 x K x 1, 0 ⁇ L ⁇ 1) (Equation 8)
  • X a is the amount of image blur in the X-axis direction due to angular blur
  • X p is the X-axis due to parallel blur This is the amount of image blur in the direction.
  • K: and L are coefficients applied to Xa and Xp, respectively. Compare the amount of image blur Xa due to angular blur and the amount of image blur Xp due to parallel blur, and When a> Xp, set K> L. When Xa and Xp, K ⁇ L is set.
  • Angle blur ⁇ Converts parallel blur to the amount of image blur on the screen
  • the shooting lens is extended greatly for close-up shooting, and the focal length f varies greatly according to the amount of extension.
  • the angular velocity sensor is used as the blur detection sensor.
  • the present invention is not limited to this, and may be an acceleration sensor or an image sensor (detecting image blur based on temporal movement of the image). Absent.
  • a passive-type triangulation-type distance detecting device is used as the distance sensor, but the present invention is not limited to this.
  • the field distribution may be measured by scanning the field with a so-called active-type triangulation device.
  • an active triangular distance measuring device the beam light is emitted to the object side along a predetermined optical axis, and the imaging position of the reflected beam light is measured by an optical system separated from the beam light by the base line.
  • a device that detects the distance can be used.
  • the distance distribution of the object field may be detected by emitting electromagnetic waves or sound waves and measuring the return time of the reflected wave from the object field. In this way, distance measurement can be performed with high accuracy even when the field is relatively dark.
  • the blurred image is automatically restored in the digital still camera according to the release signal.
  • the distance information or distance distribution information, blur information, and image signal are temporarily stored in the recording medium, and the digital still camera later reads the distance information or distance distribution information, blur information, and the image signal from the recording medium.
  • Restoration of a blurred image may be performed. In this way, the blur image processing can be performed in a time when the burden on the digital still camera is small, which is advantageous when performing continuous shooting.
  • distance information or distance distribution information, blur information, and image signals are temporarily stored in a recording medium, and later, distance information or distance distribution information, The blur information and image signal may be read out, and the blurred image may be restored on the personal computer.
  • the burden on the digital still camera can be reduced, and image processing with a larger calculation scale can be performed.
  • the quality of image restoration is improved.
  • a silver halide film can be used in addition to a memory card.
  • an image is optically recorded on a silver halide film having a magnetic layer, and distance information, distance distribution information, and blur information are magnetically recorded on the magnetic layer.
  • the silver halide film is read by SKYANA etc., and the image signal is extracted by a personal computer.
  • a configuration may be employed in which distance information or distance distribution information recorded on a magnetic layer by a magnetic head is read. In this way, the image restoration of the present invention can be applied not only to a digital still camera but also to an imaging system using a silver halide film.
  • the blurred image restoration process is automatically performed in the digital still camera.
  • the process of dividing the screen into a plurality of portions according to the distance zone is performed by displaying the image on a display unit or the like. It may be interactively performed by the photographer's operation input while displaying on the screen. In this way, it is possible to restore a blurred image that reflects the photographer's intention. Furthermore, even when automation processing is difficult, blurred image restoration can be executed reliably.
  • the blurred image restoration processing is performed on the images in all the distance zones.
  • the restoration process of the blurred image is omitted for the image in such a distance zone. It does not matter.
  • the defocus amount calculated from the set distance information and the aperture value information of the imaging optical system is compared with the image blur amount of a predetermined distance zone. If the amount of defocus is dominant, blurred image restoration processing is not performed on images in this distance zone. By doing so, it is possible to shorten the image processing time and realize an image restoration apparatus with high response.
  • the blurred image is always restored in response to the release signal from the release button.
  • the operation setting mode of the digital still camera for example, a proximity operation for performing a camera operation suitable for close-up photography
  • the pre-image restoration processing may be performed when the set distance of the photographing optical system is set to a shorter distance side than a predetermined distance (a low compression rate (fine recording mode)).
  • a predetermined distance a low compression rate (fine recording mode)
  • the distance or the distance distribution of the scene on the screen is detected, and the optimal point spread function is used according to the distance or the distance distribution.
  • Blurred image restoration processing is now performed. As a result, better blurred image restoration can be performed as compared to the case where a blurred image restoration process is performed using a uniform point spread function regardless of the distance as in the related art. This is especially effective for restoring blurring of close-up shot images, which is greatly affected by camera shake.
  • blur correction for images in which there are multiple subjects at different distances in the screen is also performed because the blurred image is partially restored according to each distance and then combined with the entire restored image. The effect can be expected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

明細書 画像生成装置および画像生成方法 本出願は日本国特許出願 2 0 0 0— 2 9 5 7 6 7号 (2 0 0 0年 9月 2 8日出 願) を基礎として、 その内容は引用文としてここに組み込まれる。 技術分野
本発明は、 手ブレ等により劣化した画像に画像処理を施してボケのない画像に 修復する画像生成装置および画像生成方法に関する。 背景技術
従来から、 手ブレにより劣化した画像 (以降、 ブレ画像と呼ぶ) を修復し、 ポ ケのない元の画像を復元する技術が知られている。 例えば、 特開昭 6 2— 1 2 7 9 7 6号公報に開示された画像生成装置は、 撮影時の手ブレによる画像劣化を点 像分布関数で表し、 この点像分布関数に基づきプレ画像を修復している。
しかしながら、 上述の画像生成装置を用いて、 実際に撮像した画像の修復を行 つた場合に、 必ずしも良好な結果が得られなかった。 例えば、 距離の異なる複数 の物体が同一画面内に存在する画像や接写画像に対して、 ボケ修復が不十分であ つた。 発明の開示
本発明の目的は、 画面中に異なる距離の被写体が混在した画像や接写画像に対 しても、 ブレ画像の修復を良好に行える画像生成装置および画像生成方法を提供 することにある。
上記目的を達成するために、 本発明による画像生成装置は、 撮影光学系によつ て画面上に形成された被写界の像を撮像し、 画像信号を生成する撮像部と、 画面 上における被写界の距離を検出し、 距離情報を生成する距離検出部と、 撮影光学 系の撮像時のブレを検出し、 ブレ信号を生成するブレ検出部と、 距離情報とブレ 信号に基づき、 距離に応じた点像分布関数を生成する点像分布関数生成部と、 点 像分布関数を用いて画像信号を修復し、 修復画像を形成する画像修復部とを有す る。
距離検出部は、 被写界の 2次元的な距離分布を検出し、 距離分布情報に基づき 被写界距離を複数の距離ゾーンに分割するとともに、 各距離ゾーンを代表する複 数の距離データを算出し、 点像分布関数生成部は、 複数の距離デ一夕に応じた複 数の点像分布関数を生成し、 画像修復部は、 距離ゾーンに応じて画像信号を複数 の部分画像に分割するとともに、 該部分画像毎にその距離データに応じた点像分 布関数を用いて修復して複数の部分修復画像を形成し、 該複数の部分修復画像を 合成することにより修復画像を形成することが好ましい。
上記目的を達成するために、 本発明による画像生成装置は、 被写界を撮影した 画像情報と、 撮影時の被写界の距離情報と、 撮影時のブレ情報とが記録された記 録媒体から画像情報と、 距離情報と、 ブレ情報とを読み出す情報読み出し部と、 距離情報とブレ情報に基づき、 距離に応じた点像分布関数を生成する点像分布関 数生成部と、 点像分布関数を用いて画像情報を修復し、 修復画像を形成する画像 修復部とを有する。
上記目的を達成するために、 本発明による画像生成方法は、 被写界の像を所定 画面上に形成し、 画面上に形成された被写界の像を撮像して画像信号を生成し、 画面上における被写界の距離を検出して距離情報を生成し、 撮像時のブレを検出 してブレ信号を生成し、 距離情報とブレ信号とに基づいて距離に応じた点像分布 関数を生成し、 点像分布関数を用いて画像信号を修復し、 修復画像を形成する。 ブレ検出部は、 撮影光学系がそれぞれ光軸に直交する 2つの軸回りにぶれる角 度ブレを検出してもよい。 ブレ検出部は、 撮影光学系が光軸に平行にシフトする 平行ブレを検出してもよい。 また、 ブレ検出部は、 撮影光学系がそれぞれ光軸に 直交する 2つの軸回りにぶれる角度ブレおよび撮影光学系が光軸に平行にシフト する平行ブレを検出し、 角度プレと平行ブレとに基づいてブレ信号を生成しても よい。
情報読み出し部は、記録媒体に記録された画像情報と距離情報とブレ情報とを、 電子的に読み出すことが好ましい。 情報読み出し部は、 銀塩フィルムに記録され た画像情報と距離情報とプレ情報とを、 スキャナ一にて読み出すようにしてもよ い。 上述したように、 本発明による画像生成装置および画像生成方法は、 画面上に おける被写界の距離または距離分布を検出し、 距離または距離分布に応じた点像 分布関数を生成する。 距離または距離分布に応じた最適な点像分布関数を用いて ブレ画像修復を行うので、 良好なブレ画像修復が可能となる。 特に手ブレの影響 の大きい近接撮影画像のブレ修復に効果的である。 図面の簡単な説明
図 1は、 本発明による画像生成装置の一実施の形態の構成を示すプロック図 図 2は、 本発明を適用したデジタルカメラの構成を示すプロック図
図 3は、 距離検出の原理を説明する図
図 4は、 距離検出の原理を説明する図
図 5は、 C P Uとその周辺の構成を示すブロック図
図 6は、 角速度信号の波形を示す図
図 7は、 相対角度信号の波形を示す図
図 8は、 相対角度信号の 2次元的な状態を示す図
図 9は、 撮影画面上の座標を示す図
図 1 0は、 撮影画面における距離値の出現頻度を示す図
図 1 1は、 距離に応じた角度ブレと像ボケの関係を説明する図
図 1 2は、 点像分布関数の一例を示す図
図 1 3は、 距離に応じたブレ画像修復処理を説明する図
図 1 4は、 C P U動作処理を示すフローチャート
図 1 5は、 C P U動作処理を示すフローチャート
図 1 6は、 C P U動作処理を示すフローチャート
図 1 7は、 距離に応じた平行ブレと像ボケの関係を説明する図 発明を実施するための最良の形態
手ブレ等によって生じるボケ量は被写体距離によって異なり、 さらに被写体距 離が短くなるほど急激に大きくなる。 従来のブレ画像修復技術では、 被写体距離 を考慮せずに、 一律な点像分布関数 (ボケ量) を仮定して、 ブレ画像修復を行つ ていた。 そのため、 距離の異なる複数の物体が同一画面内に存在する画像や接写 画像に対してのブレ修復が不十分となっていた。 そこで、 本発明による画像生成 装置では、 ブレ画像を距離に応じた点像分布関数に基づき修復する。 ここで点像 分布関数とは、 点像がブレによりボケた時の点像の強度分布を表す関数である。 本発明の一実施の形態における画像生成装置の概念を示すブロック構成図を図 1に示す。 本発明による画像生成装置 1は、 撮影光学系 3、 撮像部 4、 距離検出 器 5、 ブレ検出器 6、 点像分布関数生成部 7、 画像修復部 8から構成される。 撮影光学系 3は、 所定画面上に被写界 2の像を形成する。 撮像部 4は、 所定画 面上に形成された被写界 2の像を撮像する C C Dや C M O S等の固体撮像素子と その制御回路から構成されている。 制御回路は被写体像の明るさに応じて固体撮 像素子の露光時間 (電荷蓄積時間) を制御し、 被写界 2の像に対応した画像信号 を生成する。
距離検出器 5は、 周知の距離検出装置により構成される。 距離検出器 5は、 所 定画面上に形成された被写界 2の 2次元的な距離分布を検出し、 距離分布情報を 発生する。 プレ検出器 6は、 撮像部 4による撮像期間中の撮影光学系 3のブレを 検出し、 時間的に変化するブレ信号を発生する。 ブレ検出器 6は、 角速度センサ 等から構成される。
点像分布関数生成部 7は、 距離検出器 5およびブレ検出器 6から入力された被 写界 2の距離分布情報とブレ信号に応じて、 距離毎に異なった点像分布関数を生 成する。
画像修復部 8は、 撮像部 4が生成する、 手ブレにより劣化した画像信号 (ブレ 画像信号) を、 点像分布関数生成部 7で生成した点像分布関数を用いて距離分布 情報に応じて画像処理し、 手ブレによる劣化を修復した画像信号を生成する。 図 2は、 本発明による画像生成装置をデジ夕ルスチルカメラ 1 0に適用した場 合のブロック構成図である。 以下、 図 2を用いて本発明による画像生成装置およ び画像生成方法について詳細に説明する。
撮影レンズ 1 1により形成された被写体像は、 C C D等の電荷蓄積型の固体撮 像素子 1 2により光電変換され、 画像信号が出力される。 画像信号は A D変換回 路 1 8によりデジタル画像信号に変換され、 R A M等の揮発性のメモリ 1 9に格 納される。 メモリ 1 9に格納された画像信号は、 液晶表示装置 2 0により画像表 示されるとともに、 コンパク トフラッシュメモリ等の不揮発性の記録媒体 2 1に 記録される。 C P U (中央処理制御装置) 1 7は上述の撮像動作、 格納動作、 表 示動作、 記録動作の制御を行う。
角速度センサ V 1 3と角速度センサ H 1 4は、 デジタルスチルカメラ 1 0のブ レを検出するためのブレ検出センサである。 角速度センサ V 1 3と角速度センサ H I 4は、 撮影レンズ 1 1の光軸と直交し、 かつ互いに直交する 2つの軸回りの 角速度をそれぞれリアルタイムに検出する。 この検出出力は角速度信号として C P U 1 7へ送られる。
距離センサ 1 5は、 被写界の 2次元的な距離分布を検出するためのセンサであ る。 距離センサ 1 5の詳細は後述する。
レリーズポタン 1 6は、 撮影時に撮影者により操作される部材であって、 操作 に応じてレリーズ信号を発生する。
なお、 上記デジタルスチルカメラ 1 0には不図示の光学ファインダが備えられ ている。 撮影者は不図示の光学フアインダを通して被写体を観察できる。
C P U 1 7は、 角速度センサ V 1 3と角速度センサ H 1 4からの角速度信号に 基づき、 撮像期間中の撮影レンズ 1 1のブレを算出する。 また、 C P U 1 7は、 距離センサ 1 5により検出された被写界の距離分布情報を取得する。 C P U 1 7 は、 ブレ信号と距離分布情報に基づき、 距離に応じて点像分布関数を生成する。 さらに、 これらの点像分布関数を用い、 メモリ 1 9に格納されているブレ画像 信号に後述の画像修復処理を施す。 修復された画像信号は、 メモリ 1 9に再格納 される。 修復された画像信号は、 C P U 1 7からの指令信号に応じて液晶表示装 置 2 0に表示されるとともに、 記録媒体 2 1に記録される。
ここで、 距離センサ 1 5について詳細に説明する。 図 3に、 距離センサ 1 5の 構成を示す。 距離センサ 1 5は、 レリーズポタン 1 6から C P U 1 7にレリ一ズ 信号が入力された時の被写界の距離分布情報を検出する。 本実施の形態において は、 距離センサ 1 5は撮影光学系 3とは別の光学系で被写体光束を受光する。 測距レンズ 4 2により形成される被写界の像は、 測距レンズ 4 2の後方の距離 Eに配置された 2次元画像センサ 4 4で撮像される。 2次元画像センサ 4 4は、 被写界像の画像デ一夕を生成する。 また、 測距レンズ 4 2と光学的特性が等しい 測距レンズ 4 3により形成される被写界の像は、 測距レンズ 4 3の後方 Eに配置 された 2次元画像センサ 4 5で撮像され、 被写界像の画像データが生成される。 なお、 測距レンズ 4 2と測距レンズ 4 3は基線長 Bを隔てて設けられる。
図 4に、 測距レンズ 4 2 , 4 3から未知の距離 dにある点 4 6と、 点 4 6に対 応する 2次元画像センサ 4 4、 4 5上の結像点 4 7、 4 8との関係を示す。 結像 点 4 7、 4 8の像間隔 Lは、 2次元画像センサ 4 4、 4 5が生成する画像データ に基づいて測定する。 点 4 6までの距離 dは、 三角測距の原理に従い、 (式 1 ) に より求めることができる。
d = B X E Z ( L - B ) (式 1 )
画面を、 いくつかの領域、 例えば 5 X 1 0の領域に分割して、 それぞれの領域 に存在する測距点を走査して距離を測定する。 これにより、 被写界の 2次元的な 距離分布を検出することができる。 固体撮像素子 1 2の画像信号と 2次元画像セ ンサ 4 4、 4 5の画像データとを対応付けて、 撮影画面中での被写界の距離分布 を検出する。 なお、 画像信号を生成する固体撮像素子 1 2と、 測距用の 2次元画 像センサ 4 4 , 4 5のサイズが異なる場合は、 画像信号と画像データを縮小 Z拡 大あるいはシフト等をしてそれぞれを対応づけるようにする。 検出された被写界 の距離分布情報は、 C P U 1 7へ送信される。
図 5に、 図 2の C P U 1 7とその周辺の構成をより詳細に示したプロック図を 示す。 図 5を用いて、 C P U 1 7で行われるブレにより劣化した画像信号の修復 の工程を詳細に説明する。 なお、 図 5において、 C P U 1 7は、 積分演算部 3 1, ブレ分布記憶部 3 2 , 撮影制御部 3 3 , 距離分布演算部 3 4 , 点像分布関数演算 部 3 5および画像修復部 3 8から構成される。 また、 原画像メモリ 3 6と修復画 像メモリ 3 7とがメモリ 1 9を構成する。
角速度センサ V 1 3、 角速度センサ H 1 4からは、 デジタルスチルカメラ 1 0 に加わる手ブレなどに応じ、 角速度信号が生成される。 図 6に、 手ブレとしてサ イン波が加わった場合の 1次元の角速度信号を示す。 この角速度信号は、 所定の サンプリング間隔で A D変換され、 デジタルデータに変換される。 デジタルデ一 夕に変換された角速度信号は、 積分演算部 3 1によって積分され、 相対角度信号 に変換される。 相対角度信号は、 積分定数を除いた相対的な角度変位を表すもの である。 算出された相対角度信号は、 プレ分布記憶部 3 2に送信される。 図 7は、 図 6の相対角速度信号を積分した場合の相対角度信号である。
レリーズポタン 1 6からは、 撮影者によるレリ一ズポタン 1 6の操作に応じた レリーズ信号が、 撮影制御部 3 3、 距離センサ 1 5に送られる。 撮影制御部 3 3 では、 レリーズ信号を受信すると、 被写体輝度、 固体撮像素子 1 2の感度および 撮影レンズ 1 1 の絞り値より設定された露光時間により、 固体撮像素子 1 2の露 光を制御する。 さらに撮影制御部 3 3は、 露光タイミング信号をブレ分布記憶部 3 2に送信する。 プレ分布記憶部 3 2では、 露光タイミング信号に応じて、 露光 期間中の相対角速度信号を記憶する。
図 8は、 上述のようにしてブレ分布記憶部 3 2に記憶された相対角度信号のデ —夕の 2次元的な状態を示したものである。 露光期間中に所定時間間隔でサンプ リングされた相対角度のデータ値が黒丸で示されている。 図 8において、 は X軸回りの角度、 6 yは Υ軸回りの角度を表している。 なお、 図 9に示すように、 X軸および Y軸は、 撮影画面 4 1において互いに直交するように定義される。 ま た、 X軸および Y軸はそれぞれ光軸と直交する。 ここで露光期間中の相対角度の 総サンプリング数を Nとし、 n回目のサンプリングを (S x n、 Θ y n ) とする。 また、 露光期間中にサンプリングされる N個の相対角度データの平均が ( 0、 0 ) となるように変換される。
一方、 レリーズ信号に応じて、 距離センサ 1 5は撮影される被写界の距離分布 を測定し、 距離分布演算部 3 4に送る。 距離分布演算部 3 4では、 受信した 2次 元の距離分布をもとに、 撮影画面における距離値の出現頻度を図 1 0のようなヒ ストグラムにまとめる。 このヒストグラムを用い、 出現頻度の高さに応じて近距 離から無限距離までの被写界距離をいくつかの距離ゾーンに分割する。 分割した 距離ゾーンの代表値となる距離デ一夕を選出する。 図 1 0においては、 被写界距 離を Z l 、 Z 2、 Z 3、 Z 4の距離ゾーンに分割し、 それぞれの代表距離データ を d l、 d 2、 d 3、 d 4とする。 また、 距離分布演算部 3 4は、 分割した距離 ゾーンに応じて画像信号を複数の部分画像に分割し、 画像の位置情報を得る。 点像分布関数演算部 3 5では、 距離分布演算部 3 4で求められた距離データに 基づき、 ブレ分布記憶部 3 2に記憶された相対角度信号 ( 0 χ η、 Θ y n ) を画 面上における像ボケ信号 (X n、 Y n ) に変換する。 図 1 1は、 相対角度信号か ら像ボケ信号への、 距離に応じた変換の原理を説明する図である。 簡単のため撮 影光学系を 1枚のレンズ 5 1で示す。 また、 レンズ 5 1の焦点距離は f である。
レンズ 5 1が画面 5 4の中心 5 5に対し、 y軸回りに角度 0 y傾いた場合を考 える。 この時、 点 5 2 , 5 3は、 それぞれ画面 5 4から光軸上の距離 d 1および d 2にあるとする。 点 5 2、 5 3に対応する画面上の像点をそれぞれ 5 6 , 5 7 とする。 ここで、 点 5 2 , 5 3の画面 X軸方向の像ポケ量を、 像点 5 6、 5 7の 画面中心 5 5からの距離 X 1 、 X 2とする。 点 5 2 , 5 3の画面 X軸方向の像ポ ケ量 X I , X 2は、 以下の (式 2 ) でそれぞれ求められる。
X l = d l X f X t Ά η Θ y / ( d 1 - f )
X 2 = d 2 X f X t a n 0 / ( d 2 - f ) (式 2 ) なお、 y軸方向への像ボケ量 Y 1 , Υ 2も同様にして算出できる。
(式 2 ) からわかるように、 d / ( d - f ) のファクタ一は距離 dの値が小さ くなるほど、 つまり近距離になるほど急激に変化する。 そのため、 デジタルカメ ラの角度ブレ (チルト) 量は同じであっても、 被写体が近距離にあるほどボケ量 の変化は急激になる。
点像分布関数演算部 3 5では、 (式 2 ) に基づき、 図 8に示すような相対角度信 号 ( S x n、 S y n ) を、 距離データ d 1、 d 2 · · に応じて像ボケ信号 (X 1 η、 Υ 1 η)、 (Χ 2 η、 Υ 2 η ) · ·に変換する。 さらに、 離散的な像ボケ信号(X 1 n、 Y i n ), (X 2 n、 Y 2 n ) · ·は、 スム一ジング等の手法により、 図 1 2 に示すような連続的な点像分布関数 h 1 (x、 y)、 h 2 ( x、 y ) - · に変換さ れる。
画像修復部 3 8では、 原画像メモリ 3 6に格納されているプレにより劣化した 画像信号を読み出す。 この画像情報を関数 g l ( x、 y)、 g 2 ( x、 y ) · · · と表す。 劣化した画像信号の関数 g 1 (x、 y ), g 2 ( x、 y ) ■ · · に対し、 点像分布関数 h i (x、 y)、 h 2 ( x、 y ) * · · を用いて画像修復処理を施す。 さらに、 画面内の距離ゾーン分割 (z l , z 2 · · · ) に応じた画像合成処理を 行って修復画像信号を生成し、 修復画像メモリ 3 7に格納する。
図 1 3は、 上述した画像修復処理のイメージ図である。 まず、 ブレにより劣化 した画像 6 1から、 距離ゾーン (Z l、 Z 2、 Z 3、 Z 4 ) に応じて複数の部分 に分割されて認識された画像の位置情報 6 2を得る。 次に、 ブレにより劣化した 画像 6 1が、 それぞれの距離ゾーン (Z l , Z 2 , Z 3 , Z 4 ) の代表距離デ一 夕 (d l 、 d 2、 d 3、 d 4 ) に応じて定められた点像分布関数 h 1 ( x、 y)、 h 2 (x、 y)、 h 3 ( x、 y)、 h 4 ( x、 y ) により、 それぞれ画像修復処理 される。 修復された画像からさらに画像情報 6 2により、 距離毎に分割された部 分画像 6 3、 6 4、 6 5、 6 6が抽出される。 最後に、 分割された部分画像 6 3、 6 4、 6 5、 6 6を合成し、 修復画像 6 7を生成する。
ここで、 個々の点像分布関数 h 1 (x、 y)、 h 2 (x、 y) * * による画像修 復処理について説明する。
プレのないときの画像の画像情報を関数 f (x、 y)、 ブレにより劣化した画像 の画像情報を関数 g (x、 y)、 ブレにより点像がボケたときの画像情報を点像分 布関数 h (x、 y ) とする。 これらの関数 f (x、 y)、 g (x、 y)、 h (x、 y ) には、 (式 3 ) の関係が成り立つ。
f (x、 y ) * h (x、 y ) = g (x、 y ) (式 3 ) ここで、 はコンポリューシヨン演算を表す記号である。 (式 3 ) の両辺を フーリエ変換すると、 周波数領域において (式 4) が成り立つ。
F (u、 V ) XH ( u、 V ) = G (u、 v) (式 4 ) ここで、 関数 G、 F、 Hは、 関数 g、 f 、 liのフーリエ変換関数である。 u、 Vはそれぞれ x、 y方向の周波数を表す。 (式 4) の両辺を H (u、 v ) で除する と、 (式 5 ) となる。
F (u、 V ) = G (u、 v) /H (u、 v) (式 5 ) さらに、 (式 5 ) を逆フーリエ変換すると、 (式 6 ) で表すように、 ブレのない 元の画像情報である関数 ί (x、 y ) が得られる。
f (x、 y ) = S (F (u、 v))
= S (G (u、 v) /H (u、 v)) (式 6 ) ここで、 S ( ) は逆フーリエ変換を表す。 ブレにより劣化した画像関数のフ —リエ変換を行い、 これをボケによる点像分布関数のフーリエ変換で除し、 さら にフ一リェ逆変換すれば、 ボケのない元の画像関数を求めることができる。
つぎに、 図 2に示した C P U 1 7における画像修復の動作プログラムの処理手 順を図 1 4〜図 1 6のフローチヤ一トを用いて説明する。 なお、 固体撮像素子 1 2として、 C C Dを用いるものとして説明する。
図 1 4は C P U 1 7のメインプログラムのフローチャートである。 図 1 5は所 定時間間隔で角速度信号を A D変換するためのタイマ割込みプログラムのフロー チャートである。 図 1 6はレリーズ信号により起動するレリーズ割込みプロダラ ムのフ口一チャートである。 なお、 図 1 4のメインプログラム実行中に、 図 1 5、 図 1 6のタイマ割込みおよびレリーズ割込みの処理プログラムが適宜割り込んで 実行される構成となっている。
図 1 4に示した C P U 1 7のメインプログラムは、 デジタルスチルカメラ 1 0 の電源オンによりスター卜する。 ステップ S 1 0 1では、 C C D 1 2の動作リセ ット、 タイマ類のリセッ トが行われ、 その後タイマ割込み、 レリ一ズ割込みが許 可される。 ステップ S 1 0 2では、 露光時間の決定に必要な情報 (被写体輝度、 画素感度、 絞り値等) に応じて、 C C D 1 2の電荷蓄積時間 (露光時間) を演算 する。 以降ステップ S 1 0 2を繰り返す。
つぎに、 図 1 5に示した所定時間間隔の夕イマ割込のプログラムを説明する。 ステップ S 2 0 1では、 角速度信号を A D変換して不図示のメモリに格納する。 ステップ S 2 0 2では、 メモリに格納されている角速度データを最新デ一夕まで 積分して相対角度信号を演算する。 ステップ S 2 0 3では演算した相対角度信号 を不図示のメモリに格納しリターンする。
図 1 6はレリ一ズ割込のプログラムを説明するフローチヤ一トである。 レリ一 ズポタン 1 6の操作により、 C P U 1 7にレリ一ズ信号が入力されるとこの処理 をスタートする。
まず、 ステップ S 3 0 1では距離センサ 1 5より撮影画面上の被写界の距離分 布情報を取り込み、 図 1 0に示すような距離ヒストグラムを作成する。 さらに、 距離ゾーン (Z 1, Z 2 · · · ) に従って代表距離データ (d 1 , d 2 · · · ) を算出して記憶する。 ステップ S 3 0 2では、 ステップ S 1 0 2で算出された最 新の露光時間に基づき、 撮影レンズ 1 1で形成された被写界の像を C C D 1 2に 撮像させる。 ステップ S 3 0 3では、 C C D 1 2に蓄積された画像信号を読み出 す。 ステップ S 3 0 4では、 読み出した画像信号を A D変換し、 ステップ S 3 0 5で A D変換後の画像信号、 すなわちブレにより劣化した画像信号をメモリ 1 9 に一時格納する。 ステップ S 3 0 6ではメモリ 1 9に格納した画像信号を記録媒 体 2 1に記録する。
ステップ S 3 0 7では、 距離ゾーン (Z 1 , Z 2 · . · ) に応じて画像信号を 部分画像に分割する。 ステップ S 3 0 8では、 上述したステップ S 2 0 3でメモ リ (不図示) に格納した相対角度信号と、 ステップ S 3 0 1で算出した代表距離 デ一夕 (d 1 , d 2 · · · ) とに基づいて、 代表距離データ (d 1 , d 2 · · · ) に応じた点像分布関数 h i ( x、 y )、 h 2 ( x、 y ) · · · を算出する。 ステツ プ S 3 0 9では、 代表距離データ (d l , d 2 · · · ) に応じた点像分布関数 h 1 ( x、 y )、 h 2 ( x、 y ) - · · により画像修復処理演算を行うとともに、 距 離ゾーン (Z l , Z 2 · · · ) に応じて分割された部分毎に修復画像を抽出する。 ステップ S 3 1 0では、 部分毎に修復された画像を合成し、 全体的な修復画像 を生成する。ステツプ S 3 1 1では合成された修復画像を記録媒体 2 1に記録し、 ステップ S 1 0 2に戻る。
以上説明したように、 距離に応じて最適な点像分布関数でブレ画像修復処理を 行うことにより、 画面中に異なる距離の複数の被写体が存在した場合や接写撮影 の場合でもブレ修復を良好に行うことができる。
(実施の形態の変形例)
本発明は、 以上説明した実施の形態に限定されることなく、 種々の変形や変更 が可能である。
上述した実施の形態では、 被写界の 2次元的な距離分布を検出し、 距離に応じ て複数の点像分布関数を用意して、 ブレ画像の修復を行っているが、 必ずしも 2 次元的な距離分布を検出する必要はない。
例えば、 主要被写体となる物体までの距離のみを測定し、 その距離に応じた点 像分布関数を生成する。 そして、 生成した点像分布関数を用いて全体の画像修復 を行うようにしてもよい。 このようにすれば、 2次元の距離分布を検出するため の距離検出装置が不要となり、安価な簡易構成の距離検出装置があればいいので、 デジタルスチルカメラ等に画像修復装置を組み込むことが容易になる。 また、 主 要被写体までの距離にのみ基づいて画像修復を行つても、 主要被写体と異なる距 離にある物体の像は焦点ボケにより既にボケているため、 問題を生ずる可能性は 少ない。
また、 撮影光学系の角度ブレにより像ブレが発生するものとして説明したが、 近接撮影においては撮影光学系の平行ブレ (光軸に平行にシフトするブレ) の影 響も大きくなる。 このような場合には、 平行ブレ検出用の加速度センサを用いて 平行ブレ信号を検出し、 平行ブレ信号と距離デ一夕を用いて距離に応じた点像分 布関数を求めるようにしてもよい。 図 1 7は、 距離に応じて平行ブレ信号から像ボケ信号への変換を行う場合の原 理を説明する図である。 図 1 1と同じ構成要素には同じ番号を付与してある。 こ のような構成により、 レンズ 5 1が X軸方向に、 光軸に平行に距離 Rシフトした 場合を考える。 レンズ 5 1が X軸方向に距離 Rシフトすると、 画面中心 5 5もそ れに伴ってシフトする。 シフト後の画面中心を 5 5 ' とする。
この時、 光軸上の距離 d 1および d 2にある点 5 2、 5 3の画面 X軸方向の像 ボケ量を、 点 5 2、 5 3に対応する像点 5 6、 5 7の画面中心 5 5 ' からの距離 X I、 X 2とする。 点 5 2, 5 3のそれぞれの画面 X軸方向の像ボケ量 X 1, X 2は、 以下の (式 7 ) でそれぞれ求められる。
X 1 = f X R / ( d 1 - f )
X 2 = f X R / ( d 2 - f ) . (式 7 )
なお、 y軸方向の像ボケ量 Y l, Υ 2も同様に算出できる。
(式 7 ) からもわかるように、 近接撮影において距離 dが焦点距離 f に近くな つてくると、 平行ブレに対するボケ量も急激に増加する。
(式 7 ) の変換式により、 距離に応じて平行ブレを画面上の像ボケに変換し、 像ボケに応じた点像分布関数を求めることができる。 このようにして求めた点像 分布関数を用いてプレ画像修復を行う。 これにより、 平行ブレにより生ずる像ポ ケにより劣化した画像を距離に応じて修復することができる。
以上説明した実施の形態の変形例によれば、 近接撮影時の像ボケを良好に画像 修復することが可能になる。
また、 上記平行ブレの画像修復と角度ブレの画像修復とを組み合わせることに より、 更に画像修復の効果を高めることができる。 この場合、 角度ブレを検出す る角速度センサと平行ブレを検出する加速度センサとを用いる。 そして、 (式 2 ) を用いて算出された角度ブレに応じた像ボケ量と、 (式 7 )を用いて算出された平 行プレに応じた像ボケ量とを、 それぞれの像ボケ量に応じて合成する。 合成され る X軸方向の像ボケ量 X tは、 以下の (式 8 ) のように示される。
X t = K X X a + L X X ρ ( 0く Kく 1 , 0 < L < 1 ) (式 8 ) ここで、 X aは角度ブレによる X軸方向の像ボケ量、 X pは平行ブレによる X軸 方向の像ボケ量である。 K:、 Lはそれぞれ X aおよび X pにかかる係数である。 角度ブレによる像ボケ量 X aと平行ブレによる像ボケ量 X pとを比較して、 X a〉X pの時は、 K > Lと設定する。 また、 X aく X pの時は、 K < Lと設定す る。 つまり、 角度ブレによる像ボケ量 X aが平行ブレによる像ボケ量 X pよりも 大きいときは X aの割合を大きくする。 一方、 平行ブレによる像ボケ量 X pが角 度ブレによる像ボケ量 X aよりも大きいときは X pの割合を大きくする。 その結 果、 角度ブレと平行ブレの両方を考慮した画像修復を行うことができる。
角度ブレゃ平行ブレを画面上の像ボケ量に変換する (式 6 ) および (式 7 ) に おいて、 近接撮影のため撮影レンズが大きく繰り出され、 焦点距離 f が繰り出し 量に応じて大きく変化する場合等においては、 (式 6 ) および (式 7 ) を適宜レン ズ繰り出し量や撮影倍率などにより補正することが可能である。 また、 上述した 実施の形態においては、 ブレ検出センサとして角速度センサを用いたが、 これに 限定されるものではなく、 加速度センサや画像センサ (像の時間的な動きにより 像ボケを検出) でも構わない。
以上説明した実施の形態においては、 距離センサとしてパッシブ型の三角測距 方式の距離検出装置を用いたが、 これに限定されるものではない。 いわゆるァク ティブ型の三角測距装置により被写界を走査して距離分布を測定してもよい。 こ こで、 アクティブ型の三角測距装置としては、 ビーム光を所定の光軸にそって被 写界側に発し、 ビーム光と基線長離れた光学系により反射ビーム光の結像位置を 測定することにより距離を検出するものを用いることができる。 また、 電磁波や 音波を発し、 被写界からの反射波の戻り時間を測定することにより、 被写界の距 離分布を検出するようにしても構わない。 このようにすれば、 被写界が比較的暗 い場合においても距離測定を高精度に行うことが可能になる。
また上記実施の形態においては、 レリ一ズ信号に応じてデジタルスチルカメラ 内で自動的にブレ画像修復が行われている。 しかし、 距離情報または距離分布情 報、 ブレ情報、 画像信号をひとまず記録媒体に記憶しておき、 後からデジ夕ルス チルカメラが記録媒体より距離情報または距離分布情報、 ブレ情報、 画像信号を 読み出してブレ画像の修復を行うようにしても構わない。 このようにすればブレ 画像処理をデジ夕ルスチルカメラの負担の少ない時間に行えるので、 連続撮影を 行う場合に有利である。
また距離情報または距離分布情報、 ブレ情報、 画像信号をひとまず記録媒体に 記憶しておき、 後からパソコン等で記録媒体から距離情報または距離分布情報、 ブレ情報、 画像信号を読み出し、 パソコン側でブレ画像の修復を行うようにして も構わない。 このようにすればデジタルスチルカメラの負担を少なくすることが できるとともに、 より演算規模の大きい画像処理を行うことができる。 さらに、 画像修復の品質も向上する。
記録媒体としてはメモリ力一ドの他に銀塩フィルムを使用することも可能であ る。 例えば磁気層を備えた銀塩フィルムに画像を光学的に記録するとともに、 磁 気層に距離情報または距離分布情報、 ブレ情報を磁気的に記録する。 そして、 ス キヤナ一等で銀塩フィルムを読み込み、 パソコンにて画像信号を抽出する。 また は、 磁気へッ ドにより磁気層に記録された距離情報または距離分布情報を読みと る構成にしてもよい。 このようにすればデジタルスチルカメラだけでなく銀塩フ ィルムを使用した撮影システムに対しても本発明の画像修復を適用することがで きる。
また上記実施の形態においては、 ブレ画像の修復処理はデジタルスチルカメラ 内で自動的に行われているが、 距離ゾーンに応じて画面内を複数部分に分割する 処理などは、 画像を表示部等に表示しながら撮影者の操作入力によりインタラク ティブに行うようにしてもよい。 このようにすれば、 撮影者の意図を反映したブ レ画像修復を行うことができる。 さらに、 自動化処理が困難な場合にも、 ブレ画 像修復を確実に実行できる。
また、 上記実施の形態においては、 全ての距離ゾーンの画像に対してブレ画像 修復処理を行っていた。 しかし、 撮影光学系の設定距離から離れている距離ゾ一 ンの被写体の像は既に焦点ボケによりボケているので、 このような距離ゾーンの 画像に対してはブレ画像の修復処理を省略するようにしても構わない。 例えば撮 影光学系の設定距離情報と絞り値情報から演算した焦点ボケ量と、 所定の距離ゾ —ンの像ボケ量とを比較する。 焦点ボケ量が支配的な場合は、 この距離ゾーンの 画像に対してはブレ画像修復処理を行わないようにする。 このようにすれば、 画 像処理時間を短縮し、 レスポンスの高い画像修復装置を実現することが可能であ る。
また、 上記実施の形態においては、 レリーズポタンからのレリ一ズ信号に応じ て常時ブレ画像修復が行われているが、 デジタルスチルカメラの動作設定モード (例えば、 接写に適したカメラ動作を行う近接撮影モード、 画像を記録する時の 圧縮率が低い髙精細記録モード) や撮影光学系の設定距離が所定距離より近距離 側に設定された場合に、 プレ画像修復処理を行うようにしてもよい。 このように すれば、 ブレ画像修復の必要性が高い状況でのみブレ画像修復が自動的に行われ るので、 通常撮影時にはレスポンスの高い撮影が可能となる。
以上説明したように、 本発明による画像生成装置および画像生成方法において は、 画面上における被写界の距離または距離分布を検出し、 距離または距離分布 に応じて最適な点像分布関数を用いてブレ画像修復処理を行うようにした。 これ により、 従来のように、 距離によらず一律な点像分布関数を用いてブレ画像修復 処理を行う場合と比較して、 より良好なブレ画像修復が可能となる。 特に手ブレ の影響が大きい近接撮影画像のブレ修復に効果的である。
また、 画面内に距離の異なる複数の被写体があるような画像のブレ修復も、 各 距離に応じて部分的にブレ画像修復を行った後で全体の修復画像に合成するため. 良好なブレ修復効果が期待できる。

Claims

請求の範囲 撮影光学系によって画面上に形成された被写界の像を撮像し、 画像信号を生成 する撮像部と、
前記画面上における被写界の距離を検出し、距離情報を生成する距離検出部と、 撮影光学系の撮像時のプレを検出し、 プレ信号を生成するブレ検出部と、 距離情報とブレ信号とに基づき、 距離に応じた点像分布関数を生成する点像分 布関数生成部と、
点像分布関数を用いて画像信号を修復し、 修復画像を形成する画像修復部とを 有する画像生成装置。
2 .
請求項 1に記載の画像生成装置において、
前記距離検出部は、 被写界の 2次元的な距離分布を検出し、 距離分布情報に基 づき被写界距離を複数の距離ゾーンに分割するとともに、 各距離ゾーンを代表す る複数の距離データを算出し、
前記点像分布関数生成部は、 複数の距離データに応じた複数の点像分布関数を 生成し、
前記画像修復部は、 距離ゾーンに応じて画像信号を複数の部分画像に分割する とともに、 部分画像毎にその距離データに応じた点像分布関数を用いて修復して 複数の部分修復画像を形成し、 複数の部分修復画像を合成することにより修復画 像を形成する。
3 .
被写界を撮影した画像情報と、 撮影時の被写界の距離情報と、 撮影時のブレ情 報とが記録された記録媒体から画像情報と、 距離情報と、 ブレ情報とを読み出す 情報読み出し部と、
距離情報とブレ情報に基づき、 距離に応じた点像分布関数を生成する点像分布 関数生成部と、
点像分布関数を用いて画像情報を修復し、 修復画像を形成する画像修復部とを 有する画像生成装置。
4 . 被写界の像を所定画面上に形成し、
画面上に形成された被写界の像を撮像して画像信号を生成し、
画面上における被写界の距離を検出して距離情報を生成し、 ' 撮像時のプレを検出してプレ信号を生成し、
距離情報とブレ信号とに基づいて距離に応じた点像分布関数を生成し、 点像分布関数を用いて画像信号を修復し、 修復画像を形成する画像生成方法。
5 .
請求項 1に記載の画像生成装置において、
前記ブレ検出部は、 撮影光学系がそれぞれ光軸に直交する 2つの軸回りにぶれ る角度ブレを検出する。
6 .
請求項 1に記載の画像生成装置において、
前記ブレ検出部は、撮影光学系が光軸に平行にシフトする平行ブレを検出する。
7 .
請求項 1に記載の画像生成装置において、
前記ブレ検出部は、 撮影光学系がそれぞれ光軸に直交する 2つの軸回りにぶれ る角度ブレおよび撮影光学系が光軸に平行にシフトする平行ブレを検出し、 角度 ブレと平行ブレとに基づいてブレ信号を生成する。
8 .
請求項 3に記載の画像生成装置において、
前記情報読み出し部は、 記録媒体に記録された画像情報と距離情報とブレ情報 とを、 電子的に読み出す。
9 .
請求項 3に記載の画像生成装置において、
前記情報読み出し部は、 銀塩フィルムに記録された画像情報と距離情報とブレ 情報とを、 スキャナ一にて読み出す。
1 0 .
撮影光学系によって画面上に形成された被写界の像を撮像し、 画像信号を生成 する撮像部と、
前記画面上における被写界の 2次元的な距離分布を検出し、 距離分布情報に基 づき被写界距離を複数の距離ゾーンに分割するとともに、 各距離ゾーンを代表す る複数の距離データを算出する距離検出部と、
撮影光学系の撮像時のブレを検出し、 ブレ信号を生成するブレ検出部と、 距離分布情報とブレ信号とに基づき、 複数の距離デ一夕に応じた複数の点像分 布関数を生成する点像分布関数生成部と、
距離ゾーンに応じて画像信号を複数の部分画像に分割するとともに、 部分画像 毎にその距離データに応じた点像分布関数を用いて修復して複数の部分修復画像 を形成し、 複数の部分修復画像を合成することにより修復画像を形成する画像修 復部とを有する画像生成装置。
PCT/JP2001/008423 2000-09-28 2001-09-27 Procede et dispositif de creation d'images Ceased WO2002028091A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/148,338 US7260270B2 (en) 2000-09-28 2001-09-27 Image creating device and image creating method
AU2001292265A AU2001292265A1 (en) 2000-09-28 2001-09-27 Image creating device and image creating method
DE60131759T DE60131759T2 (de) 2000-09-28 2001-09-27 Bilderzeugungsvorrichtung und -verfahren
EP01972526A EP1322108B1 (en) 2000-09-28 2001-09-27 Image creating device and image creating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000295767A JP4389371B2 (ja) 2000-09-28 2000-09-28 画像修復装置および画像修復方法
JP2000-295767 2000-09-28

Publications (1)

Publication Number Publication Date
WO2002028091A1 true WO2002028091A1 (fr) 2002-04-04

Family

ID=18778140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/008423 Ceased WO2002028091A1 (fr) 2000-09-28 2001-09-27 Procede et dispositif de creation d'images

Country Status (6)

Country Link
US (1) US7260270B2 (ja)
EP (1) EP1322108B1 (ja)
JP (1) JP4389371B2 (ja)
AU (1) AU2001292265A1 (ja)
DE (1) DE60131759T2 (ja)
WO (1) WO2002028091A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596307B2 (en) 2002-12-25 2009-09-29 Nikon Corporation Blur correction camera system
CN103185945A (zh) * 2011-12-27 2013-07-03 鸿富锦精密工业(深圳)有限公司 自动对焦成像模组及成像方法
CN103185945B (zh) * 2011-12-27 2016-12-14 鸿富锦精密工业(深圳)有限公司 自动对焦成像模组及成像方法
EP3582487B1 (en) * 2018-06-15 2023-09-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image stabilisation

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6423720B1 (en) * 2001-02-01 2002-07-23 Duquesne University Of The Holy Ghost Pyrimidine compounds and methods for making and using the same
US6829393B2 (en) * 2001-09-20 2004-12-07 Peter Allan Jansson Method, program and apparatus for efficiently removing stray-flux effects by selected-ordinate image processing
WO2004001667A2 (en) 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US7119837B2 (en) * 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
US7720302B2 (en) 2003-09-25 2010-05-18 Fujifilm Corporation Method, apparatus and program for image processing
US7596273B2 (en) * 2004-04-19 2009-09-29 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
JP2005309560A (ja) * 2004-04-19 2005-11-04 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
US20050249429A1 (en) * 2004-04-22 2005-11-10 Fuji Photo Film Co., Ltd. Method, apparatus, and program for image processing
US20050244077A1 (en) * 2004-04-22 2005-11-03 Fuji Photo Film Co., Ltd. Method, apparatus and program for image processing
JP2005332383A (ja) * 2004-04-23 2005-12-02 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006024193A (ja) * 2004-06-07 2006-01-26 Fuji Photo Film Co Ltd 画像補正装置、画像補正プログラム、画像補正方法、および画像補正システム
WO2006041126A1 (ja) * 2004-10-14 2006-04-20 Lightron Co., Ltd. 劣化情報復元方法と復元装置
EP1801753B1 (en) * 2004-10-14 2016-12-07 Lightron Co. Ltd. Degradation information restoring method and device
JP5172347B2 (ja) * 2004-11-17 2013-03-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 反復的制約デコンボリューションによる核医学2次元平面画像の復元
JP4586534B2 (ja) * 2004-12-28 2010-11-24 セイコーエプソン株式会社 撮像装置、手ブレ補正装置、携帯電話機および手ブレ補正方法
JP4667052B2 (ja) * 2005-01-27 2011-04-06 キヤノン株式会社 撮像装置並びにそのカメラ本体及び交換レンズ
JP4586578B2 (ja) * 2005-03-03 2010-11-24 株式会社ニコン デジタルカメラ及びプログラム
JP2007043393A (ja) * 2005-08-02 2007-02-15 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、画像処理プログラム及びプログラム記録媒体
JP4790523B2 (ja) * 2005-09-14 2011-10-12 株式会社リコー 画像処理装置およびプログラム
JP2007096405A (ja) 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
JP4695972B2 (ja) * 2005-12-14 2011-06-08 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
EP1971968A2 (en) * 2006-01-13 2008-09-24 Micronic Laser Systems Ab Apparatuses, methods and computer programs for artificial resolution enhancement in optical systems
JP4479679B2 (ja) * 2006-03-14 2010-06-09 セイコーエプソン株式会社 撮影画像表示システム、画像受信装置及びその制御方法
JP4985062B2 (ja) * 2006-04-14 2012-07-25 株式会社ニコン カメラ
US7580620B2 (en) * 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
JP4743773B2 (ja) * 2006-06-01 2011-08-10 コニカミノルタセンシング株式会社 エッジ検出方法、装置、及びプログラム
JP5222472B2 (ja) * 2006-07-14 2013-06-26 イーストマン コダック カンパニー 画像処理装置、画像復元方法およびプログラム
JP2008073342A (ja) * 2006-09-22 2008-04-03 Konica Minolta Medical & Graphic Inc 放射線画像撮影システム及び放射線画像撮影方法
US20080100716A1 (en) * 2006-11-01 2008-05-01 Guoyi Fu Estimating A Point Spread Function Of A Blurred Digital Image Using Gyro Data
JP4804310B2 (ja) * 2006-11-15 2011-11-02 三洋電機株式会社 撮像装置並びに画像復元方法
JP4884207B2 (ja) * 2006-12-28 2012-02-29 三星電子株式会社 撮像装置、撮像方法およびコンピュータプログラム
US20080166114A1 (en) * 2007-01-09 2008-07-10 Sony Ericsson Mobile Communications Ab Image deblurring system
US7860333B2 (en) * 2007-01-09 2010-12-28 University Of Utah Research Foundation Systems and methods for deblurring data corrupted by shift variant blurring
US8041137B2 (en) * 2007-03-06 2011-10-18 Broadcom Corporation Tiled output mode for image sensors
EP1983740A1 (en) * 2007-04-16 2008-10-22 STMicroelectronics (Research & Development) Limited Image stabilisation method and apparatus
US9058668B2 (en) * 2007-05-24 2015-06-16 Broadcom Corporation Method and system for inserting software processing in a hardware image sensor pipeline
US20080292219A1 (en) * 2007-05-24 2008-11-27 Gary Keall Method And System For An Image Sensor Pipeline On A Mobile Imaging Device
US20080292216A1 (en) * 2007-05-24 2008-11-27 Clive Walker Method and system for processing images using variable size tiles
US20090060373A1 (en) * 2007-08-24 2009-03-05 General Electric Company Methods and computer readable medium for displaying a restored image
TWI382754B (zh) * 2008-01-24 2013-01-11 Asustek Comp Inc 調整模糊影像的方法
KR20090113076A (ko) * 2008-04-25 2009-10-29 삼성디지털이미징 주식회사 디지털 영상 처리기에서 브라케팅 촬영 장치 및 방법
US8139886B2 (en) * 2008-06-23 2012-03-20 Microsoft Corporation Blur estimation
JP2010050745A (ja) * 2008-08-21 2010-03-04 Canon Inc 画像処理装置およびその方法
US8433158B2 (en) * 2008-10-17 2013-04-30 Massachusetts Institute Of Technology Optical superresolution using multiple images
US8948513B2 (en) * 2009-01-27 2015-02-03 Apple Inc. Blurring based content recognizer
WO2010098054A1 (ja) * 2009-02-25 2010-09-02 パナソニック株式会社 画像補正装置及び画像補正方法
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
US8542281B2 (en) * 2009-09-14 2013-09-24 Cognex Corporation System and method for acquiring a still image from a moving image
JP2011135563A (ja) * 2009-11-30 2011-07-07 Canon Inc 撮像装置および画像処理方法
US8648918B2 (en) * 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
US8798386B2 (en) * 2010-04-22 2014-08-05 Broadcom Corporation Method and system for processing image data on a per tile basis in an image sensor pipeline
EP2386997A1 (en) * 2010-05-12 2011-11-16 Sony Corporation Radiometric imaging device and corresponding method
JP5765893B2 (ja) * 2010-06-16 2015-08-19 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
US8743219B1 (en) * 2010-07-13 2014-06-03 Marvell International Ltd. Image rotation correction and restoration using gyroscope and accelerometer
JP5175910B2 (ja) * 2010-09-16 2013-04-03 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US9319578B2 (en) 2012-10-24 2016-04-19 Alcatel Lucent Resolution and focus enhancement
US8905314B2 (en) 2010-09-30 2014-12-09 Apple Inc. Barcode recognition using data-driven classifier
US8523075B2 (en) 2010-09-30 2013-09-03 Apple Inc. Barcode recognition using data-driven classifier
US9344736B2 (en) 2010-09-30 2016-05-17 Alcatel Lucent Systems and methods for compressive sense imaging
JP5183715B2 (ja) * 2010-11-04 2013-04-17 キヤノン株式会社 画像処理装置及び画像処理方法
CN103491897B (zh) 2010-12-21 2016-01-20 3形状股份有限公司 运动模糊补偿
EP2688282B1 (en) 2011-07-06 2016-11-30 Morpho, Inc. Image processing device, image processing method, and image processing program
JP5768590B2 (ja) 2011-08-22 2015-08-26 富士通株式会社 画像処理装置、画像処理方法及びプログラム
TWI514869B (zh) * 2011-12-27 2015-12-21 Hon Hai Prec Ind Co Ltd 自動對焦成像模組及成像方法
JP5959976B2 (ja) * 2012-07-27 2016-08-02 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
CN104685863B (zh) * 2012-09-27 2017-11-03 富士胶片株式会社 摄像装置及图像处理方法
JP5746794B2 (ja) * 2012-09-27 2015-07-08 富士フイルム株式会社 撮像装置及び画像処理方法
AU2012258467A1 (en) * 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
JP6261430B2 (ja) 2014-04-01 2018-01-17 キヤノン株式会社 撮像装置及び画像処理システム
TW201716933A (zh) * 2015-11-06 2017-05-16 原相科技股份有限公司 具有補償失焦影像的光學導航裝置及其補償電路
US11482018B2 (en) * 2017-07-19 2022-10-25 Nec Corporation Number-of-occupants detection system, number-of-occupants detection method, and program
EP3626160A1 (en) * 2018-09-24 2020-03-25 Dianova A/S A handheld imaging element with a movement sensor
KR102518373B1 (ko) * 2019-02-12 2023-04-06 삼성전자주식회사 이미지 센서 및 이를 포함하는 전자 기기
US11575865B2 (en) 2019-07-26 2023-02-07 Samsung Electronics Co., Ltd. Processing images captured by a camera behind a display
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11721001B2 (en) 2021-02-16 2023-08-08 Samsung Electronics Co., Ltd. Multiple point spread function based image reconstruction for a camera behind a display
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
US11722796B2 (en) 2021-02-26 2023-08-08 Samsung Electronics Co., Ltd. Self-regularizing inverse filter for image deblurring
US12393765B2 (en) 2021-08-06 2025-08-19 Samsung Electronics Co., Ltd. Automating search for improved display structure for under-display camera systems
US12216277B2 (en) 2021-10-14 2025-02-04 Samsung Electronics Co., Ltd. Optical element for deconvolution
US12482075B2 (en) 2022-06-08 2025-11-25 Samsung Electronics Co., Ltd. Restoring images using deconvolution

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127574A (ja) * 1997-07-07 1999-01-29 Ricoh Co Ltd 手ぶれパラメータ検出方法及び情報記録媒体
JPH11134481A (ja) * 1997-10-30 1999-05-21 Canon Inc 画像復元装置及び画像復元方法
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
JP2001197355A (ja) * 2000-01-13 2001-07-19 Minolta Co Ltd デジタル撮像装置および画像復元方法
JP2001197356A (ja) * 2000-01-13 2001-07-19 Minolta Co Ltd 画像復元装置および画像復元方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4517599A (en) * 1983-01-27 1985-05-14 Hughes Aircraft Company Resolution enhancement and zoom by degradation estimates
US4888609A (en) * 1985-01-17 1989-12-19 Minolta Camera Kabushiki Kaisha Automatic focus adjusting apparatus
US4760385A (en) * 1985-04-22 1988-07-26 E. I. Du Pont De Nemours And Company Electronic mosaic imaging process
JPS62127976A (ja) 1985-11-29 1987-06-10 Kyocera Corp 画像記録処理装置
US4947323A (en) * 1986-05-22 1990-08-07 University Of Tennessee Research Corporation Method and apparatus for measuring small spatial dimensions of an object
GB2209446B (en) * 1987-09-02 1992-09-30 Canon Kk Automatic focusing device
US4965840A (en) * 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
US4876602A (en) * 1988-05-02 1989-10-24 Hughes Aircraft Company Electronic focus correction by signal convolution
JP2713978B2 (ja) * 1988-05-13 1998-02-16 キヤノン株式会社 カメラのための自動焦点調節装置
US5140359A (en) * 1988-05-16 1992-08-18 Canon Kabushiki Kaisha Multi-point distance measuring apparatus
US5193124A (en) * 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
JP2961761B2 (ja) * 1989-09-14 1999-10-12 ミノルタ株式会社 光学装置
US5130729A (en) * 1989-10-04 1992-07-14 Olympus Optical Co., Ltd. Optical system vibro-isolating apparatus
US4965442A (en) * 1989-11-07 1990-10-23 Massachusetts Institute Of Technology System for ascertaining direction of blur in a range-from-defocus camera
JPH0420941A (ja) * 1990-05-16 1992-01-24 Canon Inc 像ブレ補正手段を有した撮影装置
US5204709A (en) * 1990-09-17 1993-04-20 Olympus Optical Co., Ltd. Camera apparatus having function for changing condition of release operation
JP2558174B2 (ja) * 1990-10-11 1996-11-27 富士写真光機株式会社 カメラの手振れ検知装置
US5708864A (en) * 1992-01-14 1998-01-13 Nikon Corporation Shake preventing apparatus in camera
KR950008698B1 (ko) * 1992-06-09 1995-08-04 현대전자산업 주식회사 반도체소자의 필드산화막 형성방법
JPH0682870A (ja) * 1992-09-04 1994-03-25 Nikon Corp 手ブレ警告装置
US5598242A (en) * 1993-12-14 1997-01-28 Nikon Corporation Vibration compensation mode selection apparataus and associated visual display for a camera
JP3513950B2 (ja) * 1993-12-14 2004-03-31 株式会社ニコン 像振れ補正カメラ
US5598246A (en) * 1993-12-15 1997-01-28 Nikon Corporation Camera capable of reducing image blur
US5857122A (en) * 1994-01-31 1999-01-05 Nikon Corporation Vibration compensation device for a camera and an associated visual display
US5682556A (en) * 1994-04-28 1997-10-28 Nikon Corporation Camera with vibration correcting function
JPH07295008A (ja) * 1994-04-28 1995-11-10 Nikon Corp 像振れ補正撮影装置
JPH0882769A (ja) * 1994-09-14 1996-03-26 Minolta Co Ltd 手ぶれ補正機能を有するズームレンズ
US5790709A (en) * 1995-02-14 1998-08-04 Ben-Gurion, University Of The Negev Method and apparatus for the restoration of images degraded by mechanical vibrations
US5710829A (en) * 1995-04-27 1998-01-20 Lucent Technologies Inc. System and method for focused-based image segmentation for video signals
JPH09138433A (ja) * 1995-11-16 1997-05-27 Olympus Optical Co Ltd カメラのブレ軽減装置
US5815748A (en) * 1996-02-15 1998-09-29 Minolta Co., Ltd. Camera
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
KR100247938B1 (ko) * 1997-11-19 2000-03-15 윤종용 영상처리 시스템의 디지탈 초점 조절방법 및 장치
US6765618B1 (en) * 1998-10-19 2004-07-20 Pentax Corporation Subject selection device and in-focus portion indicating device
US6859564B2 (en) * 2001-02-15 2005-02-22 James N. Caron Signal processing using the self-deconvolving data reconstruction algorithm

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127574A (ja) * 1997-07-07 1999-01-29 Ricoh Co Ltd 手ぶれパラメータ検出方法及び情報記録媒体
JPH11134481A (ja) * 1997-10-30 1999-05-21 Canon Inc 画像復元装置及び画像復元方法
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
JP2001197355A (ja) * 2000-01-13 2001-07-19 Minolta Co Ltd デジタル撮像装置および画像復元方法
JP2001197356A (ja) * 2000-01-13 2001-07-19 Minolta Co Ltd 画像復元装置および画像復元方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1322108A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596307B2 (en) 2002-12-25 2009-09-29 Nikon Corporation Blur correction camera system
EP1577705A4 (en) * 2002-12-25 2009-12-16 Nikon Corp FLOOR CORRECTION VIEWING APPARATUS SYSTEM
US7711253B2 (en) 2002-12-25 2010-05-04 Nikon Corporation Blur correction camera system
EP3404479A1 (en) * 2002-12-25 2018-11-21 Nikon Corporation Blur correction camera system
CN103185945A (zh) * 2011-12-27 2013-07-03 鸿富锦精密工业(深圳)有限公司 自动对焦成像模组及成像方法
CN103185945B (zh) * 2011-12-27 2016-12-14 鸿富锦精密工业(深圳)有限公司 自动对焦成像模组及成像方法
EP3582487B1 (en) * 2018-06-15 2023-09-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image stabilisation

Also Published As

Publication number Publication date
JP4389371B2 (ja) 2009-12-24
DE60131759T2 (de) 2008-11-06
EP1322108B1 (en) 2007-12-05
AU2001292265A1 (en) 2002-04-08
US7260270B2 (en) 2007-08-21
JP2002112099A (ja) 2002-04-12
US20030002746A1 (en) 2003-01-02
EP1322108A4 (en) 2005-10-05
EP1322108A1 (en) 2003-06-25
DE60131759D1 (de) 2008-01-17

Similar Documents

Publication Publication Date Title
WO2002028091A1 (fr) Procede et dispositif de creation d&#39;images
US7403710B2 (en) Image processing apparatus and image processing method
CN1332556C (zh) 修正抖动的图像处理装置和图像处理方法
US8760526B2 (en) Information processing apparatus and method for correcting vibration
US8379096B2 (en) Information processing apparatus and method for synthesizing corrected image data
CN101106647B (zh) 图像拾取装置及其控制方法
JP4869572B2 (ja) 撮像装置
US7817186B2 (en) Camera and image processing method for synthesizing plural images forming one image group to generate a synthesized image
JP2009296561A (ja) 撮像装置及び撮像方法
US20220417427A1 (en) Image processing apparatus that retouches and displays picked-up image, image processing method, and storage medium
JP4612750B2 (ja) デジタルカメラ及び撮影方法並びに記憶媒体
JP2025065442A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
US20070098383A1 (en) Motion blur reduction and compensation
CN101088284B (zh) 用于修改图像数据的方法、设备、软件和配置
JPH06141228A (ja) 電子カメラ
JP2005130140A (ja) 撮影装置および撮影方法
JPWO2006043315A1 (ja) 撮像装置および撮像装置を備えた携帯機器
JP2010272957A (ja) 画像補正装置及びそのプログラム
JP4953770B2 (ja) 撮像装置
JP5396964B2 (ja) 撮影装置及び画像処理装置
JP6728005B2 (ja) 撮像装置、撮像方法およびプログラム
JP6672082B2 (ja) 撮像装置、撮像方法およびプログラム
JP4654610B2 (ja) 撮像装置及び撮像制御方法
CN116018816B (zh) 摄像装置、驱动方法及计算机可读介质
JP2017139576A (ja) 撮像装置およびその制御方法ならびにプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PH PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 10148338

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2001972526

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2001972526

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWG Wipo information: grant in national office

Ref document number: 2001972526

Country of ref document: EP