[go: up one dir, main page]

JP2002305682A - Electronic camera and image processing system - Google Patents

Electronic camera and image processing system

Info

Publication number
JP2002305682A
JP2002305682A JP2001107429A JP2001107429A JP2002305682A JP 2002305682 A JP2002305682 A JP 2002305682A JP 2001107429 A JP2001107429 A JP 2001107429A JP 2001107429 A JP2001107429 A JP 2001107429A JP 2002305682 A JP2002305682 A JP 2002305682A
Authority
JP
Japan
Prior art keywords
image
image data
blur
exposure time
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001107429A
Other languages
Japanese (ja)
Other versions
JP4586291B2 (en
Inventor
Satoshi Ejima
聡 江島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2001107429A priority Critical patent/JP4586291B2/en
Priority to US10/083,146 priority patent/US7176962B2/en
Publication of JP2002305682A publication Critical patent/JP2002305682A/en
Application granted granted Critical
Publication of JP4586291B2 publication Critical patent/JP4586291B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

(57)【要約】 【課題】 露光中に発生するブレを必要に応じて効率的
に補正できるとともに、流し撮りをした場合でも自然な
ブレを補正画像データを生成できる電子カメラおよび画
像処理システムを提供する。 【解決手段】 撮像手段により被写体像を撮像する際
に、像ブレの比較的少ない第1の露光時間で撮像した第
1の画像データと前記第1の時間より長い第2の露光時
間で撮像した第2の画像データを生成し、2つの画像デ
ータにおける高周波成分の振幅の比と位相の差を算出す
る。算出された高周波成分の振幅の比と位相の差に基づ
き像ブレの有無と流し撮りの方向を判別し、像ブレの有
無に応じて像ブレ画像補正処理・画像データの記録を行
うとともに、流し撮りの方向に応じて像ブレ画像補正処
理の内容を変更する。
[PROBLEMS] To provide an electronic camera and an image processing system capable of efficiently correcting a blur generated during exposure as needed and generating a natural blur corrected image data even in a panning shot. provide. SOLUTION: When an image of a subject is taken by an image taking means, first image data taken with a first exposure time with relatively little image blur and a second exposure time longer than the first time are taken. The second image data is generated, and the difference between the amplitude ratio and the phase of the high-frequency component in the two image data is calculated. The presence / absence of image blur and the direction of panning are determined based on the calculated amplitude ratio and phase difference of the high-frequency component, and image blur image correction processing and recording of image data are performed according to the presence / absence of image blur. The content of the image blur correction processing is changed according to the shooting direction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子カメラおよび
画像処理システムに関し、特にぶれを補正した画像を生
成する電子カメラおよび画像処理システムに関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic camera and an image processing system, and more particularly to an electronic camera and an image processing system for generating an image in which blur is corrected.

【0002】[0002]

【従来の技術】従来カメラブレ対策として以下のような
方法が提案されている。第1の方法は、カメラの撮影光
学系にブレ補正光学系を内蔵し、カメラブレをブレセン
サで検出し、検出したカメラブレに応じて撮像中にブレ
補正光学系を移動させることにより、カメラブレに伴う
画像ブレの発生を防止するものである。
2. Description of the Related Art Conventionally, the following method has been proposed as a measure against camera shake. A first method is to incorporate an image stabilizing optical system in a photographing optical system of a camera, detect a camera shake with a camera shake sensor, and move the image stabilizing optical system during imaging according to the detected camera shake to obtain an image associated with the camera shake. This is to prevent blurring.

【0003】第2の方法は、撮像中のカメラブレをブレ
センサで検出して記録しておき、該カメラブレ情報に基
づき撮像した画像を画像処理することによりブレ画像を
修復するものである。第3の方法は、連続して複数の画
像を撮像し、該複数の画像間の動きをパターンマッチン
グ等の手法で検出し、検出された画像間の動きに基づい
て複数の画像を合成してぶれを補正した画像を生成する
ものである。
In the second method, a camera shake during image pickup is detected and recorded by a shake sensor, and a shake image is restored by performing image processing on an image taken based on the camera shake information. The third method is to continuously capture a plurality of images, detect a movement between the plurality of images by a method such as pattern matching, and combine the plurality of images based on the detected movement between the images. This is to generate an image in which the blur has been corrected.

【0004】[0004]

【発明が解決しようとする課題】しかしながら上記従来
の第1の方法および第2の方法では、カメラにブレセン
サを内蔵する必要があり、カメラの大型化を招くととも
に、コストが増大するといった問題があった。
However, in the above-mentioned first and second methods, it is necessary to incorporate a blur sensor in the camera, which causes a problem that the size of the camera is increased and the cost is increased. Was.

【0005】また上記従来の第1の方法では、ブレを補
正するためにブレ補正光学系を移動させるための機械的
な移動機構が必要であり、カメラの大型化を招くととも
に、コストが増大し、バッテリ消耗が激しいといった問
題があった。また上記従来の第1の方法および第2の方
法では、ブレをブレセンサで検出しているため、露光中
の被写体の動きに起因する被写体ブレは補正できないと
いった問題があった。
Further, the first conventional method requires a mechanical movement mechanism for moving the shake correction optical system to correct the shake, which results in an increase in the size of the camera and an increase in cost. However, there is a problem that battery consumption is severe. In the first and second methods of the related art, since the blur is detected by the blur sensor, there is a problem that the subject blur caused by the movement of the subject during exposure cannot be corrected.

【0006】また上記従来の第3の方法では、複数の画
像間に発生するカメラブレは補正することができるが、
1つの画像の露光中に発生するブレは補正することがで
きないという欠点があった。また上記従来の第2の方法
および第3の方法では、ブレの有無にかかわらず一律的
にブレ補正の画像処理を行っているため、ブレがない場
合でも画像処理が終了するまで他の処理を行えないとい
う欠点があった。
In the third conventional method, camera shake occurring between a plurality of images can be corrected.
There is a disadvantage that blurring occurring during exposure of one image cannot be corrected. In the second and third methods of the related art, image processing for blur correction is uniformly performed regardless of the presence or absence of blur. Therefore, even if there is no blur, other processing is performed until the image processing is completed. There was a disadvantage that it could not be performed.

【0007】また上記従来の第2の方法および第3の方
法では、ブレ補正の画像処理を一様に行っているため、
流し撮りした画像データに対しては本来流れた画像とな
るべき背景もブレ補正されてしまい不自然な画像データ
になってしまうという欠点があった。
In the above-described conventional second and third methods, image processing for blur correction is uniformly performed.
There is a disadvantage that the background which should be an originally flowing image is subjected to blur correction with respect to the panned image data, resulting in unnatural image data.

【0008】そこで本発明は、ブレセンサおよびブレ補
正光学系を必要とせず、かつ露光中に発生する画像ブレ
や被写体ブレを必要に応じて効率的に補正できるととも
に、流し撮りをした場合でも自然なブレ補正画像データ
を生成できる電子カメラおよび画像処理システムを提供
することを目的とする。
Accordingly, the present invention eliminates the need for a blur sensor and a blur correction optical system, can efficiently correct image blur and subject blur generated during exposure as needed, and can provide a natural image even when panning is performed. An object of the present invention is to provide an electronic camera and an image processing system that can generate blur-corrected image data.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の発明による電子カメラでは、被写
体像を撮像する撮像手段と、画像データを記録するため
の記録手段と、前記撮像手段により第1の画像データと
第2の画像データを連続して生成する画像生成手段と、
前記第1の画像データと前記第2の画像データに基づ
き、前記第1の画像データまたは前記第2の画像データ
がぶれているかいないかを判別するブレ判別手段と、前
記第1の画像データと前記第2の画像データに基づき、
画像処理によりぶれを補正した第3の画像データを生成
する画像処理手段とを備え、前記ブレ判別手段により前
記第1の画像データまたは前記第2の画像データがぶれ
ていないと判別された場合は、前記画像処理手段はぶれ
補正の画像処理を行わず、前記記録手段は前記第1の画
像データまたは前記第2の画像データの一方の画像デー
タを記録するとともに、前記ブレ判別手段により前記第
1の画像データまたは前記第2の画像データがぶれてい
ると判別された場合は、前記画像処理手段はぶれ補正の
画像処理を行い、前記記録手段は前記第3の画像データ
を記録することを特徴とする。
In order to achieve the above object, in an electronic camera according to the present invention, there is provided an image pickup means for picking up an image of a subject, a recording means for recording image data, and Means for continuously generating first image data and second image data by means;
A blur determining unit configured to determine whether the first image data or the second image data is blurred based on the first image data and the second image data; Based on the second image data,
Image processing means for generating third image data in which blur has been corrected by image processing, and when the blur determining means determines that the first image data or the second image data is not blurred, The image processing means does not perform image processing for blur correction, and the recording means records one of the first image data and the second image data, and the first If it is determined that the image data or the second image data is blurred, the image processing means performs image processing for blur correction, and the recording means records the third image data. And

【0010】請求項2に記載の発明による電子カメラで
は、被写体像を撮像する撮像手段と、前記撮像手段によ
る被写体像の撮像の露光時間を制御する露光制御手段
と、画像データを記録するための記録手段と、前記露光
制御手段と前記撮像手段により第1の露光時間で撮像し
た第1の画像データと、前記第1の露光時間より長い第
2の露光時間で撮像した第2の画像データを連続して生
成する画像生成手段と、前記画像生成手段により生成さ
れた前記第1の画像データと前記第2の画像データに基
づき、前記第2の画像データに含まれる空間周波数成分
を補正することによりぶれを補正した第3の画像データ
を生成する画像処理手段と、前記第1の画像データと前
記第2の画像データに基づき、前記第2の画像データが
ぶれているかいないかを判別するブレ判別手段とを備
え、前記ブレ判別手段により前記第2の画像データがぶ
れていないと判別された場合は、前記画像処理はぶれを
補正する処理を行わず、前記記録手段は前記第2の画像
データを記録するとともに、前記ブレ判別手段により前
記第2の画像データがぶれていないと判別された場合
は、前記画像処理はぶれを補正する処理を行い、前記記
録手段はぶれを補正した前記第3の画像データを記録す
ることを特徴とする。
In an electronic camera according to a second aspect of the present invention, an image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up the subject image by the image pickup means, and an image control means for recording image data. Recording means, first image data captured at a first exposure time by the exposure control means and the imaging means, and second image data captured at a second exposure time longer than the first exposure time. Image generation means for continuously generating, and correcting a spatial frequency component included in the second image data based on the first image data and the second image data generated by the image generation means Image processing means for generating third image data whose blur has been corrected by the method, and whether or not the second image data is blurred based on the first image data and the second image data When the second image data is determined not to be blurred by the blur determination means, the image processing does not perform the processing for correcting the blur, and the recording means In addition to recording the second image data, if the blur determination unit determines that the second image data is not blurred, the image processing performs a process of correcting blur, and the recording unit performs blur correction. The corrected third image data is recorded.

【0011】請求項3に記載の発明による電子カメラで
は、被写体像を撮像する撮像手段と、前記撮像手段によ
る被写体像の撮像の露光時間を制御する露光制御手段
と、前記露光制御手段と前記撮像手段により第1の露光
時間で撮像した第1の画像データと、前記第1の露光時
間より長い第2の露光時間で撮像した第2の画像データ
を連続して生成する画像生成手段と、前記第2の画像デ
ータを撮像する際の流し撮りの方向を設定する流し撮り
方向設定手段と、前記画像生成手段により生成された前
記第1の画像データと前記第2の画像データに基づき、
前記第2の画像データに含まれる空間周波数成分を補正
することにより第3の画像データを生成する画像処理手
段とを備え、前記画像処理手段は、前記流し撮り方向設
定手段により設定された流し撮り方向に応じて、前記第
2の画像データに含まれる空間周波数成分を補正して第
3の画像データを生成する際の画像処理の内容を変更す
ることを特徴とする。
In the electronic camera according to the third aspect of the present invention, an image pickup means for picking up an object image, an exposure control means for controlling an exposure time of the image pickup of the object image by the image pickup means, the exposure control means and the image pickup means Means for continuously generating first image data picked up by means for a first exposure time, and second image data picked up for a second exposure time longer than the first exposure time; A panning direction setting unit that sets a panning direction when capturing the second image data, based on the first image data and the second image data generated by the image generation unit,
Image processing means for generating third image data by correcting a spatial frequency component included in the second image data, wherein the image processing means comprises a panning set by the panning direction setting means The method is characterized in that the spatial frequency component included in the second image data is corrected to change the content of the image processing when the third image data is generated according to the direction.

【0012】請求項4に記載の発明による電子カメラで
は、請求項3に記載の電子カメラにおいて、前記画像処
理手段は、前記流し撮り方向設定手段により設定された
流し撮り方向が水平方向の場合は、前記第2の画像デー
タに含まれる垂直方向の空間周波数成分を主として補正
することにより第3の画像データを生成し、前記流し撮
り方向設定手段により設定された流し撮り方向が垂直方
向の場合は、前記第2の画像データに含まれる水平方向
の空間周波数成分を主として補正することにより第3の
画像データを生成することを特徴とする。
According to a fourth aspect of the present invention, in the electronic camera according to the third aspect, the image processing means is arranged so that the panning direction set by the panning direction setting means is horizontal. The third image data is generated by mainly correcting the vertical spatial frequency component included in the second image data, and when the panning direction set by the panning direction setting means is the vertical direction, The third image data is generated by mainly correcting horizontal spatial frequency components included in the second image data.

【0013】請求項5に記載の発明による電子カメラで
は、被写体像を撮像する撮像手段と、前記撮像手段によ
る被写体像の撮像の露光時間を制御する露光制御手段
と、前記露光制御手段と前記撮像手段により第1の露光
時間で撮像した第1の画像データと、前記第1の露光時
間より長い第2の露光時間で撮像した第2の画像データ
を連続して生成する画像生成手段と、前記第1の画像デ
ータと前記第2の画像データに基づき、前記第2の画像
データを撮像した際の流し撮りの方向を検出する流し撮
り方向検出手段と、前記画像生成手段により生成された
前記第1の画像データと前記第2の画像データに基づ
き、前記第2の画像データに含まれる空間周波数成分を
補正することにより第3の画像データを生成する画像処
理手段とを備え、前記画像処理手段は、前記流し撮り方
向検出手段により検出された流し撮り方向に応じて、前
記第2の画像データに含まれる空間周波数成分を補正し
て第3の画像データを生成する際の画像処理の内容を変
更することを特徴とする。
In an electronic camera according to a fifth aspect of the present invention, an image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up the subject image by the image pickup means, the exposure control means and the image pickup means Means for continuously generating first image data picked up by means for a first exposure time, and second image data picked up for a second exposure time longer than the first exposure time; A panning direction detection unit that detects a panning direction when the second image data is captured, based on the first image data and the second image data, and the second image generated by the image generation unit. An image processing unit that generates third image data by correcting spatial frequency components included in the second image data based on the first image data and the second image data; The image processing means corrects a spatial frequency component included in the second image data according to the panning direction detected by the panning direction detection means, and performs image processing when generating third image data. Is characterized by changing the content of

【0014】請求項6に記載の発明による電子カメラで
は、請求項5に記載の電子カメラにおいて、前記画像処
理手段は、前記流し撮り方向検出手段により検出された
流し撮り方向が水平方向の場合は、前記第2の画像デー
タに含まれる垂直方向の空間周波数成分を主として補正
することにより第3の画像データを生成し、前記流し撮
り方向検出手段により検出された流し撮り方向が垂直方
向の場合は、前記第2の画像データに含まれる水平方向
の空間周波数成分を主として補正することにより第3の
画像データを生成することを特徴とする。
According to a sixth aspect of the present invention, in the electronic camera according to the fifth aspect, the image processing means is arranged so that the panning direction detected by the panning direction detecting means is horizontal. The third image data is generated by mainly correcting the vertical spatial frequency component included in the second image data, and the panning direction detected by the panning direction detecting means is vertical. The third image data is generated by mainly correcting horizontal spatial frequency components included in the second image data.

【0015】請求項7に記載の発明による電子カメラで
は、請求項2および請求項3および請求項5に記載の電
子カメラにおいて、前記第2の露光時間は画像データの
輝度レベルが適正となるような適正露光量を与える露光
時間であるとともに、前記第1の露光時間は前記第2の
露光時間の1/2程度以下であることを特徴とする電子
カメラ。
According to a seventh aspect of the present invention, in the electronic camera according to the second, third, or fifth aspect, the second exposure time is such that the brightness level of the image data is appropriate. An electronic camera characterized in that the first exposure time is not more than about 1/2 of the second exposure time, as well as an exposure time that gives a proper exposure amount.

【0016】請求項8に記載の発明による電子カメラで
は、被写体像を撮像し、画像データを生成する撮像手段
と、前記画像データを画像処理することにより、前記画
像データに含まれるブレの影響を補正する画像処理手段
と、前記画像データにブレの影響があるかいないかを判
別する判別手段とを備え、前記画像処理手段は、前記判
別手段により前記画像データにブレの影響があると判別
された場合のみ、前記画像データに含まれるブレの影響
を補正する画像処理を行うことを特徴とする。
In the electronic camera according to the present invention, an image pickup means for picking up an image of a subject and generating image data, and processing the image data to reduce the influence of blur contained in the image data. Image processing means for correcting, and determining means for determining whether or not the image data is affected by blur, wherein the image processing means determines that the image data is affected by blur by the determining means. Only in the case where image processing is performed, image processing for correcting the influence of blur included in the image data is performed.

【0017】請求項9に記載の発明による画像処理シス
テムでは、被写体像を撮像する撮像手段と、前記撮像手
段による被写体像の撮像の露光時間を制御する露光制御
手段と、前記露光制御手段と前記撮像手段により第1の
露光時間で撮像した第1の画像データと、前記第1の露
光時間より長い第2の露光時間で撮像した第2の画像デ
ータを連続して生成する画像生成手段とを備える電子カ
メラと、前記電子カメラにより生成された前記第1の画
像データと前記第2の画像データに基づき、前記第2の
画像データを撮像した際の流し撮りの方向を検出すると
ともに、前記第1の画像データと前記第2の画像データ
に基づき、前記第2の画像データに含まれる空間周波数
成分を流し撮り方向に応じて補正し、第3の画像データ
を生成する画像処理装置とからなることを特徴とする。
In an image processing system according to a ninth aspect of the present invention, there is provided an image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up the subject image by the image pickup means, the exposure control means, A first image data captured by a first exposure time by an imaging unit; and an image generation unit configured to continuously generate second image data captured by a second exposure time longer than the first exposure time. An electronic camera provided, based on the first image data and the second image data generated by the electronic camera, detects a direction of a panning shot when the second image data is captured, and An image processor that corrects a spatial frequency component included in the second image data according to a follow-up shooting direction based on the first image data and the second image data, and generates third image data. Characterized in that comprising the device.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について説明する。図1および図2は、本発明を
適用した電子カメラ1の実施形態の構成を示す斜視図で
ある。図1は電子カメラ1を前方から見た図であり、電
子カメラ1の前面には被写体像を形成する撮影レンズ
2、被写体の撮影範囲の確認に用いられるファインダ
4、撮影時に被写体を照明する閃光を発する発光部(ス
トロボ)5、被写体の色を測色する測色素子6、被写体
の輝度を測光する測光素子7が設けられている。また電
子カメラ1の上面には被写体の撮影時に操作されるシャ
ッタ釦3が設けられている。
Embodiments of the present invention will be described below with reference to the drawings. 1 and 2 are perspective views showing the configuration of an embodiment of an electronic camera 1 to which the present invention has been applied. FIG. 1 is a view of the electronic camera 1 as viewed from the front. A photographing lens 2 for forming a subject image, a finder 4 used for confirming a photographing range of the subject, and a flashlight for illuminating the subject at the time of photographing are provided in front of the electronic camera 1. , A colorimetric element 6 for measuring the color of the subject, and a photometric element 7 for measuring the brightness of the subject. On the upper surface of the electronic camera 1, there is provided a shutter button 3 which is operated at the time of photographing a subject.

【0019】図2は電子カメラ1を後方から見た図であ
り、ファインダ4の接眼部、撮像した画像を表示する表
示部(表示LCD)8、流し撮り撮影時に流し撮りの方
向を設定するための流し撮り方向設定部材41、ブレ補
正を行うか否かを選択するためのブレ補正選択部材42
が設けられている。また電子カメラ1の側面には撮像し
た画像情報(画像データ)を記録するためのリムーバブ
ルな記憶媒体(メモリカード)を装着するためのメモリ
カードスロット9が設けられている。
FIG. 2 is a view of the electronic camera 1 as viewed from the rear. The eyepiece of the finder 4, a display unit (display LCD) 8 for displaying a captured image, and the direction of panning during panning shooting are set. Correction setting member 41 for selecting whether or not to perform shake correction
Is provided. On the side of the electronic camera 1, a memory card slot 9 for mounting a removable storage medium (memory card) for recording captured image information (image data) is provided.

【0020】次に、電子カメラ1の内部の電気的構成
を、図3に示すブロック図を参照して説明する。CPU
10は、電子カメラ全体の動作を制御する手段であっ
て、ROM26に記憶された制御プログラムに基づき、
CPU制御バス11に接続した各部を制御するようにな
されている。
Next, an electric configuration inside the electronic camera 1 will be described with reference to a block diagram shown in FIG. CPU
10 is a means for controlling the operation of the entire electronic camera, based on a control program stored in the ROM 26,
Each unit connected to the CPU control bus 11 is controlled.

【0021】撮像手段として用いられるCCD20は複
数の画素を備えており、各画素に結像した光画像を画像
信号(電気信号)に光電変換するようになされている。
デジタルシグナルプロセッサ(DSP)21は、CCD
20にCCD水平駆動パルスを供給するとともに、CC
D駆動回路19を制御し、CCD20にCCD垂直駆動
パルスを供給させるようになされている。
The CCD 20 used as the image pickup means has a plurality of pixels, and photoelectrically converts a light image formed on each pixel into an image signal (electric signal).
The digital signal processor (DSP) 21 is a CCD
20 and a CCD horizontal drive pulse.
The D drive circuit 19 is controlled to supply a CCD vertical drive pulse to the CCD 20.

【0022】画像調整部22は、CPU10に制御さ
れ、CCD20が光電変換した画像信号を所定のタイミ
ングでサンプリングし、そのサンプリングした信号を、
所定のレベルに増幅するようになされている。アナログ
/デジタル変換回路(AD変換回路)23は、画像調整
部22でサンプリングした画像信号を所定のビット数で
量子化(デジタル化)し、画像データとしてDSP21
に供給するようになされている。
The image adjusting unit 22 is controlled by the CPU 10 to sample the image signal photoelectrically converted by the CCD 20 at a predetermined timing, and
It is designed to amplify to a predetermined level. The analog / digital conversion circuit (AD conversion circuit) 23 quantizes (digitizes) the image signal sampled by the image adjustment unit 22 with a predetermined number of bits, and converts the image signal into DSP 21 as image data.
To be supplied.

【0023】DSP21は、バッファメモリ30および
メモリカード25に接続されるデータバス24を制御
し、AD変換回路23より供給された画像データを画像
圧縮してバッファメモリ30に一旦記憶させた後、バッ
ファメモリ30に記憶した画像データを読み出し、その
画像データを記録手段として用いられるメモリカード2
5に記録するようになされている。
The DSP 21 controls the data bus 24 connected to the buffer memory 30 and the memory card 25. The DSP 21 compresses the image data supplied from the AD conversion circuit 23 and temporarily stores the image data in the buffer memory 30. The image data stored in the memory 30 is read out, and the image data is read from the memory card 2 used as a recording unit.
5 is recorded.

【0024】DSP21は、バッファメモリ3やメモリ
カード25から画像データを読み出し、その画像データ
を伸張した後、伸張後の画像データをフレームメモリ2
7に記憶させ、表示LCD8に表示させるようになされ
ている。DSP21は、メモリカード25への記録、画
像データのバッファメモリ30への記憶などにおけるデ
ータ入出力のタイミング管理を行うようになされてい
る。
The DSP 21 reads out image data from the buffer memory 3 or the memory card 25, decompresses the image data, and stores the decompressed image data in the frame memory 2.
7 and displayed on the display LCD 8. The DSP 21 manages the timing of data input / output in recording on the memory card 25, storing image data in the buffer memory 30, and the like.

【0025】DSP21は、画像処理手段として後述す
るブレ画像を補正するための画像処理を行う。バッファ
メモリ30は、メモリカード25に対するデータの入出
力の速度と、CPU10やDSP21などにおける処理
速度の違いを緩和するために利用される。
The DSP 21 performs image processing for correcting a blurred image, which will be described later, as image processing means. The buffer memory 30 is used to reduce the difference between the data input / output speed with respect to the memory card 25 and the processing speed of the CPU 10, the DSP 21, and the like.

【0026】シャッタ釦3は、撮影指示のためにユーザ
ーにより操作される操作部材であって、非操作状態と半
押し状態と全押し状態の3つの操作状態に応じた信号を
CPU10に出力する。CPU10はシャッタ釦3の操
作により撮影指示(全押し)がなされた場合は、DSP
21に撮影指示コマンドを送り、上述の撮像動作が実行
されるようになされている。
The shutter button 3 is an operation member operated by a user to give a photographing instruction, and outputs signals to the CPU 10 according to three operation states: a non-operation state, a half-press state, and a full-press state. When a photographing instruction (full press) is given by operating the shutter button 3, the CPU 10
A photographing instruction command is sent to the CPU 21 so that the above-described photographing operation is executed.

【0027】測光素子7は、被写体およびその周囲の光
量を測定し、その測定結果を測光回路34に出力するよ
うになされている。測光回路34は、測光素子7より供
給された測光結果であるアナログ信号に対して所定の処
理を施した後、デジタル信号に変換して測光データと
し、その測光データをCPU10に出力するようになさ
れている。
The photometric element 7 measures the light quantity of the object and its surroundings, and outputs the measurement result to the photometric circuit 34. The photometric circuit 34 performs predetermined processing on an analog signal that is a photometric result supplied from the photometric element 7, converts the analog signal into a digital signal, generates photometric data, and outputs the photometric data to the CPU 10. ing.

【0028】測色素子6は、被写体およびその周囲の色
温度を測定し、その測定結果を測色回路33に出力する
ようになされている。測色回路33は、測色素子6より
供給された測色結果であるアナログ信号に対して所定の
処理を施した後、デジタル信号に変換して測色データと
し、その測色データをCPU30に出力するようになさ
れている。
The colorimetric element 6 measures the color temperature of the object and its surroundings, and outputs the measurement result to the colorimetric circuit 33. The colorimetric circuit 33 performs predetermined processing on the analog signal that is the colorimetric result supplied from the colorimetric element 6, converts the analog signal into a digital signal to obtain colorimetric data, and sends the colorimetric data to the CPU 30. The output has been made.

【0029】タイマ28は、時計回路を内蔵し、現在の
時刻に対応する時間データをCPU10に出力するよう
になされている。絞り駆動回路16は、絞り18の開口
径をステップモータ17により所定の値に設定するよう
になされている。
The timer 28 has a built-in clock circuit and outputs time data corresponding to the current time to the CPU 10. The aperture driving circuit 16 sets the aperture diameter of the aperture 18 to a predetermined value by a step motor 17.

【0030】絞り18は、撮影レンズ2とCCD20の
間に配置され、撮影レンズ2からCCD20に入射する
光の開口径を変更するようになされている。シャッタ駆
動回路13、ステップモータ14、シャッタ15は露光
制御手段として用いられており、シャッタ駆動回路13
は、シャッタ15をステップモータ14により動作さ
せ、CCD20の露光時間を制御するようになされてい
る。
The diaphragm 18 is arranged between the photographing lens 2 and the CCD 20 to change the aperture diameter of light incident on the CCD 20 from the photographing lens 2. The shutter drive circuit 13, the step motor 14, and the shutter 15 are used as exposure control means.
The shutter 15 is operated by the stepping motor 14 to control the exposure time of the CCD 20.

【0031】シャッタ15は、撮影レンズ2とCCD2
0の間に配置され、撮影レンズ2からCCD20に入射
する光の遮断と透過を制御するようになされている。C
PU10は、測光回路34および測色回路33を制御
し、測光素子7の測光データを受け取るとともに、測色
素子6の測色データを受け取るようになされている。
The shutter 15 includes the photographing lens 2 and the CCD 2
0, and controls the blocking and transmission of light incident on the CCD 20 from the photographing lens 2. C
The PU 10 controls the photometric circuit 34 and the colorimetric circuit 33, and receives the photometric data of the photometric element 7 and the colorimetric data of the colorimetric element 6.

【0032】CPU10は、測光データと所定のテーブ
ルを参照して、CCD20により撮像される画像データ
の輝度値が適正なレベルとなるように、絞り18の絞り
値データとシャッタ15のシャッタ速度(露光時間)デ
ータを決定し、それらのデータを絞り駆動回路およびシ
ャッタ駆動回路に供給するようになされている。
The CPU 10 refers to the photometric data and a predetermined table so that the aperture value data of the aperture 18 and the shutter speed (exposure) of the shutter 15 are adjusted so that the luminance value of the image data picked up by the CCD 20 becomes an appropriate level. Time) data is determined, and the data is supplied to an aperture driving circuit and a shutter driving circuit.

【0033】CPU10は、所定のテーブルを参照し
て、測色回路33より供給された測色データ(色温度)
に対応するホワイトバランス調整値を算出し、そのホワ
イトバランス調整値を画像調整部22に供給するように
なされている。CPU10は、測光データに応じて被写
体の輝度が所定値以下の場合は、撮影時にストロボ駆動
回路35を制御して、ストロボ5を適宜発光させるよう
になされている。
The CPU 10 refers to a predetermined table to measure the colorimetric data (color temperature) supplied from the colorimetric circuit 33.
Is calculated, and the white balance adjustment value is supplied to the image adjustment unit 22. When the brightness of the subject is equal to or less than a predetermined value according to the photometric data, the CPU 10 controls the strobe driving circuit 35 at the time of photographing so that the strobe 5 emits light as appropriate.

【0034】CPU10は、タイマ28より供給される
時間データに従って、撮影した日時の情報とファイルネ
ームを画像データのヘッダ情報として、メモリカード2
5の撮影画像記録領域に記録するようになされている。
CPU10は、レンズ駆動回路12を制御し、撮影レン
ズ2を移動させることにより、オートフォーカス動作を
行うようになされている。
In accordance with the time data supplied from the timer 28, the CPU 10 uses the information of the shooting date and time and the file name as header information of the image data,
5 is recorded in the photographed image recording area.
The CPU 10 controls the lens driving circuit 12 to move the photographing lens 2 to perform an autofocus operation.

【0035】CPU10は、焦点距離検出回路44を介
し、撮影レンズ2が設定されている焦点距離のデータを
読み出すようになされている。CPU10は、ファイン
ダ内表示回路31を制御して、各種動作における設定な
どをファインダ内表示LCD32に表示させるようにな
されている。
The CPU 10 reads out data of the focal length set by the photographing lens 2 via the focal length detecting circuit 44. The CPU 10 controls the display circuit 31 in the finder to display settings in various operations on the LCD 32 in the finder.

【0036】CPU10は、インタフェース29を介し
て、所定の外部装置(図示せず)と所定のデータの授受
を行うようになされている。CPU10は、各種切換ス
イッチおよび操作釦40からの信号を受け取り、適宜処
理するようになされている。各種切換スイッチおよび操
作釦40には、カメラ動作を近接撮影に最適化した動作
モード(マクロモード)に切り換えるために使用者によ
り操作される切換スイッチが含まれる。CPU10は、
マクロモードに切り換えられた場合は、レンズ駆動回路
12を制御し、撮影レンズ2を移動させることにより、
近接撮影に適した光学系配置となるようになされてい
る。
The CPU 10 exchanges predetermined data with a predetermined external device (not shown) via the interface 29. The CPU 10 receives signals from the various changeover switches and the operation buttons 40, and performs appropriate processing. The various changeover switches and the operation buttons 40 include changeover switches operated by a user to switch the camera operation to an operation mode (macro mode) optimized for close-up shooting. CPU 10
When the mode is switched to the macro mode, by controlling the lens driving circuit 12 and moving the taking lens 2,
The optical system arrangement is suitable for close-up photography.

【0037】CPU10は、画像生成手段としてCCD
20、シャッタ駆動回路13を制御し、後述するような
露光時間の異なる画像を生成させる。ブレ補正選択部材
42は、ブレ補正を行うか否かを指示するために使用者
により操作される操作部材であって、操作状態に応じた
信号をCPU10に出力する。CPU10は、ブレ補正
選択部材42の操作に応じ、バッファメモリに格納され
た画像情報(画像データ)に対して後述するブレ補正処
理を実行するようになされている。
The CPU 10 has a CCD as an image generating means.
20, controlling the shutter drive circuit 13 to generate images having different exposure times as described later. The shake correction selection member 42 is an operation member operated by a user to instruct whether or not to perform shake correction, and outputs a signal corresponding to an operation state to the CPU 10. The CPU 10 performs a later-described blur correction process on image information (image data) stored in the buffer memory in response to an operation of the blur correction selection member 42.

【0038】流し撮り方向設定部材41は、流し撮りを
行う場合の流し撮りの方向を指示するためにユーザーに
より操作される操作部材であって、操作状態に応じた信
号をCPU10に出力する。CPU10は、流し撮り方
向設定部材41の操作に応じ、バッファメモリに格納さ
れた画像情報(画像データ)に対して後述するブレ補正
処理を実行する際の処理を変更するようになされてい
る。なお流し撮りとは、背景に対して移動する主要被写
体を撮影する際に、主要被写体が露光中の移動によりぶ
れるのを防ぐために、露光中に被写体の動きに合わせて
カメラを振りながら撮影する手法である。流し撮り方向
設定部材41の設定状態としては、流し撮りしない、画
面の水平方向に流し撮りする、画面の垂直方向に流し撮
りするの3つの状態がある。
The panning direction setting member 41 is an operation member operated by the user to instruct the panning direction in performing panning, and outputs a signal to the CPU 10 according to the operation state. The CPU 10 changes the processing at the time of executing the blur correction processing to be described later on the image information (image data) stored in the buffer memory in accordance with the operation of the panning direction setting member 41. In addition, panning is a method of shooting the main subject moving against the background while shaking the camera according to the movement of the subject during exposure to prevent the main subject from blurring due to movement during exposure It is. As the setting state of the panning direction setting member 41, there are three states of not panning, panning in the horizontal direction of the screen, and panning in the vertical direction of the screen.

【0039】ストロボモード設定部材43は、ストロボ
5を発光させて撮影を行う場合の動作モード(ストロボ
モード)を設定するためにユーザーにより操作される操
作部材であって、操作状態に応じた信号をCPU10に
出力する。ストロボモードとしては、ノーマルモードと
スローシンクロモードがあり、ノーマルモードでは測光
素子7により出力される測光データが所定値より暗い輝
度を示す場合にCPU10は撮影時に自動的にストロボ
5を発光させる。この時シャッタ速度の高速側はシャッ
タが全開する限度のシャッタ速度(例えば1/60秒)
以下に制限され、また低速側はブレが生じないシャッタ
速度(例えば撮影レンズ2の焦点距離をf(mm)とす
ると1/f、ただし焦点距離は35mm銀塩カメラ換
算)以上に制限される。
The strobe mode setting member 43 is an operation member operated by a user to set an operation mode (strobe mode) when shooting with the strobe 5 emitting light, and outputs a signal corresponding to the operation state. Output to CPU10. The flash mode includes a normal mode and a slow synchro mode. In the normal mode, when the photometric data output from the photometric element 7 indicates a luminance lower than a predetermined value, the CPU 10 automatically causes the flash 5 to emit light at the time of shooting. At this time, the high-speed side of the shutter speed is the shutter speed (for example, 1/60 second) at which the shutter is fully opened.
On the low-speed side, the shutter speed is limited to a shutter speed that does not cause blurring (for example, 1 / f when the focal length of the photographing lens 2 is f (mm), but the focal length is 35 mm in terms of a silver halide camera).

【0040】一方スローシンクロモードでは、ストロボ
照明をしつつ背景の雰囲気も残して撮影するために、ス
トロボ撮影時に上記シャッタ速度の低速側の制限を設け
ないモードである。図4は電子カメラ1の基本的なシー
ケンスを示すフローチャートである。なおこのシーケン
スは図3のCPU10、DSP21等により実行され
る。またこのシーケンスでは、ブレ補正選択部材42は
ブレ補正を行うに設定され、流し撮り方向設定部材41
とストロボモード設定部材43は撮影者により適宜に設
定されている。
On the other hand, the slow synchro mode is a mode in which the shutter speed is not restricted to a low speed side during the flash shooting, in order to shoot with the background atmosphere and the strobe lighting. FIG. 4 is a flowchart showing a basic sequence of the electronic camera 1. This sequence is executed by the CPU 10, the DSP 21 and the like in FIG. In this sequence, the shake correction selection member 42 is set to perform shake correction, and the panning direction setting member 41 is set.
The strobe mode setting member 43 is appropriately set by the photographer.

【0041】電源オンによりシーケンスがスタートし、
S100ではシャッタ釦3が半押しされたか否かを検出
する。半押しがなされない場合はS100を繰り返す。
半押しがなされたと判断された場合にはS101に移行
し、測光素子7により被写体の輝度を測光し、測光デー
タに基づき、この被写体をCCD20により撮像する際
に画像データの輝度レベルが適正となる適正露光量を得
るための絞り値と露光時間(シャッタ速度)Tが算出さ
れる。
The sequence starts when the power is turned on,
In S100, it is detected whether or not the shutter button 3 has been half-pressed. If half-pressing is not performed, S100 is repeated.
If it is determined that the half-press has been performed, the process proceeds to S101, in which the luminance of the subject is measured by the photometric element 7, and based on the photometric data, when the subject is imaged by the CCD 20, the luminance level of the image data becomes appropriate. An aperture value and an exposure time (shutter speed) T for obtaining an appropriate exposure amount are calculated.

【0042】S102ではシャッタ釦3が全押しされた
か否かを検出する。全押しがなされない場合はS101
〜S102を繰り返す。S102でシャッタ釦3が全押
しされたと判断された場合にはS103に移行し、ステ
ップモータ17を駆動して絞り18をS101で定めら
れた絞り値に制御する。
In S102, it is detected whether or not the shutter button 3 has been fully pressed. If the full press is not performed, S101
To S102 are repeated. If it is determined in step S102 that the shutter button 3 has been fully pressed, the process proceeds to step S103, in which the step motor 17 is driven to control the aperture 18 to the aperture value determined in step S101.

【0043】S104では、マクロモードに設定されて
いるか否かを検出する。マクロモードに設定されている
場合は、近接撮影時には通常撮影に比較してブレの影響
が大きいため、ブレ補正を行う撮影を実行するためにS
109に進む。マクロモードに設定されていない場合は
S105に進む。
In S104, it is detected whether or not the macro mode is set. When the macro mode is set, the effect of blurring is greater during close-up shooting than in normal shooting.
Go to 109. If the macro mode has not been set, the process proceeds to S105.

【0044】S105では、撮影レンズ2の焦点距離が
望遠か否かを検出する。例えば焦点距離が100mm以
上であれば望遠レンズと判定する。望遠レンズの場合は
焦点距離の短いレンズに比較してブレの影響が大きいた
め、ブレ補正を行う撮影を実行するためにS109に進
む。望遠レンズでない場合はS106に進む。
In S105, it is detected whether or not the focal length of the photographing lens 2 is telephoto. For example, if the focal length is 100 mm or more, it is determined to be a telephoto lens. In the case of a telephoto lens, the effect of blurring is greater than that of a lens with a shorter focal length. Therefore, the process advances to step S109 to execute shooting for correcting blurring. If the lens is not a telephoto lens, the process proceeds to S106.

【0045】S106では、設定S101で設定された
シャッタ速度Tが撮影レンズ2の焦点距離に対し十分速
い速度であるか否かを検出する。例えば焦点距離をfと
すると、シャッタ速度Tが1/fより高速な場合に、シ
ャッタ速度Tが撮影レンズ2の焦点距離に対し十分速い
速度であると判定する。シャッタ速度が低速な場合は、
シャッタ速度が高速な場合と比較してブレの影響が大き
いため、ブレ補正を行う撮影を実行するためにS109
に進む。シャッタ速度が高速な場合はS107に進む。
In step S106, it is detected whether or not the shutter speed T set in step S101 is sufficiently high with respect to the focal length of the photographing lens 2. For example, assuming that the focal length is f, when the shutter speed T is higher than 1 / f, it is determined that the shutter speed T is sufficiently higher than the focal length of the photographing lens 2. If the shutter speed is low,
Since the effect of blurring is greater than in the case where the shutter speed is high, it is necessary to execute S109 in order to execute shooting for correcting blurring.
Proceed to. If the shutter speed is high, the process proceeds to S107.

【0046】S107では、スローシンクロモードに設
定されているか否かを検出する。スローシンクロモード
に設定されている場合は、シャッタ速度の低速側の制限
がなくなりブレの影響が大きいため、ブレ補正を行う撮
影を実行するためにS109に進む。スローシンクロモ
ードに設定されていない場合はS108に進み、通常撮
影モードへ移行する。なお通常撮影モードの動作は本発
明とは関連がないので省略する。
In S107, it is detected whether or not the slow sync mode has been set. If the slow synchro mode is set, the shutter speed is not limited on the low speed side, and the effect of blurring is large. Therefore, the process proceeds to S109 in order to execute shooting for blur correction. If the slow sync mode has not been set, the process proceeds to S108, and the mode shifts to the normal shooting mode. Note that the operation in the normal shooting mode is not related to the present invention, and will not be described.

【0047】S109においてシャッタ速度を、S10
1で定められた適正露光量が得られる露光時間Tの半分
の露光時間T/2として、ステップモータ14を駆動し
シャッタ15を動作させ、CCD20に被写体像を露光
して撮像させる。この時得られた画像を画像1とする。
In S109, the shutter speed is changed to S10
The step motor 14 is driven to operate the shutter 15 as the exposure time T / 2, which is half of the exposure time T at which the appropriate exposure amount determined in 1 is obtained, and the CCD 20 exposes the subject image to take an image. The image obtained at this time is referred to as image 1.

【0048】CCD20に蓄積された電荷は画像調整部
22、AD変換回路23を経てDSP21に運ばれる。
S110では画像1が圧縮されるが、ここでは空間周波
数の高周波成分の劣化が少ない1/8のJPEG圧縮が
行われる。そしてS111ではこの露光量の少ない画像
1の再生を禁止するために、再生を禁止するフラグに1
が記録される。このことにより、露出不足の暗い画像1
が表示されることを防ぐことができる。そしてS112
で画像1はバッファメモリ30に記録される。
The electric charges stored in the CCD 20 are transferred to the DSP 21 via the image adjustment unit 22 and the AD conversion circuit 23.
In step S110, the image 1 is compressed. Here, 1/8 JPEG compression with little deterioration of the high frequency component of the spatial frequency is performed. Then, in S111, in order to prohibit the reproduction of the image 1 having a small exposure amount, the reproduction prohibition flag is set to 1
Is recorded. As a result, the underexposed dark image 1
Can be prevented from being displayed. And S112
Thus, the image 1 is recorded in the buffer memory 30.

【0049】S113ではS109の撮影と同じ絞り値
により、適正露光時間Tで画像の露光が行われる。この
時得られた画像を画像2とする。そしてS114で、適
正露光量で撮像された画像2は表示LCD8に表示され
る。このことにより、暗い画像1ではなく輝度レベルが
適正な画像2が表示されるので、使用者は適正な露光量
で露光が行われたことを確認できる。
In step S113, the image is exposed for an appropriate exposure time T using the same aperture value as in the shooting in step S109. The image obtained at this time is referred to as image 2. Then, in S114, the image 2 captured with the appropriate exposure amount is displayed on the display LCD 8. As a result, the image 2 having an appropriate luminance level is displayed instead of the dark image 1, so that the user can confirm that the exposure has been performed with the appropriate exposure amount.

【0050】S115において画像2が1/16にJP
EG圧縮される。これは画像2は手ブレによって画像の
空間周波数の高周波成分が無くなっており、そのために
1/16で圧縮しても画質の劣化が少ないためである。
このように空間周波数の高周波成分を多く含む画像1は
低い圧縮率で、高周波成分をあまり含まない画像2は高
い圧縮率で圧縮することにより、効率的にバッファメモ
リを使用することが可能になっている。
In step S115, the image 2 is reduced to a 1/16 JP.
EG compression is performed. This is because the image 2 loses the high frequency component of the spatial frequency of the image due to camera shake, and therefore, even if the image 2 is compressed at 1/16, the deterioration of the image quality is small.
As described above, the image 1 containing many high-frequency components of the spatial frequency is compressed at a low compression ratio, and the image 2 containing little high-frequency components is compressed at a high compression ratio, so that the buffer memory can be used efficiently. ing.

【0051】S116で画像2はバッファメモリ30に
記録される。S117では、異なる露光時間により得ら
れた画像1と画像2の空間周波数成分に差があるか否か
を検出する。例えばフーリエ変換を施すことにより求め
た、画像1と画像2の空間周波数領域におけるMTF
(modulation transfer function)を比較することによ
り、高周波成分において画像2のMTFが画像1のMT
Fより所定量低下していれば、ブレにより高周波成分が
減少したと判断し、S119以降のブレ画像補正処理を
行う。高周波成分において画像2のMTFが画像1のM
TFより所定量低下していなければ差がないと判断し、
ブレ画像補正処理は不要としてS118に進む。
At S 116, the image 2 is recorded in the buffer memory 30. In S117, it is detected whether or not there is a difference between the spatial frequency components of the images 1 and 2 obtained by different exposure times. For example, the MTF in the spatial frequency domain of the image 1 and the image 2 obtained by performing the Fourier transform
(Modulation transfer function), the MTF of image 2 in the high frequency component
If it has decreased by a predetermined amount from F, it is determined that the high-frequency component has decreased due to the blur, and the blur image correction processing in S119 and thereafter is performed. In the high frequency component, the MTF of the image 2 is M
It is determined that there is no difference if it is not lower than the TF by a predetermined amount,
The flow proceeds to S118 as the blurred image correction processing is unnecessary.

【0052】S118ではバッファ30に記録された画
像1を消去し、画像2をメモリカード25に記録する。
S119では、ブレ画像補正処理として画像1と画像2
からぶれを補正した画像3を作成する。S119の画像
処理の詳細内容については後述の図5と図6および図9
のフローチャートで説明する。
In S118, the image 1 recorded in the buffer 30 is deleted, and the image 2 is recorded in the memory card 25.
In step S119, the image 1 and the image 2 are
An image 3 in which the blur is corrected is created. The details of the image processing in step S119 will be described later with reference to FIGS.
This will be described with reference to the flowchart of FIG.

【0053】S120で画像1と画像2がバッファメモ
リ30から消去された後、S121で画像3がメモリカ
ード25に記録され、カメラの基本シーケンスが終了す
る。次に図5と図6のブレ画像を補正処理を行うフロー
チャート(図4のS119に対応)を説明する。なお画
像1のデータD1(x、y)および画像2のデータD2
(x、y)は、図7に示すようなマトリックスデータで
あり、xの最大値はXmax、yの最大値はYmaxで
ある。また画像1および画像2は、バッファメモリ30
に記憶されている圧縮されたデータを伸張して空間座標
のデータに戻したものである。また画像1および画像2
は輝度情報の他に色情報も含まれるが、簡単のため輝度
情報であるとして以下の説明を行う。また画像1および
画像2は8ビットで量子化されたデータとし、黒レベル
が0、白レベルが255として以下の説明を行う。
After the images 1 and 2 are erased from the buffer memory 30 in S120, the image 3 is recorded on the memory card 25 in S121, and the basic sequence of the camera ends. Next, a flowchart (corresponding to S119 in FIG. 4) for performing the blurred image correction processing in FIGS. 5 and 6 will be described. Note that data D1 (x, y) of image 1 and data D2 of image 2
(X, y) is matrix data as shown in FIG. 7, where the maximum value of x is Xmax and the maximum value of y is Ymax. The image 1 and the image 2 are stored in the buffer memory 30.
Are expanded to return to the data of the space coordinates. Image 1 and Image 2
Although color information is included in addition to luminance information, for simplicity, the following description will be made on the assumption that it is luminance information. Further, the following description will be made on the assumption that the image 1 and the image 2 are 8-bit quantized data, the black level is 0, and the white level is 255.

【0054】まず図5のS200では各画素の位置を示
す座標パラメータx、yが1に初期化されるとともに、
水平方向流し撮りフラグH、垂直方向流し撮りフラグV
が0に初期化される。S201で画像1より8×8個の
画素データブロックの画像データD1(x、y)〜D1
(x+7、y+7)が読み出され、S202で2倍され
る。これは画像1の露光量が適正値の半分であった為で
ある。なおデータは256以上になったとしても、その
情報はそのまま保持する。これは白飛びが発生する箇所
は、露光時間の短い画像1のデータを参照するためであ
る。
First, in S200 of FIG. 5, coordinate parameters x and y indicating the position of each pixel are initialized to 1, and
Horizontal panning flag H, vertical panning flag V
Is initialized to 0. In S201, image data D1 (x, y) to D1 of 8 × 8 pixel data blocks from image 1
(X + 7, y + 7) is read out and doubled in S202. This is because the exposure amount of the image 1 was half of the appropriate value. Even if the data becomes 256 or more, the information is held as it is. This is to refer to the data of the image 1 having a short exposure time at the portion where the overexposure occurs.

【0055】S203では画像1の各画像データが白飛
び(200以上)や黒ツブレ(50以下)でないかを調
べる。白飛びや黒ツブレが無いと判断されたならばS2
04へ移行する。白飛びや黒ツブレがあると判断された
ならばS209へ移行する。S204では画像2より8
×8個の画素データブロックの画像データD2(x、
y)〜D2(x+7、y+7)を読み込む。そしてS2
05でS203と同様に白飛びおよび黒ツブレについて
チェックする。
In step S203, it is checked whether or not each image data of the image 1 is overexposed (200 or more) or blackened (50 or less). S2 if it is determined that there is no overexposure or black spots
Move to 04. If it is determined that there is overexposure or underexposure, the process proceeds to S209. In S204, 8 from image 2
Image data D2 (x, x) of × 8 pixel data blocks
y) to D2 (x + 7, y + 7) are read. And S2
At 05, as in S203, a check is made for overexposure and underexposure.

【0056】これは画像1と画像2から画像処理を行う
場合に白飛びや黒ツブレのある箇所を避けるためであ
る。S205で白飛びや黒ツブレが無いと判断されたな
らばS206へ移行する。白飛びや黒ツブレがあると判
断されたならばS209へ移行する。
This is for avoiding portions with overexposure and black spots when performing image processing from images 1 and 2. If it is determined in step S205 that there is no whiteout or blackout, the process proceeds to step S206. If it is determined that there is overexposure or underexposure, the process proceeds to S209.

【0057】S206では、図8(a)に示すような画
像データD1(x、y)より縦8画素、横8画素の8×
8個の画素データブロックに対して、縦横ともに周期が
8画素から2画素までの4種類の空間周波数fx、fy
(fx=1〜4、fy=1〜4)について、フーリエ変
換等の手法により空間周波数分析を行い、図8(b)に
示す如くそれぞれの空間周波数に対する振幅A1(f
x、fy)および位相P1(fx、fy)を算出する。
In step S206, the image data D1 (x, y) shown in FIG.
For eight pixel data blocks, four types of spatial frequencies fx and fy having a period of 8 pixels to 2 pixels in both the vertical and horizontal directions
(Fx = 1 to 4, fy = 1 to 4) are subjected to a spatial frequency analysis by a method such as Fourier transform, and as shown in FIG. 8B, the amplitude A1 (f
x, fy) and the phase P1 (fx, fy) are calculated.

【0058】S207では画像データD2(x、y)の
8×8個の画素データブロックに対しS206と同様に
振幅A2(fx、fy)と位相P2(fx、fy)を求
める。S208では各周波数毎にA1(fx、fy)を
A2(fx,fy)で割った比である振幅比cA(f
x,fy)および位相P2(fx、fy)とP1(f
x、fy)の差である位相差dP(fx、fy)を求め
る。
In S207, the amplitude A2 (fx, fy) and the phase P2 (fx, fy) are obtained for the 8.times.8 pixel data blocks of the image data D2 (x, y) as in S206. In S208, an amplitude ratio cA (f), which is a ratio obtained by dividing A1 (fx, fy) by A2 (fx, fy) for each frequency.
x, fy) and phases P2 (fx, fy) and P1 (f
The phase difference dP (fx, fy), which is the difference between x, fy), is obtained.

【0059】上記S201からS208の処理を横方向
xが画像の横方向の画素数の最大値Xmax以上になる
まで、また縦方向yが画像の縦方向の画素数の最大値Y
max以上になるまで、8×8個の画素データブロック
を8画素ずつ順次移動しつつ、S209、S210、S
211、S212でループを回して完了する。
The processing from S201 to S208 is repeated until the horizontal direction x is equal to or more than the maximum value Xmax of the number of pixels in the horizontal direction of the image, and the vertical direction y is the maximum value Y of the number of pixels in the vertical direction of the image.
S209, S210, S210
In steps 211 and S212, the loop is completed to complete.

【0060】このループを完了すると画像データの8×
8個の画素データブロック毎に振幅比cA(fx,f
y)および位相差dP(fx、fy)が求められている
ことになる。一般的にブレた画像においては、種々の空
間周波数成分の波がずれて重なりあうために、ブレのな
い被写体像に比較して空間周波数(特に高周波成分)の
振幅が減少するとともに、位相が変化する。すなわちシ
ャッタ速度の速い画像1の方が、シャッタ速度の遅い画
像2よりシャープに撮影されているので、空間周波数の
領域においては画像1に比較して画像2の周波数成分
(とくに高周波成分)が大きくブレの影響を受けてい
る。
When this loop is completed, 8 ×
The amplitude ratio cA (fx, f
y) and the phase difference dP (fx, fy) are determined. Generally, in a blurred image, since the waves of various spatial frequency components are shifted and overlap with each other, the amplitude of the spatial frequency (particularly, the high-frequency component) is reduced and the phase is changed as compared with a subject image without blur. I do. That is, since the image 1 with the higher shutter speed is photographed more sharply than the image 2 with the lower shutter speed, the frequency component (especially the high frequency component) of the image 2 is larger than the image 1 in the spatial frequency region. I'm affected by blur.

【0061】従って画像2の空間周波数成分(特に高周
波成分)を、振幅比cA(fx,fy)および位相差d
P(fx、fy)に基づいて画像1の空間周波数のレベ
ルに補正することにより、ぶれを補正した画像を生成す
ることが可能である。しかしながら画像1は露光時間が
短いために、信号対ノイズ比(SN比)が悪く、ノイズ
成分を多く含んでいるため、画像1に基づいて算出され
た振幅比cA(fx,fy)および位相差dP(fx、
fy)も多くのノイズを含んでおり、これに基づいて画
像2を補正してもノイズの多い画像となってしまう。
Accordingly, the spatial frequency component (especially the high frequency component) of the image 2 is converted into the amplitude ratio cA (fx, fy) and the phase difference d.
By correcting to the level of the spatial frequency of the image 1 based on P (fx, fy), it is possible to generate an image in which the blur has been corrected. However, since the exposure time of image 1 is short, the signal-to-noise ratio (SN ratio) is poor and contains a lot of noise components. Therefore, the amplitude ratio cA (fx, fy) and the phase difference calculated based on image 1 are calculated. dP (fx,
fy) also includes a lot of noise, and even if the image 2 is corrected based on the noise, the image becomes a noisy image.

【0062】そこで8×8個の画素データの各ブロック
に対応して求められた振幅比cA(fx,fy)と位相
差dP(fx、fy)を全ブロックにわたり平均するこ
とにより、ノイズの影響を除去する。そしてノイズのな
い振幅比cA(fx,fy)と位相差dP(fx、f
y)を用いて画像2を補正することにより、ノイズのな
いブレが補正された画像を生成する事が可能になる。
The influence of noise is obtained by averaging the amplitude ratio cA (fx, fy) and the phase difference dP (fx, fy) obtained for each block of 8.times.8 pixel data over all blocks. Is removed. Then, the noise-free amplitude ratio cA (fx, fy) and the phase difference dP (fx, f
By correcting the image 2 using y), it is possible to generate a blur-free image without noise.

【0063】S213では、振幅比cA(fx,fy)
と位相差dP(fx、fy)を全ブロックにわたりその
平均を求め、平均振幅比Aav(fx,fy)、平均位
相差Pav(fx、fy)とし、図6のS214に進
む。図6のS214では平均振幅比Aav(fx、f
y)の構成要素のうち、fx>fyである構成要素の総
和をとりAxsumとし、fy>fxである構成要素の
総和をとりAysumとする。ここでAxsum、Ay
sumはそれぞれx方向、y方向のブレの大きさに対応
しており、Axsum、Aysumの値が大きいほどx
方向、y方向のブレが大きいことを示す。
In S213, the amplitude ratio cA (fx, fy)
And the phase difference dP (fx, fy) is averaged over all blocks to obtain an average amplitude ratio Aav (fx, fy) and an average phase difference Pav (fx, fy), and the process proceeds to S214 in FIG. In S214 of FIG. 6, the average amplitude ratio Aav (fx, f
Of the components in y), the sum of components satisfying fx> fy is taken as Axsum, and the sum of components satisfying fy> fx is taken as Aysum. Where Axsum, Ay
sum corresponds to the magnitude of the blur in the x and y directions, respectively, and the larger the value of Axsum and Aysum, the larger x
This indicates that the shake in the directions y and y is large.

【0064】S215では、Axsum>Aysum×
4か否かを検出する。すなわちx方向(水平方向)のブ
レがy方向(垂直方向)のブレに比較して4倍以上大き
い場合はx方向にカメラを意図的に振っている(水平方
向の流し撮り)ためにx方向のブレが増大していると判
定し、水平方向流し撮りフラグHを1とする。
In S215, Axsum> Aysum ×
4 is detected. In other words, if the blur in the x direction (horizontal direction) is four times or more greater than the blur in the y direction (vertical direction), the camera is intentionally shaken in the x direction (horizontal panning), and the x direction is used. Is determined to be increasing, and the horizontal follow shot flag H is set to 1.

【0065】S216では、Aysum>Axsum×
4か否かを検出する。すなわちy方向(垂直方向)のブ
レがx方向(水平方向)のブレに比較して4倍以上大き
い場合はy方向にカメラを意図的に振っている(垂直方
向の流し撮り)ためにy方向のブレが増大していると判
定し、垂直方向流し撮りフラグVを1とする。
In S216, Aysum> Axsum ×
4 is detected. In other words, when the blur in the y direction (vertical direction) is four times or more greater than the blur in the x direction (horizontal direction), the camera is intentionally shaken in the y direction (vertical follow shot), so that the y direction is used. Is determined to be increasing, and the vertical follow shot flag V is set to 1.

【0066】S217でx=9、y=9として初期化
後、S218においてぶれた画像2の8×8個の画素デ
ータブロックの画像データD2(x、y)〜D2(x+
7、y+7)から4種類の空間周波数fx、fy(fx
=1〜4、fy=1〜4)について、それぞれの空間周
波数に対する振幅A1(fx、fy)および位相P1
(fx、fy)を算出する。
After initialization with x = 9 and y = 9 in S217, image data D2 (x, y) to D2 (x + x) of 8 × 8 pixel data blocks of the blurred image 2 in S218.
7, y + 7) to four types of spatial frequencies fx, fy (fx
= 1 to 4, fy = 1 to 4), the amplitude A1 (fx, fy) and the phase P1 for each spatial frequency
(Fx, fy) is calculated.

【0067】S219では、水平方向流し撮りフラグH
が1であれば、画像2の主として垂直方向のブレを補正
するために、x方向の周波数成分fxが1(低周波成
分)で、y方向の各周波数成分fyが1〜4である周波
数成分について、振幅A2(fx、fy)をAav(f
x、fy)倍した振幅A3(fx、fy)、位相P2
(fx、fy)をPav(fx、fy)だけ進めた位相
P3(fx、fy)を計算する。
In step S219, the horizontal follow shot flag H is set.
Is 1, a frequency component in which the frequency component fx in the x direction is 1 (low frequency component) and each frequency component fy in the y direction is 1 to 4 in order to mainly correct vertical blurring of the image 2. , The amplitude A2 (fx, fy) is changed to Aav (f
x, fy) times amplitude A3 (fx, fy), phase P2
A phase P3 (fx, fy) obtained by advancing (fx, fy) by Pav (fx, fy) is calculated.

【0068】S220では、垂直方向流し撮りフラグV
が1であれば、画像2の主として水平方向のブレを補正
するために、y方向の周波数成分fyが1(低周波成
分)で、x方向の各周波数成分fxが1〜4である周波
数成分について、振幅A2(fx、fy)をAav(f
x、fy)倍した振幅A3(fx、fy)、位相P2
(fx、fy)をPav(fx、fy)だけ進めた位相
P3(fx、fy)を計算する。
In step S220, the vertical panning flag V
Is 1, if the frequency component fy in the y direction is 1 (low frequency component) and each frequency component fx in the x direction is 1 to 4, in order to mainly correct horizontal blurring of the image 2. , The amplitude A2 (fx, fy) is changed to Aav (f
x, fy) times amplitude A3 (fx, fy), phase P2
A phase P3 (fx, fy) obtained by advancing (fx, fy) by Pav (fx, fy) is calculated.

【0069】S221では、水平方向流し撮りフラグH
が0、垂直方向流し撮りフラグVが0のままであれば、
流し撮りではないとして画像2の水平方向および垂直方
向のブレを補正するために、y方向の周波数成分fy、
x方向の各周波数成分fxともに1〜4である周波数成
分について、振幅A2(fx、fy)をAav(fx、
fy)倍した振幅A3(fx、fy)、位相P2(f
x、fy)をPav(fx、fy)だけ進めた位相P3
(fx、fy)を計算する。
In S221, the panning flag H in the horizontal direction is set.
Is 0 and the vertical panning flag V remains 0,
In order to correct the horizontal and vertical blurring of the image 2 assuming that the panning is not a panning, the frequency components fy,
The amplitude A2 (fx, fy) is converted to Aav (fx, fx,
fy) times the amplitude A3 (fx, fy) and the phase P2 (f
x, fy) by Pav (fx, fy)
Calculate (fx, fy).

【0070】S222において振幅A3(fx、fy)
と位相P3(fx、fy)に基づいて画像3の画像デー
タD3(x、y)〜D3(x+7、y+7)を再生す
る。上記S218からS222の処理をx>Xmax−
8、y>Ymax−8になるまで、8×8個の画素デー
タブロックを8画素ずつ順次移動しつつ、S223、S
224、S225、S226でループを回して完了す
る。このループを完了すると、流し撮りを行った場合に
は流し撮り方向に応じてブレ補正された画像3の画像デ
ータD3(x、y)(x=9〜Xmax−8、y=9〜
Ymax―8)が求められ、また流し撮りが行われてい
ない時には方向に依存しないブレ補正が行われた画像3
の画像データD3(x、y)(x=9〜Xmax−8、
y=9〜Ymax―8)が求められていることになる。
In step S222, the amplitude A3 (fx, fy)
And the image data D3 (x, y) to D3 (x + 7, y + 7) of the image 3 based on the phase P3 (fx, fy). X> Xmax−
Until 8, y> Ymax−8, the 8 × 8 pixel data blocks are sequentially moved by 8 pixels, and S223 and S223
At 224, S225, and S226, the process is completed by turning the loop. When this loop is completed, if panning is performed, image data D3 (x, y) of the image 3 that has been blur-corrected according to the panning direction (x = 9 to Xmax-8, y = 9 to
Ymax-8) is obtained, and when the panning is not performed, the direction-independent image blur correction 3 is performed.
Image data D3 (x, y) (x = 9 to Xmax-8,
y = 9 to Ymax-8).

【0071】つぎに画像3の全周辺(幅8画素)のブロ
ックは画像1と画像2とのズレにより、画像1に含まれ
ない背景が画像2に入り込んでいる可能性があるので、
正しくブレの再生ができない可能性が高い。そこでS2
27においてこの周辺のブロックは画像2より画像3に
移す。以上でブレの補正は完了し、終了する。
Next, in the blocks around the entire periphery of image 3 (8 pixels in width), there is a possibility that a background not included in image 1 may enter image 2 due to a difference between image 1 and image 2.
There is a high possibility that blurring cannot be correctly reproduced. So S2
At 27, the peripheral blocks are shifted from image 2 to image 3. This completes the blur correction and ends.

【0072】このように図5と図6に示すブレ画像補正
処理では、画像1と画像2を8×8個の画素データブロ
ックに分割し、それらのブロックを8画素ずつずらしな
がら4×4個の振幅データと位相データを計算し、画像
1と画像2の振幅データの比と位相データの差をとると
ともに、それらの平均を算出し、画像1と画像2に基づ
き流し撮り方向を検出し、検出された流し撮り方向に応
じて平均振幅比データと平均位相差データにより画像2
の振幅データと位相データを補正し、補正された振幅デ
ータと位相データからぶれを補正した画像3のデータを
再構成するものである。
As described above, in the blurred image correction processing shown in FIGS. 5 and 6, the image 1 and the image 2 are divided into 8 × 8 pixel data blocks, and the blocks are shifted by 8 pixels to 4 × 4 pixel data blocks. Calculate the amplitude data and the phase data, calculate the difference between the ratio of the amplitude data of the image 1 and the image 2 and the phase data, calculate the average of them, detect the panning direction based on the image 1 and the image 2, The image 2 is formed by the average amplitude ratio data and the average phase difference data according to the detected panning direction.
Is corrected, and the data of the image 3 in which the blur is corrected is reconstructed from the corrected amplitude data and phase data.

【0073】次に図9を用いて、図5と図6とは異なる
ブレ画像補正処理のフローチャート(図4のS119に
対応)を説明する。図9に示すブレ画像補正処理が図5
と図6と異なる点は、流し撮り方向の検出方法であり、
図9においては流し撮り方向を流し撮り方向設定部材4
1の設定状態により検出している点である。
Next, a flowchart (corresponding to S119 in FIG. 4) of a blurred image correction process different from FIGS. 5 and 6 will be described with reference to FIG. The blur image correction processing shown in FIG.
6 is different from FIG. 6 in the method of detecting the panning direction.
In FIG. 9, the panning direction setting member 4 indicates the panning direction.
That is, the detection is performed according to the setting state of 1.

【0074】図9の動作は図6のS214からS216
を、S314からS316に置き換えることにより達成
される。図9のS314では、流し撮り方向設定部材4
1の設定状態を読み込む。S315では、設定状態が垂
直方向の流し撮りであれば、垂直方向流し撮りフラグV
を1とする。
The operation of FIG. 9 corresponds to steps S214 to S216 of FIG.
By replacing S314 with S316. In S314 of FIG. 9, the panning direction setting member 4
1 is read. In S315, if the setting state is the vertical panning shot, the vertical panning flag V
Is set to 1.

【0075】S316では、設定状態が水平方向の流し
撮りであれば、水平方向流し撮りフラグHを1とする。
(変形形態の説明)本発明は以上説明した実施形態に限
定されることなく、種々の変形や変更が可能である。
In step S316, if the setting state is horizontal panning shooting, the horizontal panning flag H is set to 1.
(Explanation of Modifications) The present invention is not limited to the embodiments described above, and various modifications and changes are possible.

【0076】上記実施形態においては、電子カメラ1に
おいてブレ補正のための画像処理まで行っているが、図
10に示すような画像処理システムを構成し、電子カメ
ラ1で画像1と画像2の撮像までを行い、画像1と画像
2を記録したメモリカード25等を介して、画像1と画
像2をパソコン等により構成される画像処理装置50に
取り込み、画像処理装置50により画像1と画像2に基
づき、ぶれを補正した画像3を生成してもよい。この場
合図4のフローチャートにおいてS100からS116
までの処理を電子カメラ1が行い、S117からS12
1までの処理を画像処理装置50が行うことになる。こ
のような画像処理システムによれば、演算規模が大きく
負担の大きいブレ画像の補正処理部分を電子カメラ1の
外部にある処理能力の高い画像処理装置50に任せるこ
とができるので、電子カメラは撮影動作に専念でき、高
速連続撮影等の動作が可能になるとともに、画像処理装
置50側でより高度なブレ画像の補正処理を高速に行う
ことが可能になる。
In the above embodiment, image processing for blur correction is performed in the electronic camera 1. However, an image processing system as shown in FIG. 10 is configured so that the electronic camera 1 captures images 1 and 2. The image 1 and the image 2 are fetched into the image processing device 50 including a personal computer or the like via the memory card 25 or the like on which the image 1 and the image 2 are recorded, Based on this, the image 3 with the blur corrected may be generated. In this case, in the flowchart of FIG.
The electronic camera 1 performs the processing up to and including S117 to S12.
The processing up to 1 is performed by the image processing apparatus 50. According to such an image processing system, the correction processing portion of a blurred image having a large calculation scale and a large load can be left to the image processing apparatus 50 having a high processing capability outside the electronic camera 1, so that the electronic camera can take a photograph. It is possible to concentrate on the operation, and it is possible to perform an operation such as high-speed continuous shooting, and it is possible to perform a more advanced blurred image correction process on the image processing device 50 side at a high speed.

【0077】また上記実施形態においては、第1の画像
の取得を第2の画像の取得に先立って行っているが、第
2の画像の取得を先に行っても構わない。また上記実施
形態においては、適正露光時間により撮像された第2の
画像と適正露光時間の半分の露光時間により撮像された
第1の画像を空間周波数領域で解析することによりブレ
画像の補正処理を行っているが、第1の画像は第2の画
像の露光時間より短い露光時間であれば構わない。しか
しながら第1の画像の露光時間は画像ブレを発生させな
いために、好ましくは第2の画像の露光時間の1/2程
度以下であることが望ましい。また第2の画像の露光時
間は、必ずしも正確に適正露光時間である必要はなく、
ブレによる影響が表れる露光時間であればよい。
In the above embodiment, the acquisition of the first image is performed before the acquisition of the second image. However, the acquisition of the second image may be performed first. In the above embodiment, the blurred image correction process is performed by analyzing, in the spatial frequency domain, the second image captured with the appropriate exposure time and the first image captured with half the appropriate exposure time. However, the first image may have an exposure time shorter than the exposure time of the second image. However, the exposure time of the first image is preferably not more than about 1/2 of the exposure time of the second image so as not to cause image blurring. Also, the exposure time of the second image does not necessarily have to be exactly the proper exposure time,
Any exposure time may be used as long as the effect of blurring appears.

【0078】また上記実施形態においては、2つの異な
る露光時間で撮像された2つの画像を空間周波数領域で
解析することによりブレ画像の補正処理を行っている
が、異なる露光時間で得られた2つ以上の画像を用い、
ブレ画像の補正処理を行っても構わない。このようにす
れば、画像ノイズの影響をさらに緩和することが可能に
なる。
In the above embodiment, the blurred image is corrected by analyzing two images captured at two different exposure times in the spatial frequency domain. Using more than one image,
The blurred image may be corrected. This makes it possible to further reduce the influence of image noise.

【0079】また上記実施形態においては、第1の画像
と第2の画像を記録した後、すぐにブレ画像補正処理を
行い第3の画像を生成するようになっているが、第1の
画像と第2の画像を記録した後、しばらく時間が経過し
た後でブレ画像補正処理を行い第3の画像を生成するよ
うにしても構わない。このようにすれば、電子カメラに
とって負担の大きいブレ画像補正処理を後回しにできる
ので、画像を高速に連写して記録することが可能にな
る。例えば使用者による特定の操作に応じて、撮影した
画像データに対するブレ画像補正処理を行うようにす
る。
In the above-described embodiment, the first image and the second image are recorded, and then the blurred image correction process is performed immediately to generate the third image. After the recording of the second image and the second image, the blurred image correction process may be performed after a certain period of time to generate the third image. This makes it possible to postpone the blurred image correction processing that places a heavy burden on the electronic camera, so that it is possible to continuously capture and record images at high speed. For example, a blurred image correction process is performed on captured image data according to a specific operation by a user.

【0080】また上記実施形態においては、露光時間は
機械的なシャッタにより制御されていたが、撮像素子に
備えられた電子シャッタ機能により露光時間を制御する
ようにしても構わない。また上記実施形態においては、
第1の画像データと第2の画像データの空間周波数成分
を比較することにより画像ブレの有無を判別していた
が、単一の画像データの空間周波数成分を用いて、画像
ブレの有無を判別することもできる。通常画像データ
に、手ブレや被写体ブレやピントズレなどが生じると、
画像データが平滑化されて高域の空間周波数成分が損な
われる。したがって、空間周波数領域の高周波数成分を
所定値と比較することにより、画像ブレの有無を判別し
てもよい。
In the above embodiment, the exposure time is controlled by a mechanical shutter. However, the exposure time may be controlled by an electronic shutter function provided in the image sensor. In the above embodiment,
The presence / absence of image blur was determined by comparing the spatial frequency components of the first image data and the second image data. However, the presence / absence of image blur was determined using the spatial frequency component of a single image data. You can also. If camera shake, subject shake, or out-of-focus occurs in the normal image data,
The image data is smoothed, and the high-frequency spatial frequency components are damaged. Therefore, the presence or absence of image blur may be determined by comparing the high frequency component in the spatial frequency region with a predetermined value.

【0081】あるいは画像データの空間周波数成分を圧
縮符号量から画像ブレの有無を判別することも可能であ
る。通常、圧縮符号量が多いほど、空間周波数領域の高
周波数成分が多いと判断できる。したがって、圧縮符号
量を所定値と比較することにより、画像ブレの有無を判
別してもよい。また、このような圧縮符号量の値は、画
像圧縮処理の結果から得られるので、特段の処理を付加
する必要はない。
Alternatively, it is possible to determine the presence or absence of image blurring from the spatial frequency component of the image data from the amount of compression code. In general, it can be determined that the higher the compression code amount, the more high frequency components in the spatial frequency domain. Therefore, the presence or absence of image blur may be determined by comparing the compression code amount with a predetermined value. In addition, since such a value of the compression code amount is obtained from the result of the image compression processing, it is not necessary to add any special processing.

【0082】あるいは公知の空間周波数フィルタ(例え
ば、隣接画素間で差分をとるなどのハイパスフィルタ)
やコントラスト検出などを用いて、空間周波数成分を簡
易的に計算し、画像ブレの有無を判別しても勿論よい。
また上記実施形態においては、異なる露光時間で得られ
た2つの画像データに基づき、長い露光時間で得られた
画像データのほうの空間周波数成分を振幅比データと位
相差データにより補正してぶれを補正した画像を生成し
ていたが、ぶれを補正した画像を生成する画像処理はこ
れに限定されることはない。例えば単純にブレた画像デ
ータの高周波成分を増幅することにより、ブレの少ない
画像を得ることもできる。
Alternatively, a known spatial frequency filter (for example, a high-pass filter for obtaining a difference between adjacent pixels)
It is of course possible to simply calculate the spatial frequency component using, for example, image detection and contrast detection to determine the presence or absence of image blur.
Further, in the above embodiment, based on two image data obtained at different exposure times, the spatial frequency component of the image data obtained at the long exposure time is corrected by the amplitude ratio data and the phase difference data to reduce the blur. Although the corrected image has been generated, the image processing for generating the image in which the blur has been corrected is not limited to this. For example, an image with less blur can be obtained by simply amplifying the high-frequency component of blurred image data.

【0083】また上記実施形態においては、流し撮りの
方向に応じて、流し撮りの方向と垂直方向の空間周波数
成分に対してブレ補正処理を行うことにより、より自然
な流し撮り画像データを得ているが、画像処理はこの方
法に限定されるものではなく、流し撮りの質感を残して
ブレ補正を行う画像処理であればかまわない。例えば画
像データを流し撮りの方向に応じた方向にのみハイパス
フィルタリングするような画像処理でもよい。
In the above embodiment, the blur correction processing is performed on the spatial frequency component in the direction perpendicular to the panning direction according to the panning direction to obtain more natural panning image data. However, the image processing is not limited to this method, and may be any image processing that performs blur correction while leaving the feel of a panning shot. For example, image processing in which image data is subjected to high-pass filtering only in a direction corresponding to a panning direction may be used.

【0084】[0084]

【発明の効果】以上説明したように、本発明による電子
カメラおよび画像処理システムにおいては、ブレ補正光
学系やブレセンサを用いることなくブレ画像を補正でき
るために、電子カメラや画像処理システムの小型化が可
能になるとともに、コストの増大を押さえることができ
る。
As described above, in the electronic camera and the image processing system according to the present invention, since a blurred image can be corrected without using a blur correction optical system or a blur sensor, the size of the electronic camera and the image processing system can be reduced. Can be achieved, and an increase in cost can be suppressed.

【0085】また本発明による電子カメラおよび画像処
理システムにおいては、異なる露光時間で得られた2つ
の画像データに基づき、空間周波数領域でブレ補正を行
うので、露光中の画像ブレを補正することができる。ま
た本発明による電子カメラおよび画像処理システムにお
いては、画像データに基づいてブレがあるかないかを判
別し、ブレがあると判別された場合のみブレ補正のため
の画像処理を行うので、画像ブレを必要に応じて効率的
に補正できるとともに、ブレがないと判別された場合
は、次の動作(例えば撮影動作)に迅速に移行できる。
In the electronic camera and the image processing system according to the present invention, blurring is performed in the spatial frequency domain on the basis of two image data obtained at different exposure times, so that image blurring during exposure can be corrected. it can. Further, in the electronic camera and the image processing system according to the present invention, it is determined whether or not there is a blur based on image data, and image processing for blur correction is performed only when it is determined that there is a blur. Correction can be made efficiently as needed, and if it is determined that there is no blur, it is possible to quickly shift to the next operation (for example, a shooting operation).

【0086】また本発明による電子カメラおよび画像処
理システムにおいては、流し撮り方向に応じてブレ補正
の画像処理を最適化しているので、画像処理の結果が自
然な流れ画像を生成することができる。
In the electronic camera and the image processing system according to the present invention, since the image processing for blur correction is optimized according to the panning direction, a flow image having a natural image processing result can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による電子カメラの実施形態の構成を示
す前方からの斜視図である。
FIG. 1 is a front perspective view showing a configuration of an embodiment of an electronic camera according to the present invention.

【図2】本発明による電子カメラの実施形態の構成を示
す後方からの斜視図である。
FIG. 2 is a rear perspective view showing a configuration of an embodiment of an electronic camera according to the present invention.

【図3】本発明による電子カメラの内部の電気的構成を
示すブロック図である。
FIG. 3 is a block diagram showing an electrical configuration inside the electronic camera according to the present invention.

【図4】電子カメラの基本的なシーケンスを示すフロー
チャートである。
FIG. 4 is a flowchart showing a basic sequence of the electronic camera.

【図5】ブレ画像の補正処理の一例を示すフローチャー
トである。
FIG. 5 is a flowchart illustrating an example of a shake image correction process.

【図6】ブレ画像の補正処理の一例を示すフローチャー
トである。
FIG. 6 is a flowchart illustrating an example of a shake image correction process.

【図7】画像データの構成を示す図である。FIG. 7 is a diagram illustrating a configuration of image data.

【図8】画像データと振幅データと位相データのブロッ
ク構成を示す図である。
FIG. 8 is a diagram showing a block configuration of image data, amplitude data, and phase data.

【図9】ブレ画像の補正処理の他の例を示すフローチャ
ートである。
FIG. 9 is a flowchart illustrating another example of a blurred image correction process.

【図10】本発明による画像処理システムの実施形態の
構成を示す図である。
FIG. 10 is a diagram showing a configuration of an embodiment of an image processing system according to the present invention.

【符号の説明】[Explanation of symbols]

1 電子カメラ 2 撮影レンズ 3 シャッタ釦 8 表示LCD 10 CPU 13 シャッタ駆動回路 15 シャッタ 20 CCD 21 DSP 25 メモリカード 30 バッファメモリ 41 流し撮り方向設定部材 50 画像処理装置 REFERENCE SIGNS LIST 1 electronic camera 2 shooting lens 3 shutter button 8 display LCD 10 CPU 13 shutter drive circuit 15 shutter 20 CCD 21 DSP 25 memory card 30 buffer memory 41 panning direction setting member 50 image processing device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/235 H04N 5/235 5/91 5/91 J ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/235 H04N 5/235 5/91 5/91 J

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被写体像を撮像する撮像手段と、画像デ
ータを記録するための記録手段と、前記撮像手段により
第1の画像データと第2の画像データを連続して生成す
る画像生成手段と、前記第1の画像データと前記第2の
画像データに基づき、前記第1の画像データまたは前記
第2の画像データがぶれているかいないかを判別するブ
レ判別手段と、前記第1の画像データと前記第2の画像
データに基づき、画像処理によりぶれを補正した第3の
画像データを生成する画像処理手段とを備え、前記ブレ
判別手段により前記第1の画像データまたは前記第2の
画像データがぶれていないと判別された場合は、前記画
像処理手段はぶれ補正の画像処理を行わず、前記記録手
段は前記第1の画像データまたは前記第2の画像データ
の一方の画像データを記録するとともに、前記ブレ判別
手段により前記第1の画像データまたは前記第2の画像
データがぶれていると判別された場合は、前記画像処理
手段はぶれ補正の画像処理を行い、前記記録手段は前記
第3の画像データを記録することを特徴とする電子カメ
ラ。
1. An image capturing means for capturing an image of a subject, a recording means for recording image data, and an image generating means for continuously generating first image data and second image data by the image capturing means. A blur determining unit configured to determine whether the first image data or the second image data is blurred based on the first image data and the second image data; and And image processing means for generating third image data in which blur has been corrected by image processing based on the second image data, wherein the first image data or the second image data is If it is determined that the image is not blurred, the image processing means does not perform image processing for blur correction, and the recording means does not perform image processing of one of the first image data or the second image data. If the first image data or the second image data is determined to be blurred by the blur determination unit, the image processing unit performs image processing for blur correction, and An electronic camera for recording the third image data.
【請求項2】 被写体像を撮像する撮像手段と、前記撮
像手段による被写体像の撮像の露光時間を制御する露光
制御手段と、画像データを記録するための記録手段と、
前記露光制御手段と前記撮像手段により第1の露光時間
で撮像した第1の画像データと、前記第1の露光時間よ
り長い第2の露光時間で撮像した第2の画像データを連
続して生成する画像生成手段と、前記画像生成手段によ
り生成された前記第1の画像データと前記第2の画像デ
ータに基づき、前記第2の画像データに含まれる空間周
波数成分を補正することによりぶれを補正した第3の画
像データを生成する画像処理手段と、前記第1の画像デ
ータと前記第2の画像データに基づき、前記第2の画像
データがぶれているかいないかを判別するブレ判別手段
とを備え、前記ブレ判別手段により前記第2の画像デー
タがぶれていないと判別された場合は、前記画像処理は
ぶれを補正する処理を行わず、前記記録手段は前記第2
の画像データを記録するとともに、前記ブレ判別手段に
より前記第2の画像データがぶれていないと判別された
場合は、前記画像処理はぶれを補正する処理を行い、前
記記録手段はぶれを補正した前記第3の画像データを記
録することを特徴とする電子カメラ。
2. An image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up the subject image by the image pickup means, a recording means for recording image data,
A first image data imaged at a first exposure time by the exposure control means and the imaging means and a second image data imaged at a second exposure time longer than the first exposure time are continuously generated. An image generating means for correcting a blur by correcting a spatial frequency component included in the second image data based on the first image data and the second image data generated by the image generating means Image processing means for generating the third image data, and blur determination means for determining whether or not the second image data is blurred based on the first image data and the second image data. When the blur determination unit determines that the second image data is not blurred, the image processing does not perform blur correction processing, and the recording unit performs the second image data processing.
When the image data is recorded, and when the second image data is determined not to be blurred by the blur determining unit, the image processing performs a process of correcting blur, and the recording unit corrects the blur. An electronic camera for recording the third image data.
【請求項3】 被写体像を撮像する撮像手段と、前記撮
像手段による被写体像の撮像の露光時間を制御する露光
制御手段と、前記露光制御手段と前記撮像手段により第
1の露光時間で撮像した第1の画像データと、前記第1
の露光時間より長い第2の露光時間で撮像した第2の画
像データを連続して生成する画像生成手段と、前記第2
の画像データを撮像する際の流し撮りの方向を設定する
流し撮り方向設定手段と、前記画像生成手段により生成
された前記第1の画像データと前記第2の画像データに
基づき、前記第2の画像データに含まれる空間周波数成
分を補正することにより第3の画像データを生成する画
像処理手段とを備え、前記画像処理手段は、前記流し撮
り方向設定手段により設定された流し撮り方向に応じ
て、前記第2の画像データに含まれる空間周波数成分を
補正して第3の画像データを生成する際の画像処理の内
容を変更することを特徴とする電子カメラ。
3. An image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up a subject image by the image pickup means, and an image picked up at a first exposure time by the exposure control means and the image pickup means. First image data and the first image data;
Image generating means for continuously generating second image data picked up at a second exposure time longer than the second exposure time;
A panning direction setting unit that sets a panning direction when capturing the image data of the second image data, and the second image data based on the first image data and the second image data generated by the image generating unit. Image processing means for generating third image data by correcting a spatial frequency component included in the image data, wherein the image processing means responds to the panning direction set by the panning direction setting means. An electronic camera that corrects a spatial frequency component included in the second image data to change the content of image processing when generating third image data.
【請求項4】 請求項3に記載の電子カメラにおいて、
前記画像処理手段は、前記流し撮り方向設定手段により
設定された流し撮り方向が水平方向の場合は、前記第2
の画像データに含まれる垂直方向の空間周波数成分を主
として補正することにより第3の画像データを生成し、
前記流し撮り方向設定手段により設定された流し撮り方
向が垂直方向の場合は、前記第2の画像データに含まれ
る水平方向の空間周波数成分を主として補正することに
より第3の画像データを生成することを特徴とする電子
カメラ。
4. The electronic camera according to claim 3, wherein
The image processing means may include, if the panning direction set by the panning direction setting means is horizontal, the second
Generating the third image data by mainly correcting the vertical spatial frequency component included in the image data of
When the panning direction set by the panning direction setting means is a vertical direction, the third image data is generated by mainly correcting a horizontal spatial frequency component included in the second image data. An electronic camera characterized by the following.
【請求項5】 被写体像を撮像する撮像手段と、前記撮
像手段による被写体像の撮像の露光時間を制御する露光
制御手段と、前記露光制御手段と前記撮像手段により第
1の露光時間で撮像した第1の画像データと、前記第1
の露光時間より長い第2の露光時間で撮像した第2の画
像データを連続して生成する画像生成手段と、前記第1
の画像データと前記第2の画像データに基づき、前記第
2の画像データを撮像した際の流し撮りの方向を検出す
る流し撮り方向検出手段と、前記画像生成手段により生
成された前記第1の画像データと前記第2の画像データ
に基づき、前記第2の画像データに含まれる空間周波数
成分を補正することにより第3の画像データを生成する
画像処理手段とを備え、前記画像処理手段は、前記流し
撮り方向検出手段により検出された流し撮り方向に応じ
て、前記第2の画像データに含まれる空間周波数成分を
補正して第3の画像データを生成する際の画像処理の内
容を変更することを特徴とする電子カメラ。
5. An image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up a subject image by said image pickup means, and an image picked up at a first exposure time by said exposure control means and said image pickup means. First image data and the first image data;
Image generating means for continuously generating second image data captured at a second exposure time longer than the first exposure time;
Panning direction detecting means for detecting a panning direction when the second image data is captured, based on the image data and the second image data, and the first image generated by the image generating means. Image processing means for generating third image data by correcting a spatial frequency component included in the second image data based on the image data and the second image data, the image processing means comprising: In accordance with the panning direction detected by the panning direction detecting means, the content of image processing for generating third image data by correcting a spatial frequency component included in the second image data is changed. An electronic camera, characterized in that:
【請求項6】 請求項5に記載の電子カメラにおいて、
前記画像処理手段は、前記流し撮り方向検出手段により
検出された流し撮り方向が水平方向の場合は、前記第2
の画像データに含まれる垂直方向の空間周波数成分を主
として補正することにより第3の画像データを生成し、
前記流し撮り方向検出手段により検出された流し撮り方
向が垂直方向の場合は、前記第2の画像データに含まれ
る水平方向の空間周波数成分を主として補正することに
より第3の画像データを生成することを特徴とする電子
カメラ。
6. The electronic camera according to claim 5, wherein
The image processing means may include, if the panning direction detected by the panning direction detection means is horizontal, the second
Generating third image data by mainly correcting vertical spatial frequency components included in the image data of
When the panning direction detected by the panning direction detecting means is the vertical direction, the third image data is generated by mainly correcting horizontal spatial frequency components included in the second image data. An electronic camera characterized by the following.
【請求項7】 請求項2および請求項3および請求項5
に記載の電子カメラにおいて、前記第2の露光時間は画
像データの輝度レベルが適正となるような適正露光量を
与える露光時間であるとともに、前記第1の露光時間は
前記第2の露光時間の1/2程度以下であることを特徴
とする電子カメラ。
7. A method according to claim 2, wherein the second and third steps are different from each other.
In the electronic camera described in the above, the second exposure time is an exposure time that gives an appropriate exposure amount such that the luminance level of the image data is appropriate, and the first exposure time is the second exposure time. An electronic camera characterized by being about 1/2 or less.
【請求項8】 被写体像を撮像し、画像データを生成す
る撮像手段と、前記画像データを画像処理することによ
り、前記画像データに含まれるブレの影響を補正する画
像処理手段と、前記画像データにブレの影響があるかい
ないかを判別する判別手段とを備え、前記画像処理手段
は、前記判別手段により前記画像データにブレの影響が
あると判別された場合のみ、前記画像データに含まれる
ブレの影響を補正する画像処理を行うことを特徴とする
電子カメラ。
8. An image pickup means for picking up an image of a subject and generating image data, an image processing means for performing image processing on the image data to correct the influence of blur contained in the image data, and the image data Discriminating means for discriminating whether or not the image data is affected by blur. The image processing means is included in the image data only when the discriminating means determines that the image data is affected by blur An electronic camera that performs image processing for correcting the effect of blur.
【請求項9】 被写体像を撮像する撮像手段と、前記撮
像手段による被写体像の撮像の露光時間を制御する露光
制御手段と、前記露光制御手段と前記撮像手段により第
1の露光時間で撮像した第1の画像データと、前記第1
の露光時間より長い第2の露光時間で撮像した第2の画
像データを連続して生成する画像生成手段とを備える電
子カメラと、前記電子カメラにより生成された前記第1
の画像データと前記第2の画像データに基づき、前記第
2の画像データを撮像した際の流し撮りの方向を検出す
るとともに、前記第1の画像データと前記第2の画像デ
ータに基づき、前記第2の画像データに含まれる空間周
波数成分を流し撮り方向に応じて補正し、第3の画像デ
ータを生成する画像処理装置とからなる画像処理システ
ム。
9. An image pickup means for picking up a subject image, an exposure control means for controlling an exposure time for picking up a subject image by said image pickup means, and an image picked up by said exposure control means and said image pickup means at a first exposure time. First image data and the first image data;
An electronic camera including image generation means for continuously generating second image data captured at a second exposure time longer than the first exposure time; and the first camera generated by the electronic camera.
Based on the image data and the second image data, while detecting a panning direction when the second image data is captured, based on the first image data and the second image data, An image processing system comprising: an image processing device that corrects a spatial frequency component included in second image data according to a panning direction and generates third image data.
JP2001107429A 2001-03-01 2001-04-05 Electronic camera and image processing system Expired - Lifetime JP4586291B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001107429A JP4586291B2 (en) 2001-04-05 2001-04-05 Electronic camera and image processing system
US10/083,146 US7176962B2 (en) 2001-03-01 2002-02-27 Digital camera and digital processing system for correcting motion blur using spatial frequency

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001107429A JP4586291B2 (en) 2001-04-05 2001-04-05 Electronic camera and image processing system

Publications (2)

Publication Number Publication Date
JP2002305682A true JP2002305682A (en) 2002-10-18
JP4586291B2 JP4586291B2 (en) 2010-11-24

Family

ID=18959755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001107429A Expired - Lifetime JP4586291B2 (en) 2001-03-01 2001-04-05 Electronic camera and image processing system

Country Status (1)

Country Link
JP (1) JP4586291B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242207A (en) * 2004-02-27 2005-09-08 Fuji Xerox Co Ltd Image display medium
WO2006038334A1 (en) * 2004-09-30 2006-04-13 Mitsubishi Denki Kabushiki Kaisha Image taking device and image restoring method
WO2006126620A1 (en) * 2005-05-23 2006-11-30 Fujifilm Corporation Image pickup device and method of correcting camera shake of the image pickup device
JP2007074269A (en) * 2005-09-06 2007-03-22 Nitto Kogaku Kk Image processing apparatus
WO2007119680A1 (en) * 2006-04-11 2007-10-25 Panasonic Corporation Image pickup device
JP2009207118A (en) * 2008-01-16 2009-09-10 Sanyo Electric Co Ltd Image shooting apparatus and blur correction method
JP2011041186A (en) * 2009-08-18 2011-02-24 Nikon Corp Electronic camera
US8154634B2 (en) 2008-05-19 2012-04-10 Sanyo Electric Col, Ltd. Image processing device that merges a plurality of images together, image shooting device provided therewith, and image processing method in which a plurality of images are merged together
US8300110B2 (en) 2008-12-19 2012-10-30 Sanyo Electric Co., Ltd. Image sensing apparatus with correction control
US8373776B2 (en) 2008-12-12 2013-02-12 Sanyo Electric Co., Ltd. Image processing apparatus and image sensing apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104680A (en) * 1996-09-26 1998-04-24 Sony Corp Imaging device having camera shake correction function
JPH11284944A (en) * 1998-03-31 1999-10-15 Canon Inc Image processing method and apparatus
JP2000209484A (en) * 1999-01-18 2000-07-28 Nikon Corp Electronic camera having image selection function, and recording medium recording program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104680A (en) * 1996-09-26 1998-04-24 Sony Corp Imaging device having camera shake correction function
JPH11284944A (en) * 1998-03-31 1999-10-15 Canon Inc Image processing method and apparatus
JP2000209484A (en) * 1999-01-18 2000-07-28 Nikon Corp Electronic camera having image selection function, and recording medium recording program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242207A (en) * 2004-02-27 2005-09-08 Fuji Xerox Co Ltd Image display medium
WO2006038334A1 (en) * 2004-09-30 2006-04-13 Mitsubishi Denki Kabushiki Kaisha Image taking device and image restoring method
US7652689B2 (en) 2004-09-30 2010-01-26 Mitsubishi Electric Corporation Picture taking device and picture restoration method
WO2006126620A1 (en) * 2005-05-23 2006-11-30 Fujifilm Corporation Image pickup device and method of correcting camera shake of the image pickup device
JP2006330114A (en) * 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus and camera shake correction method therefor
JP2007074269A (en) * 2005-09-06 2007-03-22 Nitto Kogaku Kk Image processing apparatus
JPWO2007119680A1 (en) * 2006-04-11 2009-08-27 パナソニック株式会社 Imaging device
WO2007119680A1 (en) * 2006-04-11 2007-10-25 Panasonic Corporation Image pickup device
JP2009207118A (en) * 2008-01-16 2009-09-10 Sanyo Electric Co Ltd Image shooting apparatus and blur correction method
US8154634B2 (en) 2008-05-19 2012-04-10 Sanyo Electric Col, Ltd. Image processing device that merges a plurality of images together, image shooting device provided therewith, and image processing method in which a plurality of images are merged together
US8373776B2 (en) 2008-12-12 2013-02-12 Sanyo Electric Co., Ltd. Image processing apparatus and image sensing apparatus
US8300110B2 (en) 2008-12-19 2012-10-30 Sanyo Electric Co., Ltd. Image sensing apparatus with correction control
JP2011041186A (en) * 2009-08-18 2011-02-24 Nikon Corp Electronic camera

Also Published As

Publication number Publication date
JP4586291B2 (en) 2010-11-24

Similar Documents

Publication Publication Date Title
US7176962B2 (en) Digital camera and digital processing system for correcting motion blur using spatial frequency
JP2001103366A (en) Camera
US7667763B2 (en) Image pickup equipment and method
KR20070086061A (en) Camera and Camera Image Processing Method
JP5298396B2 (en) Electronic camera and image processing system
JP4586291B2 (en) Electronic camera and image processing system
JP2003244520A (en) Photographing device
JP4167200B2 (en) Signal processing apparatus, signal processing method, and digital camera
JP2003319407A (en) Imaging apparatus
JP4462092B2 (en) Electronic camera and imaging control program
JP4182864B2 (en) Electronic camera
JP4789365B2 (en) Imaging apparatus and exposure control method thereof
JP5239687B2 (en) Imaging device
JP2004173151A (en) Digital camera
JPH11224324A (en) Image signal processing method and device
JP2001086385A (en) Electronic camera
JP4200575B2 (en) Digital camera
JP2022171438A (en) EXPOSURE CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD AND PROGRAM
JP2005167465A (en) Digital camera and imaging method of digital camera
JP2000209484A (en) Electronic camera having image selection function, and recording medium recording program
JP2007013270A (en) Imaging apparatus
JP2002268112A (en) Image stabilization camera
JP2003348603A (en) Electronic camera
JP5076265B2 (en) Electronic camera
JP4102201B2 (en) Photometric device, electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100823

R150 Certificate of patent or registration of utility model

Ref document number: 4586291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term