JPH11234578A - Image reader - Google Patents
Image readerInfo
- Publication number
- JPH11234578A JPH11234578A JP10028787A JP2878798A JPH11234578A JP H11234578 A JPH11234578 A JP H11234578A JP 10028787 A JP10028787 A JP 10028787A JP 2878798 A JP2878798 A JP 2878798A JP H11234578 A JPH11234578 A JP H11234578A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- photographing
- imaging
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 8
- 238000003384 imaging method Methods 0.000 claims description 135
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 41
- 238000000034 method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- -1 silver halide Chemical class 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Facsimile Scanning Arrangements (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像読み取り装置
に関し、詳しくは、被写領域全体の一画像を後に合成で
きるように被写領域を複数の部分領域に分割して順に拡
大撮影する画像読み取り装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus, and more particularly, to an image reading apparatus which divides an object area into a plurality of partial areas and sequentially enlarges the image so that one image of the entire object area can be synthesized later. Related to the device.
【0002】[0002]
【従来の技術】従来、被写領域を複数の部分領域に分割
し、各部分領域を撮像素子(たとえば、エリアセンサや
ラインセンサ)を用いて、それぞれ何回かに分けて拡大
撮影する、すなわち画像を読み取るタイプの画像読み取
り装置として、たとえばデジタルカメラやデジタルスキ
ャナが提案されている。このタイプの画像読み取り装置
は、後で各部分領域の読み取り画像をつなぎ合わせ、被
写領域全体の一画像(“全体合成画像”ともいう)を合
成できるように、各部分領域を撮影する。各部分領域の
画像は、撮像素子全体をできるだけ有効に用いて拡大撮
影するので、高解像度となる。したがって、このタイプ
の画像読み取り装置は、被写領域全体を同じ撮像素子を
用いて1回で撮影する場合に比べて、高解像度の全体合
成画像を低コストで得ることが可能となる。2. Description of the Related Art Conventionally, a subject area is divided into a plurality of partial areas, and each partial area is enlarged and photographed several times using an image sensor (for example, an area sensor or a line sensor). For example, digital cameras and digital scanners have been proposed as image reading apparatuses that read images. This type of image reading apparatus captures each partial area so that the read images of the respective partial areas are later joined together and one image of the entire subject area (also referred to as an “entire combined image”) can be combined. Since the image of each partial region is enlarged and photographed by using the entire image sensor as effectively as possible, the resolution is high. Therefore, this type of image reading apparatus can obtain a high-resolution whole composite image at low cost as compared with a case where the entire subject area is photographed once using the same image sensor.
【0003】ところで、従来の画像読み取り装置の分野
では、以下のような技術が知られている。すなわち、実
開平5−20462号公報および実開平5−20463
号公報は、シート状の原稿の上を走査することにより画
像を分割して読み取るハンディスキャナにおいて、原稿
に接触して回動するローラーを設け、その回転角度を検
出することにより、画像の位置合わせを行うものを開示
している。特公平4−62627号公報は、原稿の近傍
に基準となる線分を設け、これを読み取ることにより画
像の位置合わせを行うものを開示している。特公平7−
121078号公報は、被写体を含む領域を広範囲に読
み取る大局視用の固定センサと、特定の被写体を詳細に
読み取る局所視用の可動センサとを備え、前者の画像よ
り抽出した移動物体などを後者を用いて追跡して撮影す
るものを開示している。特許登録第2541924号
は、撮影画像を解析することにより移動物体を抽出し、
これを追跡するように撮像系を制御させるものを開示し
ている。銀塩カメラのぶれ検出技術は、フィルムの撮影
画面の特定領域を撮影する撮像部を備え、この画像の変
化により装置のぶれを検出するものが知られている。In the field of conventional image reading apparatuses, the following techniques are known. That is, Japanese Utility Model Laid-Open No. 5-20462 and Japanese Utility Model Laid-Open No. 5-20463.
Japanese Patent Application Laid-Open Publication No. H11-26095 discloses a handy scanner that scans a sheet-shaped document to divide and read an image. In a handy scanner, a roller that rotates in contact with the document is provided, and the rotation angle is detected to align the image. Are disclosed. Japanese Patent Publication No. 4-62627 discloses a technique in which a reference line segment is provided in the vicinity of a document and the position of an image is adjusted by reading the line segment. Tokuhei 7-
Japanese Patent Application Laid-Open No. 121078 has a fixed sensor for global vision that reads a region including a subject in a wide range, and a movable sensor for local vision that reads a specific subject in detail. It discloses an object that is used for tracking and photographing. Patent Registration No. 2541924 extracts a moving object by analyzing a photographed image,
A device that controls an imaging system to track this is disclosed. 2. Description of the Related Art A blur detection technique of a silver halide camera includes an imaging unit that captures a specific area of a film shooting screen, and detects a shake of an apparatus based on a change in the image.
【0004】しかし、上述した従来の技術には以下のよ
うな問題点があった。すなわち、実開平5−20462
号公報および実開平5−20463号公報に開示された
ものは、専用の検出機構が必要であり、コスト、スペー
スが必要となる。縮小光学系を利用したり撮影解像度を
高くすると、位置合わせの精度も向上させる必要があ
り、よりコスト高となる。特公平4ー62627号公報
に開示されたものは、被写体に装置を接触させるスキャ
ナなどでは、近傍に装置の構成物があり基準線を設ける
ことが可能であるが、自然画像を読み取るカメラなどで
は、被写体と装置との距離が離れているため、不可能で
ある。特公平7−121078号公報に開示されたもの
は、大局視用のセンサは被写体の位置を大まかに検出す
るためのもので、撮影解像度が低く、局所視用センサの
位置合わせに必要な精度が得られない。大局視用センサ
の解像度を上げると、データの読み出しや対象の抽出処
理に時聞がかかる。特許登録第2541924号に開示
されたものは、移動物体の抽出は被写体の位置を大まか
に検出するためのもので、撮影解像度が低く局所視用セ
ンサの位置合わせに必要な精度が得られない。銀塩カメ
ラのぶれ検出技術は、装置のぶれを検出する目的のもの
であり、撮像部の走査などは行われない。[0004] However, the above-mentioned conventional technology has the following problems. That is, Japanese Utility Model Laid-Open No. 5-20462.
Japanese Patent Laid-Open Publication No. Hei. 5-20463 and Japanese Unexamined Utility Model Publication No. Hei 5-20463 require a dedicated detection mechanism, which requires cost and space. If a reduction optical system is used or the imaging resolution is increased, it is necessary to improve the accuracy of positioning, which results in higher costs. Japanese Unexamined Patent Publication No. 4-62627 discloses that a scanner or the like that contacts an apparatus with a subject has a component of the apparatus nearby and a reference line can be provided. This is not possible because the distance between the subject and the device is large. Japanese Patent Publication No. 7-121078 discloses that the sensor for global vision is for roughly detecting the position of a subject, and has a low imaging resolution, and the accuracy required for positioning of the sensor for local vision is low. I can't get it. When the resolution of the macroscopic vision sensor is increased, it takes time to read data and extract a target. In the method disclosed in Japanese Patent No. 2541924, the extraction of a moving object is for roughly detecting the position of a subject, and the imaging resolution is low, and the accuracy required for positioning the local vision sensor cannot be obtained. The shake detection technique of the silver halide camera is for detecting the shake of the apparatus, and does not perform scanning of the imaging unit.
【0005】本発明の目的は、このような問題点を解決
することにある。An object of the present invention is to solve such a problem.
【0006】[0006]
【発明が解決しようとする課題】したがって、本発明の
解決すべき技術的課題は、高い位置合わせ精度で分割撮
影することができる画像読み取り装置を提供する。SUMMARY OF THE INVENTION Accordingly, a technical problem to be solved by the present invention is to provide an image reading apparatus capable of performing divided photographing with high positioning accuracy.
【0007】[0007]
【課題を解決するための手段および作用・効果】上記の
技術的課題を解決するため、本発明は、被写領域を分割
撮影する第1の撮像ユニットとは別に、被写領域の特定
領域を撮影する第2の撮像ユニットをさらに備え、第1
の撮像ユニットの移動中に、上記第1および第2の撮像
ユニットが撮影を行い、両撮影画像に基づいて、上記第
1の撮像ユニットの移動を制御することを本質的特徴と
する画像読み取り装置を提供する。本発明は、以下の態
様で具体化される。Means for Solving the Problems and Actions / Effects In order to solve the above technical problem, the present invention provides a method for dividing a specific area of a subject area separately from a first image pickup unit for dividing and photographing the subject area. The camera further includes a second imaging unit for photographing,
An image reading apparatus characterized in that the first and second imaging units perform photographing while the imaging unit is moving, and control the movement of the first imaging unit based on both photographed images. I will provide a. The present invention is embodied in the following aspects.
【0008】本発明の画像読み取り装置は、被写領域全
体を複数の部分領域に分割して順に撮影する画像読み取
り装置であって、光学系および撮像素子を有し、上記各
部分領域に対向したときにその各部分領域をそれぞれ撮
影することができる変角型の第1の撮像ユニットと、こ
の第1の撮像ユニットを上記各部分領域に所定順序で対
向すべく駆動する走査駆動ユニットと、上記第1の撮像
ユニットおよび上記走査駆動ユニットの動作を制御する
制御手段とを備えたタイプのものである。画像読み取り
装置は、次に撮像する分割領域の少なくとも一部を撮像
する第2の撮像ユニットをさらに備える。上記制御手段
は、撮影手段と、撮影方向検出手段と、駆動補正手段と
を含む。上記撮影手段は、第1の上記部分領域の撮影終
了後次に撮影すべき第2の上記部分領域に対向すべく上
記第1の撮像ユニットが移動させられる期間に、上記第
1および第2の撮像ユニットに撮影動作を実行させる。
上記撮影方向検出手段は、上記第1および第2の撮像ユ
ニットにより撮影された撮影画像を比較して、両画像の
重複に基づいて上記第2の撮像ユニットの撮影方向に対
する上記第1の撮像ユニットの撮影方向を検出する。上
記駆動補正手段は、上記撮影方向検出手段により検出し
た上記第1の撮像ユニットの上記撮影方向により検出し
た装置本体の移動とに基づいて、上記走査駆動ユニット
の駆動を補正する。An image reading apparatus according to the present invention is an image reading apparatus that divides the entire subject area into a plurality of partial areas and sequentially takes an image. The image reading apparatus has an optical system and an image sensor, and faces each of the partial areas. A variable-angle first imaging unit capable of capturing an image of each of the partial areas, a scanning drive unit that drives the first imaging unit to face the partial areas in a predetermined order, This is a type including a first imaging unit and control means for controlling the operation of the scanning drive unit. The image reading device further includes a second imaging unit that captures at least a part of the next divided region. The control means includes a photographing means, a photographing direction detecting means, and a drive correcting means. The photographing unit is configured to perform the first and second imaging operations during a period in which the first imaging unit is moved so as to face the second partial region to be imaged next after the imaging of the first partial region is completed. The photographing unit is caused to execute a photographing operation.
The photographing direction detecting means compares photographed images photographed by the first and second image pickup units, and based on an overlap of the two images, the first image pickup unit with respect to a photographing direction of the second image pickup unit. Detecting the shooting direction of. The drive correction means corrects the drive of the scanning drive unit based on the movement of the apparatus main body detected by the imaging direction detected by the imaging direction detection means.
【0009】上記構成において、走査駆動ユニットは、
第1の撮像ユニットを所定順序で各部分領域に向ける。
すなわち、走査駆動ユニットの駆動により、第1の撮像
ユニットは移動し、その撮影方向が変化する。第1の撮
像ユニットは、対向した各部分領域の被写体像を光学系
を介して撮像素子の有効領域にできるだけ大きく結像
し、その部分領域をそれぞれ拡大撮影する。第2の撮像
ユニットは、被写領域の特定領域、すなわち隣接する部
分領域の互いに重なり合う分割境界周辺部分を撮影し、
装置本体に対して固定方向を撮影する。In the above configuration, the scanning drive unit comprises:
The first imaging unit is directed to each partial area in a predetermined order.
That is, the driving of the scanning drive unit moves the first imaging unit, and changes the imaging direction. The first imaging unit forms the subject images of the opposing partial areas as large as possible on the effective area of the image sensor via the optical system, and enlarges and photographs the partial areas. The second imaging unit captures a specific area of the object area, that is, an area around a divided boundary that overlaps with an adjacent partial area,
The fixed direction is photographed with respect to the apparatus body.
【0010】上記構成において、第1および第2の撮像
ユニットは被写領域の特定部分を重複して撮影する。第
1および第2の撮像ユニットの撮影方向と撮影画像との
間には一定の関係があるので、撮影方向検出手段は、第
1および第2の撮像ユニットの撮影画像の重複に基づい
て、第2の撮像ユニットの撮影方向に対する第1の撮像
ユニットの撮影方向を検出することができる。たとえ
ば、第1および第2の撮影画像を比較して対応点、すな
わち両撮影画像に含まれる被写体の同一部分を抽出し
て、その位置と撮影画像の撮影倍率とから、第2の撮像
ユニットの撮影方向に対する第1の撮像ユニットの撮影
方向を検出することできる。第2の撮像ユニットの撮影
方向は装置本体に対して固定されているので、撮影方向
検出手段は、装置本体に対する第1の撮像ユニットの撮
影方向を検出することになる。制御手段は、第1の撮像
ユニットの移動中に第1の撮像ユニットの撮影方向を知
り、第1の撮像ユニットの撮影方向を所望の方向に調節
することができる。In the above configuration, the first and second image pickup units overlap and photograph a specific portion of the object area. Since there is a certain relationship between the photographing directions of the first and second image pickup units and the photographed images, the photographing direction detecting means determines whether the photographing direction of the first and second image pickup units overlaps the photographed images. The imaging direction of the first imaging unit with respect to the imaging direction of the second imaging unit can be detected. For example, the first and second photographed images are compared to extract corresponding points, that is, the same part of the subject included in both the photographed images, and the position and the photographing magnification of the photographed images are used to determine the position of the second photographing unit. The photographing direction of the first imaging unit with respect to the photographing direction can be detected. Since the imaging direction of the second imaging unit is fixed with respect to the apparatus main body, the imaging direction detection means detects the imaging direction of the first imaging unit with respect to the apparatus main body. The control unit can know the shooting direction of the first imaging unit while the first imaging unit is moving, and can adjust the shooting direction of the first imaging unit to a desired direction.
【0011】上記構成によれば、第1の撮像ユニットの
撮影画像を見ながら第1の撮像ユニットを駆動するの
で、第1の撮像ユニットの駆動状態を検出する特別なセ
ンサを用いなくても、撮影解像度に匹敵する高い精度を
確保することができる。また、カメラ本体から被写領域
に参照光を投影する投光式ではカメラ本体の近くに反射
物を必要とするが、上記構成によれば、撮影した画像を
受動的に用いるため、カメラ本体の近くに反射物を必要
としない。また、常に最新の特定領域の画像を撮影し、
それによって撮影方向を検出して第1の撮像ユニットの
駆動を制御しているので、第1の撮像ユニットの移動中
に照明状態の変化等により輝度が変化しても、第1の撮
像ユニットの分割撮影位置を正確に設定することができ
る。According to the above configuration, the first image pickup unit is driven while watching the image taken by the first image pickup unit. Therefore, it is possible to use a special sensor for detecting the driving state of the first image pickup unit without using a special sensor. High accuracy comparable to the shooting resolution can be secured. Further, in the projection type in which the reference light is projected from the camera body to the object area, a reflector is required near the camera body. However, according to the above configuration, the captured image is used passively, so that Requires no nearby reflectors. Also, always take the latest image of the specific area,
Accordingly, the driving of the first imaging unit is controlled by detecting the shooting direction. Therefore, even if the luminance changes due to a change in the illumination state or the like during the movement of the first imaging unit, the first imaging unit is not moved. The divided shooting position can be set accurately.
【0012】したがって、高い位置合わせ精度で分割撮
影することができる。Therefore, it is possible to perform divisional photographing with high positioning accuracy.
【0013】好ましくは、上記制御手段は、上記第2の
撮像ユニットの撮影画像の変化により装置本体の移動を
検出するぶれ検出手段をさらに含む。上記補正駆動手段
は、上記撮影方向検出手段により検出した上記第1の撮
像ユニットの上記撮影方向と上記ぶれ検出手段により検
出した装置本体の移動とに基づいて上記走査駆動ユニッ
トの駆動を補正する。Preferably, the control means further includes a shake detecting means for detecting a movement of the apparatus main body based on a change in a photographed image of the second image pickup unit. The correction drive unit corrects the drive of the scan drive unit based on the shooting direction of the first imaging unit detected by the shooting direction detection unit and the movement of the apparatus main body detected by the shake detection unit.
【0014】上記構成において、第2の撮像ユニットの
撮影方向は装置本体に対して固定されているので、装置
本体の移動(傾きを含む)が生じると、それに対応して
第2の撮像ユニットの撮影画像が移動する。このことか
ら、ぶれ検出手段は、装置本体の移動を検出することが
できる。制御手段は、装置本体の移動を監視し、手ぶれ
等により装置本体の移動が生じても、それを検出して補
正するように第1の撮影ユニットを駆動することによ
り、第1の撮像ユニットの分割撮影位置を正確に設定す
ることが可能である。In the above configuration, since the photographing direction of the second imaging unit is fixed with respect to the apparatus main body, when the apparatus main body moves (including the tilt), the second imaging unit is moved correspondingly. The captured image moves. From this, the shake detecting means can detect the movement of the apparatus main body. The control unit monitors the movement of the apparatus main body, and drives the first imaging unit so as to detect and correct the movement of the apparatus main body due to camera shake or the like, thereby controlling the first imaging unit. It is possible to set the division photographing position accurately.
【0015】したがって、装置本体が移動しても、高い
位置合わせ精度で分割撮影することができる。Therefore, even if the main body of the apparatus moves, it is possible to perform divisional photographing with high positioning accuracy.
【0016】好ましくは、上記撮影方向検出手段は、上
記移動中に上記第1の撮像ユニットにより撮影された撮
影画像について隣接する上記部分領域の互いに重なり合
う上記分割境界周辺部分に相当すべき部分を選択的に読
み出す選択読み出し手段を含む。この選択読み出し手段
が読み出した画像データと上記第2の撮像ユニットの撮
影画像データとにより上記第1の撮像ユニットの上記撮
影方向を検出する。[0016] Preferably, the photographing direction detecting means selects a part which should correspond to a peripheral part of the divided boundary which overlaps the adjacent partial areas in the photographed image photographed by the first photographing unit during the movement. And a selective reading means for selectively reading. The image capturing direction of the first image capturing unit is detected based on the image data read by the selective reading unit and the captured image data of the second image capturing unit.
【0017】上記構成によれば、第1の撮像ユニットの
撮影画像のうち第1の撮像ユニットの撮影方向を検出す
るために必要な特定部分の画像だけを読み出して処理す
るので、第1の撮像ユニットの撮影方向を高速に検出す
ることができる。According to the above arrangement, only the image of the specific portion necessary for detecting the shooting direction of the first image pickup unit is read out of the image picked up by the first image pickup unit and processed. The imaging direction of the unit can be detected at high speed.
【0018】好ましくは、上記被写領域を上下左右に隣
接する4つの上記部分領域に分割して撮影する。上記第
2の撮像ユニットは、上記4つの部分領域の上記分割境
界周辺部分が共通に重なる交差領域を撮影する。Preferably, the object area is photographed by dividing it into four adjacent partial areas vertically and horizontally. The second imaging unit captures an image of an intersection area where the peripheral portions of the four partial areas overlap with each other.
【0019】上記構成によれば、一つの第2の撮像ユニ
ットを用いてできるだけ多くの矩形画面に分割して被写
領域を撮影することができる。したがって、高解像度の
撮影を行うことができる。According to the above arrangement, it is possible to divide the object area into as many rectangular screens as possible by using one second image pickup unit and photograph the object area. Therefore, high-resolution shooting can be performed.
【0020】[0020]
【発明の実施の形態】以下に、図1〜図8に示した本発
明の一実施形態に係るデジタルカメラについて詳細に説
明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a digital camera according to an embodiment of the present invention shown in FIGS. 1 to 8 will be described in detail.
【0021】デジタルカメラ10は、図1の全体透視図
および図2の要部斜視図に示すように、カメラ本体内
に、大略、眼を模した第1の撮像ユニット20と、走査
駆動ユニット24,26と、第2の撮像ユニット70と
を備え、被写領域全体の一画像を後に合成できるよう
に、被写領域を複数の部分領域に分割して第1の撮像ユ
ニット20により順に拡大撮影することができるように
なっている。As shown in the overall perspective view of FIG. 1 and the main part perspective view of FIG. 2, the digital camera 10 has a first imaging unit 20 simulating an eye and a scanning drive unit 24 in a camera body. , 26, and a second imaging unit 70, and divides the imaging region into a plurality of partial regions so that the first imaging unit 20 sequentially magnifies the image so that one image of the entire imaging region can be synthesized later. You can do it.
【0022】第1の撮像ユニット20は、ズームレンズ
16と、ズームレンズ16を駆動する不図示のズームモ
ータ17(図6には図示)と、撮像素子である撮像セン
サ18とを備え、球形筐体に一体的に構成されている。
ズームレンズ16は、被写体像を撮像センサ18上に結
像する。ズームレンズ16は、ズームモータ17の駆動
によって撮影倍率が変化するようになっている。撮影倍
率は、被写領域の分割数に応じて、被写領域の全体画面
から各部分領域の分割画像までを撮像センサ18に結像
できる倍率範囲を備えている。たとえば、被写領域を縦
2×横2の4つの部分領域に分割する場合には、2倍の
倍率範囲が必要となる。撮像センサ18は、CCDエリ
アセンサであり、被写体像の光信号を電気信号に変換す
る。撮像センサ18から読み出されたアナログ電気信号
は、詳しくは後述するが、デジタル信号に変換され、照
度や階調特性などを補正される。The first imaging unit 20 includes a zoom lens 16, a zoom motor 17 (not shown in FIG. 6) for driving the zoom lens 16, and an image sensor 18 as an image sensor. It is configured integrally with the body.
The zoom lens 16 forms a subject image on the image sensor 18. The zoom lens 16 changes the photographing magnification by driving a zoom motor 17. The photographing magnification has a magnification range in which from the entire screen of the object area to the divided image of each partial area can be formed on the image sensor 18 according to the number of divisions of the object area. For example, when dividing the object area into four partial areas of 2 × 2, a double magnification range is required. The imaging sensor 18 is a CCD area sensor, and converts an optical signal of a subject image into an electric signal. The analog electric signal read from the image sensor 18 is converted into a digital signal, as will be described later in detail, and the illuminance and the gradation characteristics are corrected.
【0023】第1の撮像ユニット20の球形筐体は、図
2の要部斜視図および図3の要部断面図に示すように、
被写体側に配置されたリング状の案内ガイド部材22
と、被写体とは反対側に配置された走査駆動ユニット2
4,26とによって挟持され、走査駆動ユニット24,
26によって案内ガイド部材22に摺接しながら回動す
るようになっている。The spherical housing of the first imaging unit 20 has a main part perspective view shown in FIG. 2 and a main part sectional view shown in FIG.
Ring-shaped guide member 22 arranged on the subject side
And a scanning drive unit 2 arranged on the opposite side of the subject
4, 26, and the scanning drive unit 24,
26 allows the guide guide member 22 to rotate while sliding.
【0024】走査駆動ユニット24,26は、上下用2
4と左右用26との2組があり、それぞれ、モータ24
b,26bの出力軸にローラ24a,26aが固定され
てなる。各ローラ24a,26aは上下、左右の2方向
に直交して配置され、第1の撮像ユニット20の球形筐
体の外周面に所定圧力で接し、球形筐体を案内ガイド部
材22の中心方向に付勢する。走査駆動ユニット24,
26のモータ24b,26bが回転すると、ローラ24
a,26aは第1の撮像ユニット20の球形筐体を案内
ガイド部材22に沿って回動させる。これによって、第
1の撮像ユニット20は移動、すなわち傾き、撮影方向
Lが変化する。したがって、走査駆動ユニット24,2
6のモータ24b,26bの回転を制御することによっ
て、第1の撮像ユニット20の撮影方向LをX,Y方向
に任意に制御できるようになっている。The scanning drive units 24 and 26 are provided
4 and right and left 26.
Rollers 24a and 26a are fixed to the output shafts of b and 26b. The rollers 24a and 26a are arranged orthogonally in two directions, up and down, left and right, contact the outer peripheral surface of the spherical housing of the first imaging unit 20 with a predetermined pressure, and move the spherical housing toward the center of the guide member 22. Energize. Scanning drive unit 24,
When the motors 24b, 26b rotate, the rollers 24b
Reference numerals a and 26a rotate the spherical housing of the first imaging unit 20 along the guide member 22. As a result, the first imaging unit 20 moves, that is, tilts, and the shooting direction L changes. Therefore, the scanning drive units 24, 2
By controlling the rotation of the motors 24b and 26b, the imaging direction L of the first imaging unit 20 can be arbitrarily controlled in the X and Y directions.
【0025】第2の撮像ユニット70は、撮像センサ7
2とレンズ74とを備え、被写領域の特定領域の被写体
像を撮像センサ72上に結像するようになっている。第
2の撮像ユニット70の撮影範囲は、第1の撮像ユニッ
ト20が撮影する被写領域全体の中心部分の特定領域に
設定されており、レンズ74の倍率、撮像センサ72の
画素数などもこれに従って定められている。The second image pickup unit 70 includes the image pickup sensor 7
2 and a lens 74 so that a subject image in a specific area of the subject area is formed on the image sensor 72. The imaging range of the second imaging unit 70 is set to a specific area at the center of the entire imaging area to be imaged by the first imaging unit 20, and the magnification of the lens 74, the number of pixels of the imaging sensor 72, etc. It is determined according to.
【0026】さらに、デジタルカメラ10は、その本体
裏面に、不図示の表示部15および操作部11(とも
に、図7には図示)が設けられている。表示部15は、
液晶モニタを含み、撮影範囲、すなわち被写領域の撮影
画像を表示できるようになっている。操作部11は、撮
影準備および撮影開始を指示する操作開始ボタンや撮影
モードの設定スイッチ等を含む。Further, the digital camera 10 is provided with a display unit 15 and an operation unit 11 (both shown in FIG. 7) (not shown) on the back surface of the main body. The display unit 15
Including a liquid crystal monitor, it is possible to display a photographed range, that is, a photographed image of a subject area. The operation unit 11 includes an operation start button for instructing shooting preparation and shooting start, a shooting mode setting switch, and the like.
【0027】デジタルカメラ10は、本体裏面の表示部
15の液晶モニタを見ながら撮影範囲と構図を決め、操
作部11の撮影開始ボタンを押すことによって、被写領
域を4分割して拡大撮影することができる。詳しくは、
撮影開始ボタンを途中まで半押しすると、ズームレンズ
16はワイド(短焦点距離、すなわち広角)状態とな
り、被写領域全体を表示部15の液晶モニタに表示す
る。撮影開始ボタンをさらに押し下げ、完全に押すと、
ズームレンズ16はテレ(長焦点距離、すなわち望遠)
状態となり、第1の撮像ユニット20が傾き、撮影方向
Lを変えながら、4分割された各部分領域を順に撮影す
る。The digital camera 10 determines the photographing range and composition while looking at the liquid crystal monitor of the display unit 15 on the back of the main body, and presses a photographing start button of the operation unit 11 to divide the object area into four parts to perform enlarged photographing. be able to. For more information,
When the shooting start button is half-pressed halfway, the zoom lens 16 is in a wide (short focal length, that is, wide angle) state, and the entire subject area is displayed on the liquid crystal monitor of the display unit 15. Press the shooting start button further and press it completely,
The zoom lens 16 is telephoto (long focal length, ie, telephoto)
In this state, the first imaging unit 20 tilts and changes the shooting direction L to sequentially shoot each of the four divided sub-regions.
【0028】次に、デジタルカメラ10の撮影画面につ
いて、図4を参照しながら説明する。撮影する被写領域
Sの画面は、分割線M,Nによって上下左右の中心で4
つに等分割される。このように分割された分割画面1〜
4をそれぞれ含むように、部分領域Aを順次撮影した
後、撮影画像を合成することにより、被写領域S全体の
1枚の画像、すなわち全体合成画像を作成する。撮影領
域の移動は、前述した走査駆動ユニット24,26によ
り第1の撮像ユニット20の撮影方向Lを変化させるこ
とにより行う。撮影する順序は、任意に決定することが
できるが、ここでは1→2→3→4の順に、左上から始
め、時計まわりとする。Next, a photographing screen of the digital camera 10 will be described with reference to FIG. The screen of the object area S to be photographed is divided into four lines by the dividing lines M and N at the center in the upper, lower, left and right directions.
It is equally divided into two. The divided screens 1 to 1 thus divided
After the partial areas A are sequentially photographed so as to include the image Nos. 4 and 4, the captured images are combined to create one image of the entire subject area S, that is, an entire composite image. The movement of the imaging area is performed by changing the imaging direction L of the first imaging unit 20 by the scanning drive units 24 and 26 described above. The order of photographing can be arbitrarily determined, but here, the order is 1 → 2 → 3 → 4, starting from the upper left and clockwise.
【0029】次に、撮影領域を移動するときの制御方法
について、図5を参照しながら説明する。Next, a control method for moving the photographing area will be described with reference to FIG.
【0030】各部分領域の撮影領域Gは、すべて同じ大
きさであり、前述した分割線M,Nにより分割された各
分割画面1〜4に比べ、上下および左右に所定幅だけ大
きく設定されている。したがって、互いに隣接する部分
領域の撮影画像は、分割線M,Nの周辺部分が互いに重
なり合い、4枚の部分領域の撮影画像は、被写領域の画
面中心部分で共通に重なり合う。この共通に重なり合う
部分を、「交差領域」と呼ぶことにする。第2の撮像ユ
ニット70は、この交差領域を撮影するようになってい
る。The photographing areas G of the respective partial areas are all the same size, and are set to be larger by a predetermined width in the vertical and horizontal directions than the divided screens 1 to 4 divided by the dividing lines M and N described above. I have. Therefore, in the captured images of the partial areas adjacent to each other, the peripheral portions of the dividing lines M and N overlap each other, and the captured images of the four partial areas commonly overlap at the center of the screen of the object area. This commonly overlapping portion will be referred to as an “intersection area”. The second imaging unit 70 is configured to photograph this intersection area.
【0031】走査駆動ユニット24,26による第1の
撮像ユニット20の撮影方向の移動の制御は、第1の撮
像ユニット20の撮影画像中の交差領域に相当する領域
を検出領域とし、この検出領域内の画像と、第2の撮像
ユニットの交差領域の撮影画像とを利用することによっ
て行う。The control of the movement of the first image pickup unit 20 in the photographing direction by the scanning drive units 24 and 26 is performed by setting a region corresponding to an intersection region in a photographed image of the first image pickup unit 20 as a detection region, And the captured image of the intersection area of the second imaging unit.
【0032】具体的には、分割画面1を含む画面1の撮
影が終了すると、左右方向の走査駆動ユニット26を駆
動させて第1の撮像ユニット20の撮影領域Gを、被写
領域Sに対して右方向に走査、すなわち移動させる。第
1および第2の撮像ユニット20,70は、第1の撮像
ユニット20の撮影領域Gの移動中に所定時間が経過す
る毎に撮影を行う。そして、第1の撮像ユニット20の
撮像画像について検出領域の画像のみを抽出して、第2
の撮像ユニット70の撮影画像と比較を行う。図5
(I)〜(III)に示すように、あらかじめ狙いの走査速
度を定めておき、これに合わせて、撮像センサ18が撮
影する撮影領域Gの画面中において交差領域に相当すべ
き位置に検出領域C1,Ct,C2を設定し、撮影領域
Gの走査に伴なって、検出領域C1,Ct,C2の位置
を左方向に移動させる。Specifically, when the photographing of the screen 1 including the divided screen 1 is completed, the scanning drive unit 26 in the left and right direction is driven to move the photographing area G of the first image pickup unit 20 to the object area S. Scan, ie, move to the right. The first and second imaging units 20 and 70 perform imaging each time a predetermined time elapses while the imaging area G of the first imaging unit 20 is moving. Then, only the image in the detection area is extracted from the captured image of the first imaging unit 20 and the second image is extracted.
Is compared with the image taken by the image pickup unit 70 of FIG. FIG.
As shown in (I) to (III), the target scanning speed is determined in advance, and the detection area is set at a position corresponding to the intersection area on the screen of the imaging area G imaged by the imaging sensor 18 in accordance with this. C1, Ct, and C2 are set, and the positions of the detection areas C1, Ct, and C2 are moved to the left along with the scanning of the imaging area G.
【0033】狙いの走査速度をVとし、画面1から撮影
領域Gの移動を開始し、t時間経過したときに画面Tを
撮影している場合、画面Tの撮影領域G内での検出領域
Ctの位置は、画面1の撮影領域Gの検出領域C1の位
置より、左方向にV・tだけ移動した位置となる。こう
して読み出された画面Tの検出領域Ctの撮影画像と、
第2の撮像ユニット70の撮影画像とを比較し、対応す
る箇所を見つける。対応する箇所のずれ量が、狙いの位
置(速度)からのずれ量となる。したがって、このずれ
量に応じて、撮影領域Gの移動速度、すなわち走査駆動
ユニット24,26による第1の撮像ユニット20の駆
動を調節する。両者の対応にずれがなければ、第1の撮
像ユニット20の駆動は適切であるということになる。When the target scanning speed is set to V and the movement of the photographing area G is started from the screen 1 and the screen T is photographed when the time t has elapsed, the detection area Ct in the photographing area G of the screen T is determined. Is a position shifted leftward by V · t from the position of the detection area C1 of the shooting area G on the screen 1. A captured image of the detection area Ct of the screen T thus read out,
The captured image of the second image capturing unit 70 is compared with the captured image to find a corresponding portion. The shift amount of the corresponding portion is the shift amount from the target position (speed). Therefore, the moving speed of the photographing area G, that is, the driving of the first image pickup unit 20 by the scanning drive units 24 and 26 is adjusted in accordance with the shift amount. If there is no difference between the two, it means that the driving of the first imaging unit 20 is appropriate.
【0034】図5(III)に示したように、撮影方向の
移動により撮影領域Gの左下端に検出領域C2が設定さ
れ、ここで対応点による位置が一致すると、撮影領域G
が分割画面2を含む画面2の位置まで移動したことにな
る。As shown in FIG. 5 (III), the detection area C2 is set at the lower left end of the photographing area G by moving in the photographing direction.
Has moved to the position of the screen 2 including the split screen 2.
【0035】撮影中に撮影者の手ぶれなどによる撮影方
向のずれが生じたときにも、第2の撮像ユニット70の
撮影画像がこれに伴って変化するため、これによる位置
ずれを補正するように走査駆動ユニット24,26を制
御する。左右方向の走査中に上下方向のずれが生じた場
合にも、同様にこの方向への補正を行う。また、撮影中
に照度変化などにより検出領域の被写体の輝度が変化し
た場合でも、第1および第2の撮像ユニット20,70
の双方の撮影画像を同様に処理する。Even when the photographing direction shifts due to camera shake of the photographer during photographing, the photographed image of the second image pickup unit 70 changes accordingly, so that the positional deviation due to this is corrected. The scanning drive units 24 and 26 are controlled. If a vertical shift occurs during the horizontal scan, the correction in this direction is performed similarly. Also, even when the luminance of the subject in the detection area changes due to a change in illuminance or the like during shooting, the first and second imaging units 20 and 70
Are processed in the same manner.
【0036】対応点の見つけ方は、画像データのエッジ
箇所などを用いる公知の画像抽出技術を利用することが
できる。たとえば図6に示したように、第1の撮像ユニ
ット20の撮影領域G中の検出領域内の画像と第2の撮
像ユニット70の撮像画像とについて、それぞれの画像
データの微分からエッジ、たとえば輝度の段差部分を抽
出し、対応点の座標値(x1,y1)と(x2,y2)
とを比較することによって、位置ずれを検出する。ま
た、上記実施例では、移動中に繰返し補正を行うように
しているが、画面2の位置まで単に移動させ、その位置
でずれ量(駆動によるずれと手振れによるずれ)を検出
し、ずれていればその分を補正するように再駆動するよ
うにしてもよい。For finding the corresponding point, a known image extraction technique using an edge portion of image data or the like can be used. For example, as shown in FIG. 6, for the image in the detection area in the image capturing area G of the first image capturing unit 20 and the image captured by the second image capturing unit 70, the edge, for example, the luminance is obtained from the differentiation of the respective image data. Are extracted, and the coordinate values (x1, y1) and (x2, y2) of the corresponding point are extracted.
Is detected by detecting the position shift. In the above-described embodiment, the correction is repeatedly performed during the movement. However, the movement is simply performed to the position of the screen 2, and the amount of the displacement (the displacement due to the driving and the displacement due to the camera shake) is detected at the position. For example, re-driving may be performed so as to correct the amount.
【0037】なお、撮影領域Gに設定する検出領域を、
撮影領域Gの移動に伴って移動させる代わりに、たとえ
ば、画面1の撮影終了の直後に画面2に対応して検出領
域を撮影領域Gの左下端に設定して、走査駆動ユニット
24,26を駆動し、撮影領域Gを移動させながら、撮
影領域Gの左下端の検出領域に対応点が出現するのを待
つという方法もある。しかし、撮影範囲移動中の手ぶ
れ、被写体の輝度変化、第1の撮像ユニット20の移動
速度や移動方向の変動等を考慮すると、短時間経過毎
に、逐次、検出領域を更新して対応点を比較する前述の
方法の方が、外乱に対して対応をとりやすい。It should be noted that the detection area set in the photographing area G is
Instead of moving along with the movement of the photographing area G, for example, immediately after the photographing of the screen 1 is completed, the detection area is set at the lower left end of the photographing area G corresponding to the screen 2 and the scanning drive units 24 and 26 are moved. There is also a method of driving and moving the photographing area G while waiting for a corresponding point to appear in the detection area at the lower left end of the photographing area G. However, in consideration of camera shake during the movement of the shooting range, changes in the brightness of the subject, changes in the moving speed and moving direction of the first imaging unit 20, and the like, the detection area is updated and the corresponding points are sequentially updated every short time. The above-described method of comparison makes it easier to respond to disturbance.
【0038】分割画面2を含む画面2から、分割画面3
を含む画面3への上下方向の移動時には、図5(III)
〜(V)に示したように、撮影領域Gの左端に検出領域
C2,Ct,C3を設定し、撮影領域Gが上から下に移
動するのにともなって、検出領域C2,Ct,C3を撮
影領域G内で下から上に移動し、先と同様に検出領域の
画像データを選択的に読み取ることにより、撮影領域G
の移動を制御する。From the screen 2 including the split screen 2, the split screen 3
5 (III) when moving vertically to the screen 3 including
As shown in (V), the detection areas C2, Ct, and C3 are set at the left end of the imaging area G, and the detection areas C2, Ct, and C3 are changed as the imaging area G moves from top to bottom. By moving upward from the bottom in the shooting area G and selectively reading the image data in the detection area as before, the shooting area G
Control movement.
【0039】撮影領域Gの画像から特定部分、すなわち
検出領域のデータを選択的に読み出すために、撮像セン
サ18に、たとえば、画素番地の指定により画像データ
を読み出せるMOS型撮像素子を用いても、あるいは、
特定の行、列の画像データのみを読み出す機能を備えた
フレーム転送型CCD撮像素子を用いてもよい。また、
撮影した画像のうち、分割線M,Nにより分割された分
割画面からはみ出した部分には、検出領域の一部も含ま
れるが、このはみ出し部分は、全体合成画像を合成する
ときに貼り代としても用いることができる。In order to selectively read data of a specific portion, that is, data of a detection region from the image of the photographing region G, the image sensor 18 may be, for example, a MOS type image sensor capable of reading image data by specifying a pixel address. Or
A frame transfer type CCD imaging device having a function of reading out only image data of a specific row and column may be used. Also,
The part of the captured image that protrudes from the divided screen divided by the dividing lines M and N includes a part of the detection area, but the protruding part is used as a pasting margin when synthesizing the entire composite image. Can also be used.
【0040】次に、図7の回路ブロック図を参照しなが
ら、デジタルカメラ10の構成について、さらに説明す
る。デジタルカメラ10は、撮像系と制御系とに大別で
きる。Next, the configuration of the digital camera 10 will be further described with reference to the circuit block diagram of FIG. The digital camera 10 can be roughly classified into an imaging system and a control system.
【0041】撮像系は、第1の撮像ユニット20の撮像
センサ18と、撮像センサ18からのアナログ信号をデ
ジタル信号に変換するA/D変換器42と、A/D変換
器42からのデジタル信号を一時的に記憶する画像メモ
リ44と、画像メモリ44が記憶したデータを読み出し
て全体合成画像のデータを合成する画像合成器46と、
合成したデータを処理して照度や階調特性などを補正す
る画像処理器48と、画像処理器48が補正したデータ
を記録媒体や表示装置等に出力する出力部49とが、直
列に接続されている。これとは別に、第2の撮像ユニッ
ト70の撮像センサ72と、撮像センサ72からのアナ
ログ信号をデジタル信号に変換するA/D変換器76と
がさらに含まれる。The imaging system includes an imaging sensor 18 of the first imaging unit 20, an A / D converter 42 for converting an analog signal from the imaging sensor 18 into a digital signal, and a digital signal from the A / D converter 42. An image memory 44 for temporarily storing data, an image synthesizer 46 for reading data stored in the image memory 44 and synthesizing data of the entire synthesized image,
An image processor 48 that processes the combined data to correct the illuminance and gradation characteristics, and an output unit 49 that outputs the data corrected by the image processor 48 to a recording medium, a display device, or the like are connected in series. ing. Apart from this, an image sensor 72 of the second image pickup unit 70 and an A / D converter 76 for converting an analog signal from the image sensor 72 into a digital signal are further included.
【0042】制御系は、データバスを介して、CPU5
0と、第1の撮像ユニット20の撮像センサ18と第2
の撮像ユニット70の撮像センサ72の動作を制御する
撮影制御部19と、走査駆動ユニット24,26のモー
タ24b,26bと、第1の撮像ユニット20のズーム
モータ17と、カメラ本体裏面の操作部14および表示
部15と、位置検出部の対応点抽出、比較器66と、画
像処理制御部40とが相互に接続されている。位置検出
部は、直列に接続された部分メモリ62、エッジ抽出器
66、および対応点抽出、比較器66からなる。部分メ
モリ62は、画像メモリ44およびA/D変換器76に
接続されている。位置検出部は、第1の撮像ユニット2
0の撮影画像中の検出領域内のデータと、第2の撮像ユ
ニット70による撮影画像のデータとを部分メモリ62
に一時的に記憶し、エッジ抽出器64によって、それぞ
れの画像データからエッジを抽出し、対応点抽出、比較
器66によって、両画像データから対応点を抽出し、対
応点を比較して、そのずれ量を出力する。画像処理制御
部40は、画像合成器46および画像処理器48にそれ
ぞれ接続され、画像合成および画像処理を制御する。C
PU50には、初期データ等を記憶しておく内部メモリ
52が接続されている。制御系は、第1および第2の撮
像ユニット20,70の撮影制御、ズームモータ17に
よるズームレンズ16の倍率制御、走査駆動ユニット2
4,26の走査制御、第1の撮像ユニット20の撮影位
置の検出制御、画像データの処理・合成、撮影開始やモ
ード切り換えなどの操作制御を行い、これらの制御は、
CPU50が統括する。The control system is connected to the CPU 5 via a data bus.
0, the imaging sensor 18 of the first imaging unit 20 and the second
The imaging control unit 19 for controlling the operation of the imaging sensor 72 of the imaging unit 70, the motors 24b and 26b of the scanning drive units 24 and 26, the zoom motor 17 of the first imaging unit 20, and the operation unit on the back of the camera body 14 and the display unit 15, the corresponding point extraction and comparator 66 of the position detection unit, and the image processing control unit 40 are interconnected. The position detection unit includes a partial memory 62, an edge extractor 66, and a corresponding point extraction / comparator 66 connected in series. The partial memory 62 is connected to the image memory 44 and the A / D converter 76. The position detection unit includes the first imaging unit 2
0 in the detection area in the captured image and the data of the image captured by the second imaging unit 70 are stored in the partial memory 62.
The edge is extracted from each image data by the edge extractor 64, the corresponding point is extracted from the corresponding image data by the corresponding point extraction and the comparator 66, the corresponding points are compared, and the corresponding points are compared. Outputs the shift amount. The image processing controller 40 is connected to the image synthesizer 46 and the image processor 48, respectively, and controls image synthesis and image processing. C
An internal memory 52 for storing initial data and the like is connected to the PU 50. The control system includes a photographing control of the first and second imaging units 20 and 70, a magnification control of the zoom lens 16 by the zoom motor 17, a scanning drive unit 2
4 and 26, controlling the detection of the photographing position of the first image pickup unit 20, processing and synthesizing image data, operating control such as photographing start and mode switching, and the like.
The CPU 50 controls.
【0043】次に、デジタルカメラ10の動作につい
て、図8のフローチャート図を参照しながら、さらに説
明する。Next, the operation of the digital camera 10 will be further described with reference to the flowchart of FIG.
【0044】ステップ#10において、操作開始ボタン
の半押しにより撮影準備信号が入力されるのを待つ。撮
影準備信号が入力されると、ステップ#12において、
走査駆動ユニット24,26のモータ24b,26bが
駆動して第1の撮像ユニット20の撮影方向を被写領域
Sの中心に向け、ステップ#14において、ズームモー
タ17が駆動して、第1の撮像ユニット20のズームレ
ンズ16をワイド状態に設定する。次に、ステップ#1
6において、第1の撮像ユニット20は、ズームレンズ
16のピントを合わせた後、被写領域S全体を撮影し、
ステップ#18において、その撮影画像を表示部15に
表示する。つまり、デジタルカメラ10は、ファインダ
ー代わりとして被写領域S全体の撮影画像を表示する。
次に、ステップ#20において、操作開始ボタンが完全
に押し込まれて撮影開始信号が入力されるまで、上記ス
テップ#16および#18を繰り返す。In step # 10, the process waits until a photographing preparation signal is input by half-pressing the operation start button. When the shooting preparation signal is input, in step # 12,
The motors 24b and 26b of the scanning drive units 24 and 26 are driven to direct the shooting direction of the first imaging unit 20 toward the center of the object area S. In step # 14, the zoom motor 17 is driven to The zoom lens 16 of the imaging unit 20 is set to a wide state. Next, step # 1
In 6, the first imaging unit 20 photographs the entire subject area S after focusing the zoom lens 16,
In step # 18, the captured image is displayed on the display unit 15. That is, the digital camera 10 displays a captured image of the entire subject area S as a substitute for the viewfinder.
Next, in step # 20, steps # 16 and # 18 are repeated until the operation start button is completely pressed and a shooting start signal is input.
【0045】撮影開始信号が入力されると、被写領域S
全体の撮影画像の表示を継続したまま、分割撮影の動作
に移る。すなわち、ステップ#22において、ズームモ
ータ17が駆動してズームレンズ16をテレ状態に設定
するとともに、ステップ#24において走査駆動ユニッ
ト24,26のモータ24b,26bが駆動して第1の
撮像ユニット20の撮影方向を移動させ、最初の撮影領
域である部分領域に対向させる。そして、ステップ#2
6において、第1の撮像ユニット20は部分領域を撮影
し、その画面1の画像データをA/D変換した後、画像
メモリ44に記憶する。When the photographing start signal is input, the object area S
The operation shifts to the divided shooting operation while the display of the entire shot image is continued. That is, in step # 22, the zoom motor 17 is driven to set the zoom lens 16 to the telephoto state, and in step # 24, the motors 24b and 26b of the scanning drive units 24 and 26 are driven to drive the first imaging unit 20. Is moved to face the partial area which is the first imaging area. And step # 2
In 6, the first imaging unit 20 captures an image of the partial area, A / D converts the image data of the screen 1, and stores it in the image memory 44.
【0046】画面1の撮影が終了すると、ステップ#2
8において、パラメータNを2として、ステップ#30
において、走査駆動ユニット24,26のモータ24
b,26bが駆動し、ステップ#32において、所定時
間が経過するのを待つ。所定時間経過後、ステップ#3
4において、第1および第2の撮像ユニット20,70
は撮影を行う。そして、ステップ#36において、第1
の撮像ユニット20の撮影画面について検出領域を所定
量だけ移動してその部分の画像だけを読み取り、ステッ
プ#38において、第1の撮像ユニット20から抽出し
た画像と第2の撮像ユニット70の撮影画像とについて
エッジ成分を抽出し、ステップ#40において、両画像
から抽出したエッジ成分を比較することにより、対応点
を検出し、ステップ#42において、走査駆動ユニット
24,26の駆動量に対する第1の撮像ユニット20の
撮影領域のずれ量を検出し、このずれを補正するよう
に、次に走査駆動ユニットの走査駆動ユニット24,2
6の駆動量を演算する。ステップ#44において、第1
の撮像ユニット20が画面2を撮影するまで、上記ステ
ップ#32〜#42を繰り返す。すなわち、第1の撮像
ユニット20による撮影画像の検出領域が撮影画像の左
下端に達し、かつ、その検出領域の画像と第2の撮像ユ
ニット70の撮影画像との対応点のずれがなくなるま
で、順に、走査、撮影、比較を繰り返す。第1の撮像ユ
ニット20の撮影範囲が画面2まで移動すると、ステッ
プ#46において、第1の撮像ユニット20が撮影した
は画面2の撮影画像のデータをA/D変換して、画像メ
モリ44に記憶する。ステップ#48において、パラメ
ータNを1だけ大きくし、ステップ#50において、N
が4を越えるまで、上記ステップ#30〜#48を繰り
返し、画面2から3、3から4についても同様に撮影動
作を実行する。When the photographing of the screen 1 is completed, step # 2
8, the parameter N is set to 2 and step # 30
, The motor 24 of the scanning drive units 24 and 26
b and 26b are driven, and in step # 32, it waits for a predetermined time to elapse. After a lapse of a predetermined time, step # 3
4, the first and second imaging units 20, 70
Performs shooting. Then, in step # 36, the first
In the photographing screen of the imaging unit 20, the detection area is moved by a predetermined amount and only the image of that part is read. In step # 38, the image extracted from the first imaging unit 20 and the photographed image of the second imaging unit 70 are read. In step # 40, a corresponding point is detected by comparing the edge components extracted from the two images. In step # 42, a first point corresponding to the driving amount of the scan driving units 24 and 26 is determined. Next, the scan drive units 24 and 2 of the scan drive units are detected so as to detect the shift amount of the imaging area of the imaging unit 20 and correct the shift.
6 is calculated. In step # 44, the first
Steps # 32 to # 42 are repeated until the image pickup unit 20 takes a picture of the screen 2. That is, until the detection area of the image captured by the first imaging unit 20 reaches the lower left end of the captured image and the corresponding point between the image of the detection area and the image captured by the second imaging unit 70 is no longer shifted. Scanning, photographing, and comparing are sequentially repeated. When the imaging range of the first imaging unit 20 moves to the screen 2, the data of the image captured by the first imaging unit 20 on the screen 2 is A / D converted and stored in the image memory 44 in step # 46. Remember. In step # 48, the parameter N is increased by one, and in step # 50, N
Steps # 30 to # 48 are repeated until the value exceeds 4, and the photographing operation is similarly performed on screens 2 to 3, 3 and 4.
【0047】Nが4を越え、全画面の分割撮影が終了す
ると、ステップ#52において、画像メモリ44に記憶
した各部分領域の撮影画像のデータを読み出して貼り合
わせ、被写領域全体の1枚の画像を合成し、ステップ#
54において、照度や階調などを補正する処理を適宜行
った後、ステップ#56において、処理した後のデータ
を出力する。When N exceeds 4, and the divisional photographing of the entire screen is completed, in step # 52, the data of the photographed images of the respective partial areas stored in the image memory 44 are read out and pasted, and one image of the entire subject area is read out. Combine the images of step #
After appropriately performing processing for correcting illuminance, gradation, and the like in 54, the processed data is output in step # 56.
【0048】このデジタルカメラ10は、撮影した画像
を受動的に用いるため、カメラ本体から被写領域に参照
光を投影する投光式のようにカメラ本体の近くに反射物
を必要としない。また、常に最新の交差領域の画像を第
2の撮像ユニット70が撮影しているため、第1の撮像
ユニット20の移動中において、照明状態の変化により
輝度が変化したり、手ぶれ等によりカメラ本体の移動が
生じても、分割撮影位置を正確に設定することが可能で
ある。Since the digital camera 10 uses the captured image passively, there is no need for a reflector near the camera main body unlike the light projection type in which reference light is projected from the camera main body to an object area. In addition, since the second image capturing unit 70 always captures the latest image of the intersection area, the luminance changes due to a change in the illumination state while the first image capturing unit 20 is moving, and the camera body due to camera shake or the like. It is possible to accurately set the divided photographing position even if the movement of.
【0049】なお、本発明は上記実施形態に限定される
ものではなく、その他種々の態様で実施可能である。The present invention is not limited to the above embodiment, but can be implemented in various other modes.
【図面の簡単な説明】[Brief description of the drawings]
【図1】 本発明の一実施形態のデジタルカメラの透視
図である。FIG. 1 is a perspective view of a digital camera according to an embodiment of the present invention.
【図2】 図1のデジタルカメラの要部斜視図である。FIG. 2 is a perspective view of a main part of the digital camera of FIG.
【図3】 図2の撮像ユニットの動作の説明図である。FIG. 3 is an explanatory diagram of an operation of the imaging unit in FIG. 2;
【図4】 図1のデジタルカメラの撮影画面の説明図で
ある。FIG. 4 is an explanatory diagram of a shooting screen of the digital camera in FIG. 1;
【図5】 図1のデジタルカメラの撮影動作の説明図で
ある。FIG. 5 is an explanatory diagram of a photographing operation of the digital camera in FIG. 1;
【図6】 図1のデジタルカメラの対応点検出の説明図
である。FIG. 6 is an explanatory diagram of corresponding point detection of the digital camera in FIG. 1;
【図7】 図1のデジタルカメラの回路ブロック図であ
る。FIG. 7 is a circuit block diagram of the digital camera shown in FIG. 1;
【図8】 図1のデジタルカメラの動作のフローチャー
ト図である。FIG. 8 is a flowchart of the operation of the digital camera in FIG. 1;
10 デジタルカメラ(画像読み取り装置) 11 操作部 15 表示部 16 ズームレンズ(光学系) 17 ズームモータ 18 撮像センサ(撮像素子) 19 撮像制御部 20 第1の撮像ユニット 22 案内ガイド部材 24 走査駆動ユニット 24a ローラ 24b モータ 26 走査駆動ユニット 26a ローラ 26b モータ 40 画像処理制御部 42 A/D変換器 44 画像メモリ 46 画像合成器 48 画像処理器 49 出力部 50 CPU(制御手段、撮影手段、撮影方向検出手
段、ぶれ検出手段、駆動補正手段) 52 内部メモリ 62 部分メモリ(制御手段、撮影方向検出手段、ぶれ
検出手段) 64 エッジ抽出器(制御手段、撮影方向検出手段、ぶ
れ検出手段) 66 対応点抽出、比較器(制御手段、撮影方向検出手
段、ぶれ検出手段) 70 第2の撮像ユニット 72 撮像センサ 74 レンズ 76 A/D変換器 A 部分領域 C,C1,C2,C3,Ct,Cs 検出領域 G 撮影領域 L 撮影方向 M,N 分割線 S 被写領域Reference Signs List 10 digital camera (image reading device) 11 operation unit 15 display unit 16 zoom lens (optical system) 17 zoom motor 18 imaging sensor (imaging element) 19 imaging control unit 20 first imaging unit 22 guide guide member 24 scan drive unit 24a Roller 24b Motor 26 Scanning drive unit 26a Roller 26b Motor 40 Image processing controller 42 A / D converter 44 Image memory 46 Image synthesizer 48 Image processor 49 Output unit 50 CPU (control means, photographing means, photographing direction detecting means, (Blur detection means, drive correction means) 52 Internal memory 62 Partial memory (control means, imaging direction detection means, blur detection means) 64 Edge extractor (control means, imaging direction detection means, blur detection means) 66 Corresponding point extraction, comparison Unit (control means, photographing direction detecting means, blur detecting means) 7 0 second imaging unit 72 imaging sensor 74 lens 76 A / D converter A partial area C, C1, C2, C3, Ct, Cs detection area G imaging area L imaging direction M, N dividing line S imaging area
Claims (4)
て順に撮影する画像読み取り装置であって、光学系およ
び撮像素子を有し、上記各部分領域に対向したときに該
各部分領域をそれぞれ撮影することができる変角型の第
1の撮像ユニットと、該第1の撮像ユニットを上記各部
分領域に所定順序で対向すべく駆動する走査駆動ユニッ
トと、上記第1の撮像ユニットおよび上記走査駆動ユニ
ットの動作を制御する制御手段とを備えた画像読み取り
装置において、 次に撮像する分割領域の少なくとも一部を撮像する第2
の撮像ユニットをさらに備え、 上記制御手段は、 第1の上記部分領域の撮影終了後次に撮影すべき第2の
上記部分領域に対向すべく上記第1の撮像ユニットが移
動させられる期間に、上記第1および第2の撮像ユニッ
トに撮影動作を実行させる、撮影手段と、 上記第1および第2の撮像ユニットにより撮影された撮
影画像を比較して、両画像の重複に基づいて上記第2の
撮像ユニットの撮影方向に対する上記第1の撮像ユニッ
トの撮影方向を検出する撮影方向検出手段と、 上記撮影方向検出手段により検出した上記第1の撮像ユ
ニットの上記撮影方向に基づいて上記走査駆動ユニット
の駆動を補正する駆動補正手段とを含むことを特徴とす
る、画像読み取り装置。1. An image reading apparatus for dividing an entire subject area into a plurality of partial areas and sequentially photographing the plurality of partial areas, comprising: an optical system and an image sensor; A variable-angle first imaging unit capable of photographing each of the images, a scanning drive unit that drives the first imaging unit to face each of the partial areas in a predetermined order, the first imaging unit, An image reading apparatus comprising: a control unit configured to control an operation of the scanning drive unit;
The imaging device further includes: an imaging unit, wherein the control unit is configured to move the first imaging unit to face the second partial region to be imaged next after the end of the imaging of the first partial region, A photographing means for causing the first and second image pickup units to execute a photographing operation; comparing photographed images photographed by the first and second image pickup units; Photographing direction detecting means for detecting a photographing direction of the first image pickup unit with respect to a photographing direction of the image pickup unit; and the scanning drive unit based on the photographing direction of the first image pickup unit detected by the photographing direction detecting means. An image reading apparatus, comprising: a driving correction unit for correcting driving of the image reading apparatus.
トの撮影画像の変化により装置本体の移動を検出するぶ
れ検出手段をさらに含み、 上記補正駆動手段は、上記撮影方向検出手段により検出
した上記第1の撮像ユニットの上記撮影方向と上記ぶれ
検出手段により検出した装置本体の移動とに基づいて上
記走査駆動ユニットの駆動を補正することを特徴とす
る、請求項1記載の画像読み取り装置。2. The image forming apparatus according to claim 1, wherein the control unit further includes a shake detecting unit configured to detect a movement of the apparatus main body based on a change in a captured image of the second image capturing unit, and the correction driving unit detects the movement of the apparatus main body. 2. The image reading apparatus according to claim 1, wherein the drive of the scanning drive unit is corrected based on the photographing direction of the first image pickup unit and the movement of the apparatus main body detected by the shake detecting means.
上記第1の撮像ユニットにより撮影された撮影画像につ
いて隣接する上記部分領域の互いに重なり合う上記分割
境界周辺部分に相当すべき部分を選択的に読み出す選択
読み出し手段を含み、該選択読み出し手段が読み出した
画像データと上記第2の撮像ユニットの撮影画像データ
とにより上記第1の撮像ユニットの上記撮影方向を検出
することを特徴とする、請求項1記載の画像読み取り装
置。3. The photographing direction detecting means selectively selects a part which should correspond to a peripheral part of the divided boundary which overlaps the adjacent partial areas in the photographed image photographed by the first image pickup unit during the movement. And selecting the photographing direction of the first image pickup unit based on the image data read by the selective read means and the photographed image data of the second image pickup unit. Item 2. The image reading device according to Item 1.
の上記部分領域に分割して撮影し、 上記第2の撮像ユニットは、上記4つの部分領域の上記
分割境界周辺部分が共通に重なる交差領域を撮影するこ
とを特徴とする、請求項1記載の画像読み取り装置。4. The image pickup area is divided into four adjacent partial areas vertically and horizontally for photographing, and in the second image pickup unit, the divided peripheral areas of the four partial areas overlap in common. 2. The image reading apparatus according to claim 1, wherein the intersection area is photographed.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10028787A JPH11234578A (en) | 1998-02-10 | 1998-02-10 | Image reader |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10028787A JPH11234578A (en) | 1998-02-10 | 1998-02-10 | Image reader |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11234578A true JPH11234578A (en) | 1999-08-27 |
Family
ID=12258152
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10028787A Pending JPH11234578A (en) | 1998-02-10 | 1998-02-10 | Image reader |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH11234578A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003274263A (en) * | 2002-03-13 | 2003-09-26 | Casio Comput Co Ltd | Electronic camera and recording method |
-
1998
- 1998-02-10 JP JP10028787A patent/JPH11234578A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003274263A (en) * | 2002-03-13 | 2003-09-26 | Casio Comput Co Ltd | Electronic camera and recording method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TWI387330B (en) | Image pickup device having a panning mode for capturing a panning image | |
| US8073207B2 (en) | Method for displaying face detection frame, method for displaying character information, and image-taking device | |
| CN102037719B (en) | Photographing apparatus, portable information processing terminal, monitor display method of photographing apparatus, and program | |
| JP6833746B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
| US10110819B2 (en) | Imaging apparatus, and image blur correcting method of imaging apparatus | |
| JP7023662B2 (en) | Image processing device, image pickup device, control method and program of image processing device | |
| TW200845733A (en) | Camera apparatus, recording medium in which camera apparatus control program is recorded, and method for controlling camera apparatus | |
| US20170111574A1 (en) | Imaging apparatus and imaging method | |
| JP2000078445A (en) | Digital camera | |
| JP2002027312A (en) | Imaging device | |
| JPH07226873A (en) | Automatic tracking imaging device | |
| JP6172973B2 (en) | Image processing device | |
| JP7672809B2 (en) | Imaging device, imaging method, program, and recording medium | |
| JP2003241065A (en) | Autofocusing system | |
| JPH11225291A (en) | Image reader | |
| JPH11196315A (en) | Image reader | |
| JPH11234578A (en) | Image reader | |
| JP7051586B2 (en) | Imaging equipment, imaging methods and programs | |
| JPH11196316A (en) | Image reader | |
| US12444031B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and recording medium background | |
| JP3811137B2 (en) | Subject motion detection circuit | |
| JP2007214620A (en) | Image processing apparatus, image processing method, and program | |
| JP4314959B2 (en) | Image capturing apparatus, method for determining object to be imaged in image capturing apparatus, and program | |
| JPH11195104A (en) | Device for reading picture and method for compositing picture data and computer readable record medium recording program for compositing picture data | |
| JPH11225290A (en) | Image reader |