JPH06315154A - Color imaging device - Google Patents
Color imaging deviceInfo
- Publication number
- JPH06315154A JPH06315154A JP5123196A JP12319693A JPH06315154A JP H06315154 A JPH06315154 A JP H06315154A JP 5123196 A JP5123196 A JP 5123196A JP 12319693 A JP12319693 A JP 12319693A JP H06315154 A JPH06315154 A JP H06315154A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- ccd
- pixels
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
(57)【要約】
【目的】 固体撮像素子の画素密度を高めたり、画素数
を増加させることなく解像度を向上させる。
【構成】 レンズ2を通った画像はダイクロイックプリ
ズム4で分解され、赤,緑,青の被写体像をCCD11
R,11G,11Bに結像する。CCD11Gを圧電素
子3により、画素ピッチの整数分の1の長さづつ水平方
向および垂直方向にレフトさせ、それらの補間処理部5
G,フレーム合成部7,画像合成部8で合成することに
より静止画像を高精細化することを特徴としている。
(57) [Abstract] [Purpose] To improve the resolution without increasing the pixel density of the solid-state imaging device or increasing the number of pixels. [Structure] The image that has passed through the lens 2 is decomposed by a dichroic prism 4, and red, green, and blue subject images are obtained by the CCD 11
Images are formed on R, 11G, and 11B. The CCD 11G is left by the piezoelectric element 3 in the horizontal direction and the vertical direction by a length that is an integral fraction of the pixel pitch, and the interpolation processing unit 5 is provided.
It is characterized in that the still image is made high-definition by synthesizing by G, the frame synthesizing unit 7, and the image synthesizing unit 8.
Description
【0001】[0001]
【産業上の利用分野】本発明は、動画像入力技術に関
し、詳しくは色分解プリズムと複数の固体撮像素子を用
い高精細なカラー撮像装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image input technique, and more particularly to a high-definition color image pickup apparatus using a color separation prism and a plurality of solid-state image pickup elements.
【0002】[0002]
【従来の技術】カラー画像を高精細に撮像する方法とし
て、従来、ダイクロイックプリズムと呼ばれる色分解プ
リズムを使用する方法が用いられている。この方法は、
ダイクロイックプリズムによりレンズ通過後の光を赤,
緑,青などの複数の色成分に分解し、各色成分毎の被写
体像を複数の位置に結像し、これら複数の被写体像を複
数の固体撮像素子により撮像する方法である。2. Description of the Related Art Conventionally, as a method for picking up a color image with high precision, a method using a color separation prism called a dichroic prism has been used. This method
The light after passing through the lens is red by the dichroic prism,
In this method, a plurality of color components such as green and blue are separated, subject images for each color component are formed at a plurality of positions, and the plurality of subject images are captured by a plurality of solid-state image pickup devices.
【0003】従来のダイクロイックプリズムを使用する
カラー撮像装置の構成を図16に示す。図16におい
て、4はダイクロイックプリズム、4R,4G,4Bは
前記ダイクロイックプリズム4の出射側端面、1R,1
G,1Bは固体撮像素子(総称するときは1という)、
2はレンズである。各色成分の被写体像はダイクロイッ
クプリズム4の出射側端面4R,4G,4Bにそれぞれ
結像される。そして、これらの被写体像は各出射側端面
4R,4G,4Bに接着剤等で張り付けられた固体撮像
素子1R,1G,1Bによりそれぞれ撮像され、各色成
分毎の画像信号が生成される。FIG. 16 shows the structure of a conventional color image pickup device using a dichroic prism. In FIG. 16, 4 is a dichroic prism, 4R, 4G and 4B are end faces of the dichroic prism 4 on the exit side, 1R and 1R.
G and 1B are solid-state image pickup devices (collectively referred to as 1),
2 is a lens. The subject images of the respective color components are formed on the exit side end faces 4R, 4G, 4B of the dichroic prism 4, respectively. Then, these subject images are picked up by the solid-state image pickup devices 1R, 1G, and 1B attached to the emission side end faces 4R, 4G, and 4B with an adhesive or the like, and an image signal for each color component is generated.
【0004】[0004]
【発明が解決しようとする課題】上記、従来のダイクロ
イックプリズム4を用いるカラー撮像装置の解像度は、
使用する固体撮像素子1の画素数によって決まる。固体
撮像素子1の画素数を増やす方法としては微細加工技術
を駆使し、画素密度を高めることによる方法が主流であ
るが、固体撮像素子1のサイズを大きくして画素数を増
やす方法もある。しかし、画素密度を高める方法ではプ
ロセスが難しくなる問題もあり、さらに画素面積縮小に
よる感度低下の問題も生じる。近年、この方法によりH
DTV用の200万画素の固体撮像素子1が開発されて
いるが、特に感度の低下を考慮した場合、この画素数は
もはや限界に近く、現状ではさらに画素数を増加させ解
像度を向上することは困難となっている。The resolution of the color image pickup device using the conventional dichroic prism 4 is as follows.
It depends on the number of pixels of the solid-state image sensor 1 to be used. As a method of increasing the number of pixels of the solid-state imaging device 1, a method of making full use of a microfabrication technique and increasing the pixel density is the mainstream, but there is also a method of increasing the size of the solid-state imaging device 1 to increase the number of pixels. However, the method of increasing the pixel density has a problem that the process becomes difficult, and further, there is a problem that the sensitivity decreases due to the reduction of the pixel area. In recent years, H
Although the solid-state image sensor 1 of 2 million pixels for DTV has been developed, this number of pixels is close to the limit, especially in consideration of the decrease in sensitivity, and it is not possible to further increase the number of pixels to improve the resolution at present. It has become difficult.
【0005】一方、画素密度は変えずに固体撮像素子1
のサイズを大きくして画素数を増やす方法では、製造歩
留りを低下させコスト増加につながる。このため、専ら
天文などの科学用や軍事用に用途は限られている。上記
問題の他、1つの固体撮像素子1内の画素数を増やすこ
とにより高解像度化を図る従来の方法では、画素数増加
に伴い固体撮像素子1の駆動速度や、ディジタル化の際
のA/D変換速度等を高速化しなければならないという
問題も深刻化している。On the other hand, the solid-state image sensor 1 without changing the pixel density
The method of increasing the number of pixels to increase the number of pixels lowers the manufacturing yield and increases the cost. For this reason, its applications are limited to scientific purposes such as astronomy and military purposes. In addition to the above problem, in the conventional method for increasing the resolution by increasing the number of pixels in one solid-state image sensor 1, the driving speed of the solid-state image sensor 1 and the A / The problem of increasing the D conversion speed and the like is becoming more serious.
【0006】本発明の目的は、固体撮像素子の画像密度
を高めたり、画素数を増加させることなく解像度を向上
させたカラー撮像装置を提供することにある。It is an object of the present invention to provide a color image pickup device having an improved resolution without increasing the image density of the solid-state image pickup element or increasing the number of pixels.
【0007】[0007]
【課題を解決するための手段】本発明にかかるカラー撮
像装置は、少なくとも1つの固体撮像素子をフィールド
あるいはフレーム周期に同期させて、画素ピッチの整数
分の1の長さづつ水平方向または垂直方向、あるいは水
平,垂直の両方向にシフトさせるシフト手段(以下、イ
メージシフト法とよぶ)を備える。ここで、イメージシ
フト法を適用する固体撮像素子はダイクロイックプリズ
ムの出射側端面に固定しない。In a color image pickup apparatus according to the present invention, at least one solid-state image pickup element is synchronized with a field or frame period, and the length of the pixel pitch is divided by an integer, which is a horizontal direction or a vertical direction. Or a shift means for shifting in both horizontal and vertical directions (hereinafter referred to as an image shift method). Here, the solid-state image pickup device to which the image shift method is applied is not fixed to the exit side end face of the dichroic prism.
【0008】また、本発明では撮像画像から動き部分を
検出する動領域検出手段を備える。Further, according to the present invention, a moving area detecting means for detecting a moving portion from the picked-up image is provided.
【0009】さらに、上記イメージシフト法を適用する
固体撮像素子は色分解された各色成分の中で輝度成分に
最も近い色成分の被写体像の撮像に用いる。Further, the solid-state image pickup device to which the above image shift method is applied is used for picking up a subject image of a color component which is closest to a luminance component among the color-separated color components.
【0010】[0010]
【作用】本発明においては、ダイクロイックプリズムで
分解した赤,緑,青の被写体像を3つの固体撮像素子で
撮像する場合について説明する。この場合、輝度成分に
最も近い色成分は緑成分であり、イメージシフト法を適
用する固体撮像素子では緑成分の被写体像を撮像する。In the present invention, a case will be described in which red, green and blue subject images separated by the dichroic prism are picked up by three solid-state image pickup devices. In this case, the color component closest to the luminance component is the green component, and the solid-state imaging device to which the image shift method is applied captures a subject image of the green component.
【0011】本発明によれば、緑成分画像がイメージシ
フト法により高精細化される。イメージシフト法による
高精細化の原理図を図15に示す。固体撮像素子では、
2次元の光学像情報を読み取り電気信号に変換する光電
変換部(感光部)が図15に示すように離散的に配置さ
れており、隣接する光電変換部の間には撮像には直接寄
与しない非感光部が存在する。イメージシフト法とはこ
の非感光部の存在を利用し、画像のサンプリング点を倍
増することにより、入力画像の高精細化を図る方法であ
る。According to the present invention, the green component image is made finer by the image shift method. FIG. 15 shows a principle diagram of high definition by the image shift method. In the solid-state image sensor,
Photoelectric conversion units (photosensitive units) that read two-dimensional optical image information and convert them into electric signals are discretely arranged as shown in FIG. 15, and do not directly contribute to imaging between adjacent photoelectric conversion units. There is a non-photosensitive area. The image shift method is a method for increasing the definition of an input image by utilizing the existence of this non-photosensitive portion and doubling the sampling points of the image.
【0012】すなわち、あるフレームで入力した画像
(図15(a))と、次のフレームで被写体像と固体撮
像素子の画素の相対的な位置関係を画素ピッチの1/2
ずらして入力した画像(図15(b))を合成すれば、
それぞれのフレーム画像において固体撮像素子の非感光
部にあたる領域の光学像情報がもう一方のフレーム画像
ではサンプリングされていることになり、結局、図15
(c)に示すように実効的に2倍の画素密度で画像を読
み取ったことに相当し、高精細化が可能になる。図15
では簡単なため2枚の画像を水平方向に補間する方法に
ついて説明したが、水平方向、垂直方向ともに補間によ
る高精細化が可能であり、さらに、画素ピッチの1/3
ずつずらして1方向について3倍の高密度化も可能であ
る。That is, the relative positional relationship between the image input in a certain frame (FIG. 15A) and the subject image and the pixels of the solid-state image sensor in the next frame is 1/2 of the pixel pitch.
By combining the shifted input images (Fig. 15 (b)),
In each frame image, the optical image information of the area corresponding to the non-photosensitive portion of the solid-state image sensor is sampled in the other frame image, and as a result, as shown in FIG.
As shown in (c), this is equivalent to effectively reading an image with double the pixel density, and high definition can be achieved. Figure 15
For the sake of simplicity, the method of interpolating two images in the horizontal direction has been described. However, high definition can be achieved by interpolation in both the horizontal direction and the vertical direction, and furthermore, 1/3 of the pixel pitch is possible.
It is possible to increase the density three times in one direction by shifting the positions one by one.
【0013】イメージシフト法は上述のように複数のフ
レーム(またはフィールド)合成により高精細化を実現
する方法であり、したがって動領域では多重像が生じる
ため適用できない。そこで、本発明では動領域検出手段
を用い、静止領域にのみイメージシフト法による高精細
化法を適用する。この結果、高精細化されるのは静止領
域のみとなるが、人間の目の視覚特性が動領域に対して
は静止領域に比べ解像力が劣ることを考慮すれば、静止
領域のみ高精細化することにより視覚的には画面全体が
高精細となる。The image shift method is a method for realizing high definition by synthesizing a plurality of frames (or fields) as described above, and therefore cannot be applied because a multiple image is generated in the moving area. Therefore, in the present invention, the moving area detecting means is used, and the high definition method by the image shift method is applied only to the stationary area. As a result, only the still area is made high definition, but considering that the visual characteristics of the human eye are inferior to the still area in the visual characteristics of the moving area, only the still area is made high definition. As a result, the entire screen becomes high definition visually.
【0014】また、本発明では緑成分の静止領域のみ高
精細化されることになるが、一般にカラー画像では輝度
成分のみ高精細にすることにより視覚的に高精細な画像
を再現できることが知られている。したがって、本発明
のように輝度成分に近い色成分画像のみ高精細にするこ
とにより、高精細なカラー画像を出力することができ
る。Further, in the present invention, only the static area of the green component is made high definition, but it is generally known that a high definition image can be visually reproduced by making only the luminance component high definition in a color image. ing. Therefore, a high-definition color image can be output by making only the color component image close to the luminance component high definition as in the present invention.
【0015】本発明は、動領域と静止領域では要求され
る解像度が異なること、およびカラー画像の解像度が緑
成分の解像度に大きく依存する点に着目し、上述の手段
を用いそれぞれの領域および色成分に適した特性で画像
の取り込みを行うものであり、画素数の少ない固体撮像
素子で高精細なカラー撮像装置を提供するものである。The present invention focuses on the fact that the required resolution is different between the moving area and the still area, and that the resolution of the color image largely depends on the resolution of the green component. An image is captured with characteristics suitable for components, and a high-definition color image pickup device is provided by a solid-state image pickup element having a small number of pixels.
【0016】[0016]
〔実施例1〕本発明の第1の実施例の概略構成を図1に
示す。図1において、11R,11G,11BはCCD
エリアセンサ(以下、単にCCDと呼ぶ)、2はレン
ズ、3は圧電素子、4はダイクロイックプリズム、4
R,4G,4Bは前記ダイクロイックプリズム4の出射
側端面、5R,5G,5Bは補間処理部、6R,6G,
6Bは動領域検出部、7はフレーム合成部、8は画像合
成部、9R,9G,9Bは出力端子である。なお、図1
において、増幅器やA/D変換器は省略した。[Embodiment 1] FIG. 1 shows a schematic configuration of a first embodiment of the present invention. In FIG. 1, 11R, 11G, and 11B are CCDs.
Area sensor (hereinafter, simply referred to as CCD), 2 is a lens, 3 is a piezoelectric element, 4 is a dichroic prism, 4
R, 4G and 4B are exit side end faces of the dichroic prism 4, 5R, 5G and 5B are interpolation processing units, 6R and 6G,
6B is a moving area detection unit, 7 is a frame composition unit, 8 is an image composition unit, and 9R, 9G and 9B are output terminals. Note that FIG.
In the above, the amplifier and the A / D converter are omitted.
【0017】実施例1では、固体撮像素子としてCCD
を用いている。3つのCCDのうち赤成分画像と青成分
画像を撮像するCCD11Rおよび11Bは通常の3板
式CCDカメラと同様に、ダイクロイックプリズム4の
出射側端面4R,4Bに接着し固定する。CCD11G
は上下左右に圧電素子3を取り付け、ダイクロイックプ
リズム4の出射側端面4Gに接近して配置する。この圧
電素子3によりCCD11Gを垂直,水平方向に画素ピ
ッチの1/2の幅でフレーム周期に同期させながらシフ
トさせる。In the first embodiment, a CCD is used as a solid-state image sensor.
Is used. Of the three CCDs, the CCDs 11R and 11B for picking up the red component image and the blue component image are adhered and fixed to the emission side end faces 4R and 4B of the dichroic prism 4, as in a normal three-plate CCD camera. CCD 11G
The piezoelectric elements 3 are attached to the upper, lower, left and right sides and are arranged close to the emission side end surface 4G of the dichroic prism 4. With this piezoelectric element 3, the CCD 11G is vertically and horizontally shifted by a width of 1/2 of the pixel pitch in synchronization with the frame period.
【0018】CCD11R,11Gおよび11Bで撮像
された信号は、それぞれ補間処理部5R,5G,5Bで
の補間処理によって、画素密度をCCDによる撮像画素
数の4倍(水平,垂直各2倍)とする。各補間処理部5
R,5G,5Bでの補間法は、水平方向についてはフィ
ールド内補間し、一方、垂直方向については動領域検出
部6R,6Bからの信号を用いて、動領域ではフィール
ド内補間、静止領域ではフィールド間補間とする静/動
適応型の補間処理を行う。The signals picked up by the CCDs 11R, 11G and 11B have a pixel density of 4 times the number of pixels picked up by the CCD (2 times each in the horizontal and vertical directions) by interpolation processing in the interpolation processing sections 5R, 5G and 5B, respectively. To do. Each interpolation processing unit 5
The interpolating method in R, 5G, and 5B interpolates in the field in the horizontal direction, while using the signals from the moving region detection units 6R and 6B in the vertical direction, interpolates in the field in the moving region and in the still region. Performs static / dynamic adaptive interpolation processing that is inter-field interpolation.
【0019】さらに、CCD11Gからの画像信号につ
いては、フレーム合成部7で合成する。フレーム合成部
7での合成方法を図2に示す。図2(a)はCCDの光
電変換部の配列図であり、これをイメージシフト法で
左,下,右,上の繰り返しでフレーム周期に同期してシ
フトさせる。したがって、画像合成部8において各フレ
ームで撮像した画像を合成すると、合成画像における画
素の位置関係は図2(b)に示すようになる。ここで、
P1を第nフレームで撮像した画像の画素とすると、P
2は第n+1フレームの画素、P3は第n+2フレーム
の画素、P4は第n+3フレームの画素となる。Further, the image signal from the CCD 11G is combined by the frame combining section 7. FIG. 2 shows a synthesizing method in the frame synthesizing unit 7. FIG. 2A is an array diagram of the photoelectric conversion units of the CCD, which are shifted in synchronization with the frame cycle by repeating the left, bottom, right, and top by the image shift method. Therefore, when the images captured in each frame are combined by the image combining unit 8, the positional relationship of pixels in the combined image is as shown in FIG. here,
If P1 is a pixel of the image captured in the nth frame, P
2 is a pixel in the (n + 1) th frame, P3 is a pixel in the (n + 2) th frame, and P4 is a pixel in the (n + 3) th frame.
【0020】画像合成部8には、補間処理部5Gからの
画像信号およびフレーム合成部7からの画像信号を入力
し、さらに、動領域検出部6Gからの動き検出信号を入
力する。そして、動き検出信号が大きい場合は補間処理
部5Gからの画像信号を出力し、また、動き検出信号が
小さい場合はフレーム合成部7からの画像信号を出力す
る。画像合成部8で合成された信号を緑成分画像の出力
信号とし出力端子9Gより出力する。一方、赤および青
成分の画像信号は補間処理部5R,5Bで補間処理され
た後、出力端子9Rおよび9Bからそれぞれ出力され
る。The image synthesizing section 8 receives the image signal from the interpolation processing section 5G and the image signal from the frame synthesizing section 7, and further receives the motion detection signal from the moving area detecting section 6G. When the motion detection signal is large, the image signal from the interpolation processing unit 5G is output, and when the motion detection signal is small, the image signal from the frame synthesizing unit 7 is output. The signal combined by the image combining unit 8 is output from the output terminal 9G as an output signal of the green component image. On the other hand, the image signals of red and blue components are interpolated by the interpolators 5R and 5B, and then output from the output terminals 9R and 9B, respectively.
【0021】動領域検出部6R,6Gおよび6Bでの動
き検出信号の生成法はNTSCで用いられている公知の
方法を用いる。なお、動領域検出部6Gでの動き検出信
号の生成法は前記の他、文献(特願平5−22204号
参照)に記載の方法を採用することができる。A known method used in NTSC is used as a method of generating a motion detection signal in the motion area detection units 6R, 6G and 6B. In addition to the method described above, a method described in a document (see Japanese Patent Application No. 5-22204) can be used as a method of generating a motion detection signal in the moving area detection unit 6G.
【0022】上記画像合成部8に入力されるフレーム合
成部7からの信号は高精細化された緑成分画像であり、
これが動き検出信号があるレベルより小さいとき出力さ
れることから、緑成分画像の静止領域が高精細化され
る。 〔実施例2〕本発明の第2の実施例の概略構成を図3に
示す。本実施例におけるレンズ2,ダイクロイックプリ
ズム4,CCD11R,11G,11B,圧電素子3等
の光学系構成は、実施例1と同じにする。本実施例で
は、画像合成部8で用いる動き検出信号として動領域検
出部6Rおよび6Bの出力信号を用いる。すなわち、赤
成分画像および青成分画像から得た動き検出信号を用い
る。そして、これら2つの動き検出信号のうち、いずれ
か一方が大きい場合は補間処理部5Gからの画像信号を
出力し、また動き検出信号が小さい場合はフレーム合成
部7からの画像信号を出力する。画像合成部8で合成さ
れた信号を緑成分画像の出力信号とし出力端9Gより出
力する。The signal from the frame synthesizing unit 7 input to the image synthesizing unit 8 is a high definition green component image,
Since this is output when the motion detection signal is smaller than a certain level, the still region of the green component image is made finer. [Embodiment 2] FIG. 3 shows a schematic configuration of a second embodiment of the present invention. The optical system configuration of the lens 2, dichroic prism 4, CCD 11R, 11G, 11B, piezoelectric element 3 and the like in this embodiment is the same as that in the first embodiment. In this embodiment, the output signals of the moving area detection units 6R and 6B are used as the motion detection signals used by the image composition unit 8. That is, the motion detection signal obtained from the red component image and the blue component image is used. Then, when one of these two motion detection signals is large, the image signal from the interpolation processing unit 5G is output, and when the motion detection signal is small, the image signal from the frame synthesis unit 7 is output. The signal combined by the image combining unit 8 is output as an output signal of the green component image from the output end 9G.
【0023】なお、この実施例2では、以上の点を除き
実施例1と同じ動作を行う。 〔実施例3〕本発明の第3の実施例の概略構成を図4に
示す。図4において、111G,112GはCCD、4
1はダイクロイックプリズム、41R,41B,411
G,412Gは前記ダイクロイックプリズム41の出射
側端面である。なお、図4ではダイクロイックプリズム
41の構成の詳細は省略した。In the second embodiment, the same operation as in the first embodiment is performed except for the above points. [Embodiment 3] FIG. 4 shows a schematic configuration of a third embodiment of the present invention. In FIG. 4, 111G and 112G are CCD and 4
1 is a dichroic prism, 41R, 41B, 411
G and 412G are the exit side end faces of the dichroic prism 41. It should be noted that details of the configuration of the dichroic prism 41 are omitted in FIG.
【0024】本実施例では、入射光を赤,青および2つ
の緑光に分岐するダイクロイックプリズム41を使用す
る。すなわち、赤,青および2つの緑成分の被写体像を
ダイクロイックプリズム41の4つの出射側端面41
R,41B,411G,412Gに結像し、これを4つ
のCCD11R,11B,111G,112Gにより撮
像する。緑成分画像撮像用の2つのCCDのうちの1つ
112Gは上下左右に圧電素子3を取り付け、ダイクロ
イックプリズム41の出射側端面412Gに近接して配
置する。また、緑成分画像撮像用の他のCCD111
G、および赤成分画像、青成分画像を撮像するCCD1
1Rおよび11Bはダイクロイックプリズム41の出射
側端面411G,41R,41Bにそれぞれ接着し固定
する。In this embodiment, a dichroic prism 41 for splitting incident light into red, blue and two green lights is used. That is, the subject images of red, blue and two green components are transferred to the four emission side end faces 41 of the dichroic prism 41.
An image is formed on R, 41B, 411G, 412G, and this is imaged by four CCDs 11R, 11B, 111G, 112G. One of the two CCDs 112G for picking up the green component image has the piezoelectric elements 3 attached to the top, bottom, left and right, and is arranged close to the emission side end surface 412G of the dichroic prism 41. In addition, another CCD 111 for capturing a green component image
CCD 1 for capturing G, red component images, and blue component images
1R and 11B are adhered and fixed to the exit side end faces 411G, 41R and 41B of the dichroic prism 41, respectively.
【0025】CCD112Gは圧電素子3により垂直,
水平方向に画素ピッチの1/2の幅でフレーム周期に同
期させながらシフトさせる。そして、実施例1と同様の
方法により画像信号をフレーム合成部7で合成する。The CCD 112G is vertically arranged by the piezoelectric element 3,
The width is shifted in the horizontal direction by half the pixel pitch in synchronization with the frame period. Then, the image synthesizing unit 7 synthesizes the image signals in the same manner as in the first embodiment.
【0026】CCD11R,111G,11Bで撮像さ
れた信号はそれぞれ補間処理部5R,5G,5Bでの補
間処理によって、画素密度をフレーム合成部7から出力
される画像と同一とする。補間処理部5Rおよび5Bで
の補間法は、水平方向についてはフィールド内補間し、
一方、垂直方向については動領域検出部6R,6Bから
の信号を用いて動領域ではフィールド内補間、静止領域
ではフィールド間補間とする静/動適応型の補間処理を
行う。また、補間処理部5Gでの処理は動領域、静止領
域にかかわらず全画面についてフィールド内補間処理を
施す。The signals picked up by the CCDs 11R, 111G, and 11B are made to have the same pixel density as the image output from the frame synthesizing unit 7 by the interpolation processing in the interpolation processing units 5R, 5G, and 5B, respectively. The interpolation method in the interpolation processing units 5R and 5B is in-field interpolation in the horizontal direction,
On the other hand, in the vertical direction, static / moving adaptive type interpolation processing is performed by using the signals from the moving area detecting units 6R and 6B and performing inter-field interpolation in the moving area and inter-field interpolation in the still area. Further, in the processing by the interpolation processing unit 5G, the intra-field interpolation processing is performed on the entire screen regardless of the moving area or the stationary area.
【0027】画像合成部8には、補間処理部5Gからの
画像信号およびフレーム合成部7からの画像信号を入力
し、さらに動領域検出部6Gからの動き検出信号を入力
する。そして、動き検出信号が大きい場合は補間処理部
5Gからの画像信号を出力し、また、動き検出信号が小
さい場合はフレーム合成部7からの画像信号を出力す
る。画像合成部8で合成された信号を緑成分画像出力信
号とし出力端子9Gより出力する。一方、赤および青成
分の画像信号は補間処理部5R,5Bで補間処理された
後、出力端子9Rおよび9Bからそれぞれ出力される。The image synthesizing section 8 receives the image signal from the interpolation processing section 5G and the image signal from the frame synthesizing section 7, and further receives the motion detection signal from the moving area detecting section 6G. When the motion detection signal is large, the image signal from the interpolation processing unit 5G is output, and when the motion detection signal is small, the image signal from the frame synthesizing unit 7 is output. The signal synthesized by the image synthesizer 8 is output as a green component image output signal from the output terminal 9G. On the other hand, the image signals of red and blue components are interpolated by the interpolators 5R and 5B, and then output from the output terminals 9R and 9B, respectively.
【0028】なお、動領域検出部6Rおよび6Bでの動
き検出信号の生成法は、NTSCで用いられている公知
の方法を用いる。画像合成部8に入力されるフレーム合
成部7からの信号は高精細化された緑成分画像であり、
これが動き検出信号が小さいとき出力されることから、
緑成分画像の静止領域が高精細化される。 〔実施例4〕本発明の第4の実施例の概略構成を図5に
示す。本実施例におけるレンズ2,ダイクロイックプリ
ズム41,CCD11R,11B,111G,112
G,圧電素子3等の光学系構成は実施例3と同じとす
る。本実施例では、補間処理部5Gでの補間処理におい
て、CCD111Gの画像信号に加え、CCD112G
で撮像された画像信号も利用する。補間処理部5Gにお
ける補間処理法を図6〜図9により説明する。A known method used in NTSC is used as a method of generating motion detection signals in the moving area detecting units 6R and 6B. The signal from the frame synthesizing unit 7 input to the image synthesizing unit 8 is a high definition green component image,
Since this is output when the motion detection signal is small,
The static area of the green component image is made finer. [Embodiment 4] FIG. 5 shows a schematic configuration of a fourth embodiment of the present invention. Lens 2, dichroic prism 41, CCDs 11R, 11B, 111G, 112 in this embodiment
The optical system configuration of G, the piezoelectric element 3, etc. is the same as that of the third embodiment. In the present embodiment, in the interpolation processing by the interpolation processing unit 5G, in addition to the image signal of the CCD 111G, the CCD 112G
The image signal picked up in is also used. The interpolation processing method in the interpolation processing unit 5G will be described with reference to FIGS.
【0029】図6〜図9において、実線の正方形で示さ
れる画素はCCD111Gで撮像された緑成分画像の画
素であり、円形で示される画素がCCD112Gで撮像
された画素である。また、網掛けおよび斜線で塗りつぶ
された正方形、および円形は各フィールドでサンプリン
グされた画素である。また、図6〜図9において、Pq
(m,n)(q=1〜4、m=i,i+1、n=j,j+1)は画素位置を示す。こ
こで、i,i+1は各CCD11R,11B,111
G,112Gの水平方向の画素アドレス、j,j+1は
垂直方向の画素アドレス(ライン番号)である。さら
に、図6〜図9において、k,k+1…は補間処理後の
画像におけるライン番号である。In FIGS. 6 to 9, the pixels shown by the solid squares are the pixels of the green component image picked up by the CCD 111G, and the pixels shown by the circle are the pixels picked up by the CCD 112G. Also, the shaded and shaded squares and circles are the pixels sampled in each field. Further, in FIGS. 6 to 9, Pq
(m, n) (q = 1 to 4, m = i, i + 1, n = j, j + 1) indicates a pixel position. Here, i and i + 1 are CCDs 11R, 11B and 111, respectively.
G and 112G are horizontal pixel addresses, and j and j + 1 are vertical pixel addresses (line numbers). Further, in FIGS. 6 to 9, k, k + 1 ... Are line numbers in the image after the interpolation processing.
【0030】CCD112Gではイメージシフト法によ
り撮像されるため、フレーム毎に画素位置が異なる。い
ま、第nフレームでの画素配置がCCD111Gの画素
位置(P1(m,n)で示す位置)と同じとする。ただ
し、CCD111GとCCD112Gで画素配列を1ラ
インずらして配置するものとする。第nフレームにおけ
る画素配置を図6に示す。図6(a)は奇数フィールド
の画素配置、図6(b)は偶数フィールドの画素配置を
示す。両CCD111G,112Gは1ラインずれて配
置されているため、奇数フィールドで、CCD111G
ではj番目のラインの画素がサンプリングされるのに対
し、CCD112Gではj+1番目のラインの画素がサ
ンプリングされる。第nフレームの奇数フィールドでは
補間処理部5Gからk,k+2、…ラインの画像を出力
する。したがって、補間処理部5Gからの出力画像では
両CCD111G,112Gからの信号が奇数ラインお
よび偶数ラインの信号としてそれぞれ出力される。ただ
し、P2(m,n)で示される画素ではサンプリングデ
ータがないため、左右のP1(m,n)で示される画素
の平均値をとりその画素の値とすることにより補間され
る。Since the CCD 112G takes an image by the image shift method, the pixel position is different for each frame. Now, it is assumed that the pixel arrangement in the nth frame is the same as the pixel position of the CCD 111G (position indicated by P1 (m, n)). However, it is assumed that the CCD 111G and the CCD 112G are arranged so that the pixel array is shifted by one line. The pixel arrangement in the nth frame is shown in FIG. FIG. 6A shows an odd field pixel arrangement, and FIG. 6B shows an even field pixel arrangement. Since both CCDs 111G and 112G are arranged one line apart, the CCD 111G is
In contrast, the pixel of the j-th line is sampled, whereas the pixel of the j + 1-th line is sampled in the CCD 112G. In the odd field of the nth frame, the interpolation processing unit 5G outputs k, k + 2, ... Line images. Therefore, in the output image from the interpolation processing unit 5G, the signals from both CCDs 111G and 112G are output as the signals of the odd line and the even line, respectively. However, since there is no sampling data in the pixel indicated by P2 (m, n), interpolation is performed by taking the average value of the pixels indicated by P1 (m, n) on the left and right and setting it as the value of that pixel.
【0031】図6(b)に第nフレームの偶数フィール
ドでの画素配置を示す。このフィールドではCCD11
1Gではj+1番目のラインの画素がサンプリングさ
れ、CCD112Gではj番目のラインの画素がサンプ
リングされる。しかし、このフィールドで補間処理部5
Gから出力されるラインはk+1,k+2,…であり、
このラインの画素(P3(m,n),P4(m,n)で
示す画素)はサンプリングされていない。そこで、
(1),(2)式にしたがって内挿法によりサンプリン
グされた画素からP3(m,n),P4(m,n)で示
す画素の値を求めて出力する。FIG. 6B shows the pixel arrangement in the even field of the nth frame. CCD11 in this field
In 1G, the pixels in the j + 1th line are sampled, and in the CCD 112G, the pixels in the jth line are sampled. However, in this field, the interpolation processing unit 5
The lines output from G are k + 1, k + 2, ...
Pixels on this line (pixels indicated by P3 (m, n) and P4 (m, n)) are not sampled. Therefore,
From the pixels sampled by the interpolation method according to the equations (1) and (2), the values of the pixels indicated by P3 (m, n) and P4 (m, n) are obtained and output.
【0032】[0032]
【数1】 P3(i,j)={P1(i,j)+P1(i+1,j)+P1(i,j+1)+P1(i+1,j+1)} /4 ……(1) P4(i,j)={P1(i,j)+P1(i,j+1)} /2 ……(2) 図7(a)に第n+1フレームの奇数フィールドでの画
素配置を示す。このフィールドではCCD111Gでは
j番目のラインの画素がサンプリングされ、CCD11
2Gではj+1番目のラインの画素がサンプリングされ
る。ここで、CCD111Gでは前フレームの奇数フィ
ールドと同一画素(j番目のラインのP1(m,n)で
示される画素)がサンプリングされるのに対し、CCD
112Gではイメージシフト法により画素位置がCCD
の撮像面上で右に1/2画素ピッチ分(出力側で1画素
ピッチ分)だけシフトし、サンプリング画素はj+1番
目のラインのP2(m,n)で示す画素となる。このフ
ィールドでは補間処理部5Gからk,k+2,…ライン
の画像が出力される。そこで、出力画像でのkラインに
おけるP2(m,n)で示される画素では、左右のP1
(m,n)で示される画素の平均値をとりその画素の値
とし、一方、k+2ラインにおけるP1(m,n)で示
される画素では、左右のP2(m,n)で示される画素
の平均値をとりその画素の値とする。[Expression 1] P3 (i, j) = {P1 (i, j) + P1 (i + 1, j) + P1 (i, j + 1) + P1 (i + 1, j + 1)} / 4 …… (1) P4 (i, j) = {P1 (i, j) + P1 (i, j + 1)} / 2 …… (2) In the odd field of the (n + 1) th frame in FIG. The pixel arrangement is shown. In this field, the pixels of the jth line are sampled by the CCD 111G, and the CCD 11G
In 2G, the pixel of the j + 1th line is sampled. Here, the CCD 111G samples the same pixel (pixel indicated by P1 (m, n) on the j-th line) as in the odd field of the previous frame, whereas the CCD
In 112G, the pixel position is CCD by the image shift method.
The pixel is shifted to the right by ½ pixel pitch (one pixel pitch on the output side) on the image pickup plane, and the sampling pixel becomes the pixel indicated by P2 (m, n) on the j + 1th line. In this field, an image of k, k + 2, ... Lines is output from the interpolation processing unit 5G. Therefore, in the pixel indicated by P2 (m, n) in the k line in the output image, the left and right P1
The average value of the pixels represented by (m, n) is taken as the value of that pixel, while the pixel represented by P1 (m, n) on the k + 2 line is the pixel value represented by P2 (m, n) on the left and right. The average value is taken as the value of that pixel.
【0033】図7(b)に第n+1フレームの偶数フィ
ールドでの画素配置を示す。このフィールドではCCD
111Gではj+1番目のラインの画素がサンプリング
され、CCD112Gではj番目のラインの画素がサン
プリングされる。しかし、このフィールドで補間処理部
5Gから出力されるラインはk+1,k+3,…であ
り、このラインの画素(P3,P4で示す画素)はサン
プリングされていない。そこで、(3),(4)式にし
たがってサンプリング画素からP3,P4で示す画素の
値を求めて出力する。FIG. 7B shows the pixel arrangement in the even field of the (n + 1) th frame. CCD in this field
111G samples the pixels on the j + 1th line, and CCD 112G samples the pixels on the jth line. However, the lines output from the interpolation processing unit 5G in this field are k + 1, k + 3, ..., And the pixels (pixels indicated by P3 and P4) on this line are not sampled. Therefore, the values of the pixels indicated by P3 and P4 are obtained from the sampling pixels according to the equations (3) and (4) and output.
【0034】[0034]
【数2】 P3(i,j)={P1(i,j)+P1(i+1,j)+2 x P2(i,j+1)} /4 ……(3) P4(i,j)={2 x P1(i,j)+P2(i-1,j+1)+P2(i,j+1)} /4 ……(4) 図8(a)に第n+2フレームの奇数フィールドでの画
素配置を示す。このフィールドではCCD111Gでは
j番目のラインの画素がサンプリングされ、CCD11
2Gではj+1番目のラインの画素がサンプリングされ
る。CCD112Gでは前フレームの奇数フィールドと
同一画素(j番目のラインのP1(m,n)で示される
画素)がサンプリングされるのに対し、CCD112G
ではイメージシフト法により画素位置がCCDの撮像面
上で下に1/2画素ピッチ分(出力側で1画素ピッチ
分)だけシフトし、サンプリング画素はj+1番目のラ
インのP3(m,n)で示す画素となる。このフィール
ドでは補間処理部5Gからk,k+2,…ラインの画像
が出力される。そこで、出力画像でのkラインおけるP
2(m,n)で示される画素では左右のP1で示される
画素の平均値をとりその画素の値とし、一方、k+2ラ
インにおけるP1(m,n)およびP2(m,n)で示
される画素では(5),(6)式にしたがってサンプリ
ング画素からこれらの画素の値を求めて出力する。[Equation 2] P3 (i, j) = {P1 (i, j) + P1 (i + 1, j) +2 x P2 (i, j + 1)} / 4 (3) P4 (i, j) = {2 x P1 (i, j) + P2 (i-1, j + 1) + P2 (i, j + 1)} / 4 (4) In the (n + 2) th frame of FIG. The pixel arrangement in an odd field is shown. In this field, the pixels of the jth line are sampled by the CCD 111G, and the CCD 11G
In 2G, the pixel of the j + 1th line is sampled. The CCD 112G samples the same pixel (pixel indicated by P1 (m, n) on the j-th line) as in the odd field of the previous frame, whereas the CCD 112G
Then, the pixel position is shifted downward by 1/2 pixel pitch (1 pixel pitch on the output side) on the image pickup surface of the CCD by the image shift method, and the sampling pixel is P3 (m, n) of the j + 1th line. It becomes the pixel shown. In this field, an image of k, k + 2, ... Lines is output from the interpolation processing unit 5G. Therefore, P in the k line in the output image
For the pixel indicated by 2 (m, n), the average value of the pixels indicated by P1 on the left and right is taken as the value of that pixel, while it is indicated by P1 (m, n) and P2 (m, n) on the k + 2 line. For pixels, the values of these pixels are obtained from the sampling pixels according to equations (5) and (6) and output.
【0035】[0035]
【数3】 P1(i,j+1)={P3(i-1,j+1)+P3(i,j+1)+P1(i,j)} /3 ……(5) P2(i,j+1)={4 x P3(i,j+1)+P1(i,j)+P1(i+1,j)} /6 ……(6) 図8(b)に第n+2フレームの偶数フィールドでの画
素配置を示す。このフィールドではCCD111Gでは
j+1番目のラインの画素がサンプリングされ、CCD
112Gではj番目のラインの画素がサンプリングされ
る。このフィールドでは補間処理部5Gからk+1,k
+3,…ラインの画像が出力されるが、これらのライン
におけるP3およびP4で示される画素はサンプリング
されていない。そこで、k+1ラインのP4で示される
画素では左右のP3で示される画素の平均値をとりその
画素の値とし、一方、k+3ラインにおけるP3および
P4で示される画素では(7),(8)式にしたがって
サンプリング画素からこれらの画素の値を求めて出力す
る。[Equation 3] P1 (i, j + 1) = {P3 (i-1, j + 1) + P3 (i, j + 1) + P1 (i, j)} / 3 (5) P2 ( i, j + 1) = {4 x P3 (i, j + 1) + P1 (i, j) + P1 (i + 1, j)} / 6 (6) The n + 2th pixel in FIG. 8B. The pixel arrangement in the even field of the frame is shown. In this field, the pixels of the j + 1th line are sampled by the CCD 111G,
In 112G, the pixel of the jth line is sampled. In this field, from the interpolation processing unit 5G to k + 1, k
Images of +3, ... Lines are output, but the pixels indicated by P3 and P4 in these lines are not sampled. Therefore, for the pixel indicated by P4 on the k + 1 line, the average value of the pixels indicated by P3 on the left and right is taken as the value of that pixel, while for the pixel indicated by P3 and P4 on the k + 3 line, equations (7) and (8) are used. Then, the values of these pixels are obtained from the sampling pixels and output.
【0036】[0036]
【数4】 P3(i,j+1)={P1(i,j+1)+P1(i+1,j+1)+P3(i,j+2)} /3 ……(7) P4(i,j+1)={4 x P1(i,j+1)+P3(i-1,j+2)+P3(i,j+2)} /6 ……(8) 図9(a)に第n+3フレームの奇数フィールドでの画
素配置を示す。このフィールドではCCD111Gでは
j番目のラインの画素がサンプリングされ、CCD11
2Gではj+1番目のラインの画素がサンプリングされ
る。CCD111Gでは前フレームの奇数フィールドと
同一画素(j番目のラインのP1(m,n)で示される
画素)がサンプリングされるのに対し、CCD112G
ではイメージシフト法により画素位置がCCDの撮像面
上で左に1/2画素ピッチ分(出力側で1画素ピッチ
分)だけシフトし、サンプリング画素はj+1番目のラ
インのP4で示す画素となる。このフィールドでは補間
処理部5Gからk,k+2,…ラインの画像が出力され
る。そこで、出力画像でのkラインおけるP2(m,
n)で示される画素では左右のP1(m,n)で示され
る画素の平均値をとりその画素の値とし、一方、k+2
ラインにおけるP1(m,n)およびP2(m,n)で
示される画素では(9),(10)式にしたがってサン
プリング画素からこれらの画素の値を求めて出力する。[Equation 4] P3 (i, j + 1) = {P1 (i, j + 1) + P1 (i + 1, j + 1) + P3 (i, j + 2)} / 3 (7) P4 (i, j + 1) = {4 x P1 (i, j + 1) + P3 (i-1, j + 2) + P3 (i, j + 2)} / 6 (8) FIG. 9 (A) shows a pixel arrangement in the odd field of the (n + 3) th frame. In this field, the pixels of the jth line are sampled by the CCD 111G, and the CCD 11G
In 2G, the pixel of the j + 1th line is sampled. The CCD 111G samples the same pixel (pixel indicated by P1 (m, n) on the j-th line) as in the odd field of the previous frame, whereas the CCD 112G
Then, the pixel position is shifted to the left by ½ pixel pitch (one pixel pitch on the output side) on the image pickup surface of the CCD by the image shift method, and the sampling pixel becomes the pixel indicated by P4 on the j + 1th line. In this field, an image of k, k + 2, ... Lines is output from the interpolation processing unit 5G. Therefore, P2 (m,
In the pixel indicated by n), the average value of the pixels indicated by P1 (m, n) on the left and right is taken as the value of that pixel, while k + 2
For the pixels indicated by P1 (m, n) and P2 (m, n) in the line, the values of these pixels are obtained from the sampling pixels according to equations (9) and (10) and output.
【0037】[0037]
【数5】 P1(i,j+1)={P1(i,j)+2 x P4(i,j+1)} /3 ……(9) P2(i,j+1)={P1(i,j)+P1(i+1,j)+2xP4(i,j+1)+2xP4(i+1,j+1)} /6 ……(10) 図9(b)に第n+3フレームの偶数フィールドでの画
素配置を示す。このフィールドではCCD111Gでは
j+1番目のラインの画素がサンプリングされ、CCD
112Gではj番目のラインの画素がサンプリングされ
る。このフィールドでは補間処理部5Gからk+1,k
+3,…ラインの画像が出力されるが、これらのライン
における、P3およびP4で示される画素はサンプリン
グされていない。そこで、k+1ラインのP4で示され
る画素では左右のP3で示される画素の平均値をとりそ
の画素の値とし、一方、k+3ラインにおけるP3およ
びP4で示される画素では(11),(12)式にした
がってサンプリング画素からこれらの画素の値を求めて
出力する。[Equation 5] P1 (i, j + 1) = {P1 (i, j) +2 x P4 (i, j + 1)} / 3 (9) P2 (i, j + 1) = {P1 (i, j) + P1 (i + 1, j) + 2xP4 (i, j + 1) + 2xP4 (i + 1, j + 1)} / 6 (10) FIG. 9B shows the n + 3. The pixel arrangement in the even field of the frame is shown. In this field, the pixels of the j + 1th line are sampled by the CCD 111G,
In 112G, the pixel of the jth line is sampled. In this field, from the interpolation processing unit 5G to k + 1, k
Images of +3, ... Lines are output, but the pixels indicated by P3 and P4 in these lines are not sampled. Therefore, for the pixel indicated by P4 on the k + 1 line, the average value of the pixels indicated by P3 on the left and right is taken as the value of that pixel, while for the pixel indicated by P3 and P4 on the k + 3 line, equations (11) and (12) are used. Then, the values of these pixels are obtained from the sampling pixels and output.
【0038】[0038]
【数6】 P3(i,j+1)={P4(i,j+2)+P4(i+1,j+2)+2xP1(i,j+1)+P1(i+1,j+1)} /6 ……(11) P4(i,j+1)={2xP1(i,j+1)+P4(i,j+2)} /3 ……(12) 以上4フレーム(8フィールド)の処理が順次繰り返し
て行われる。この実施例4では以上述べた補間処理部5
Gでの処理を除き、実施例1と同じである。本実施例で
は補間処理をCCD112Gからの信号を用いるため、
緑成分画像の動領域も高精細にすることができる。 〔実施例5〕本発明の第5の実施例の概略構成を図10
に示す。本実施例におけるレンズ2,ダイクロイックプ
リズム41,CCD11R,11B,111G,112
G,圧電素子3等の光学系構成は実施例3と同じとす
る。この実施例5でも補間処理部5Gでの補間処理にお
いて、CCD111Gの画像信号に加え、CCD112
Gで撮像された画像信号も利用する。さらに、本実施例
ではフレーム合成部7でCCD112Gの画像信号に加
え、CCD111Gからの緑成分画像信号も用いてフレ
ーム合成を行う。[Equation 6] P3 (i, j + 1) = (P4 (i, j + 2) + P4 (i + 1, j + 2) + 2xP1 (i, j + 1) + P1 (i + 1, j +1)} / 6 (11) P4 (i, j + 1) = {2xP1 (i, j + 1) + P4 (i, j + 2)} / 3 (12) More than 4 frames ( Processing of 8 fields) is sequentially repeated. In the fourth embodiment, the interpolation processing unit 5 described above is used.
Same as Example 1 except for the treatment with G. In this embodiment, since the interpolation processing uses the signal from the CCD 112G,
The moving area of the green component image can also be made fine. [Embodiment 5] FIG. 10 shows a schematic configuration of a fifth embodiment of the present invention.
Shown in. Lens 2, dichroic prism 41, CCDs 11R, 11B, 111G, 112 in this embodiment
The optical system configuration of G, the piezoelectric element 3, etc. is the same as that of the third embodiment. In the fifth embodiment as well, in the interpolation processing by the interpolation processing unit 5G, in addition to the image signal of the CCD 111G, the CCD 112
The image signal captured by G is also used. Further, in the present embodiment, the frame synthesizing unit 7 performs frame synthesis by using the green component image signal from the CCD 111G in addition to the image signal of the CCD 112G.
【0039】この実施例5で、CCD112G用いるイ
メージシフト法を図11に示す。図11において、実線
の正方形で示される画素はCCD111Gで撮像される
緑成分画像の画素であり、円形で示される画素がCCD
112Gで撮像される画素である。前記各実施例で用い
たイメージシフト法では画素ピッチの1/2ずつ右,
下,左,上の順でシフトさせて、4フレームで1つの画
素が4つの位置をサンプリングしたのに対し、この実施
例5では下,左,右上の順でシフトさせてCCD111
Gでサンプリングされる位置を除く3つの位置を3フレ
ームでサンプリングする。そして、フレーム合成はCC
D112Gで撮像された3フレーム分の画素およびCC
D111Gで撮像された1フレーム分の画素を合成して
行う。FIG. 11 shows an image shift method using the CCD 112G in the fifth embodiment. In FIG. 11, the pixels indicated by the solid squares are the pixels of the green component image captured by the CCD 111G, and the pixels indicated by the circles are the CCD.
It is a pixel imaged at 112G. In the image shift method used in each of the above embodiments, 1/2 of the pixel pitch is shifted to the right,
While one pixel samples four positions in four frames by shifting in the order of bottom, left, and top, in the fifth embodiment, the CCD111 is shifted in the order of bottom, left, and top right.
Three positions are sampled in three frames except the position sampled by G. And frame composition is CC
3 frames of pixels and CC imaged by D112G
This is performed by synthesizing pixels for one frame captured in D111G.
【0040】なお、この実施例5では上記フレーム合成
部7での処理を除き、実施例4と同様の動作である。 〔実施例6〕本発明の第6の実施例の概略構成を図12
に示す。図12において、7Rおよび7Bはフィールド
間補間処理部、8R,8Gおよび8Bは画像合成部、A
R,ABおよび6RGBは加算器、HFはハイパスフィ
ルタである。この実施例6におけるレンズ2,ダイクロ
イックプリズム4,CCD11R,11G,11B,圧
電素子3等の光学系構成は実施例1と同じとする。上記
各実施例では、いずれも赤および青成分画像の静止領域
の高精細化を現フィールドと前フィールドの2フィール
ド間の補間で実現したが、この実施例6ではこの補間処
理後の信号に緑成分の高周波成分を加えることにより、
より高精細な赤および青成分画像を実現する。すなわ
ち、フレーム合成部7Gで合成された緑成分の画像信号
のうちハイパスフィルタHFを通過させた信号を、フィ
ールド間補間処理部7Rおよび7Bで補間処理された青
成分および赤成分の画像信号にそれぞれ加算器AR,A
Bで加算する。この処理は、赤および青成分画像と緑成
分画像の高周波成分間の相関性を利用して、赤および青
成分画像の高精細化を実現する処理である。The operation of the fifth embodiment is the same as that of the fourth embodiment except for the processing in the frame synthesizing section 7. [Embodiment 6] FIG. 12 shows a schematic configuration of a sixth embodiment of the present invention.
Shown in. In FIG. 12, 7R and 7B are inter-field interpolation processing units, 8R, 8G and 8B are image combining units, and
R, AB and 6RGB are adders, and HF is a high pass filter. The optical system configuration of the lens 2, dichroic prism 4, CCD 11R, 11G, 11B, piezoelectric element 3 and the like in the sixth embodiment is the same as that of the first embodiment. In each of the above embodiments, the high definition of the still area of the red and blue component images is realized by the interpolation between the two fields of the current field and the previous field, but in the sixth embodiment, the signal after this interpolation processing is green. By adding the high frequency component of the component,
Realizes higher-definition red and blue component images. That is, of the green component image signals synthesized by the frame synthesizing unit 7G, the signals that have passed through the high-pass filter HF are converted into blue component and red component image signals that are interpolated by the inter-field interpolation processing units 7R and 7B, respectively. Adder AR, A
Add with B. This process is a process for realizing high definition of the red and blue component images by utilizing the correlation between the high frequency components of the red and blue component images and the green component image.
【0041】上記高精細化処理を行うためには、現フィ
ールドから過去8フィールドにわたり注目画素が動領域
でないことが条件となる。したがって、動領域検出部6
Rおよび6Bでは前記実施例のようにNTSC等で用い
られている公知の方法を使用することはできない。そこ
で、本実施例では過去8フィールド間の輝度変化を全て
検出する。図13にこの実施例6での動領域検出部6R
および6Bでの動き検出信号の算出法を示す。いま、現
フィールドを第mフィールドとし、図14のP1(i,
j)で示される画素の動き係数の算出をするものとす
る。なお、赤および青成分画像用のCCD11R,11
Bは固定されているため、図14で実線の四角で示され
る画素のみサンプリングされることになる。第mフィー
ルドでの画素P1(i,j)の信号値をP1(i,j)
m と表すことにすれば、本実施例での動領域検出部6R
での動き検出信号kR は(13)式で与えるものとす
る。In order to perform the above-mentioned high-definition processing, the condition is that the target pixel is not in the moving region from the present field to the past 8 fields. Therefore, the moving area detection unit 6
For R and 6B, it is not possible to use the known method used in NTSC or the like as in the above-mentioned embodiment. Therefore, in this embodiment, all the brightness changes between the past eight fields are detected. FIG. 13 shows the moving area detection unit 6R in the sixth embodiment.
The calculation method of the motion detection signal in and 6B is shown. Now, assuming that the current field is the m-th field, P1 (i,
It is assumed that the motion coefficient of the pixel indicated by j) is calculated. The CCDs 11R, 11 for the red and blue component images
Since B is fixed, only the pixels indicated by the solid squares in FIG. 14 are sampled. The signal value of the pixel P1 (i, j) in the m-th field is P1 (i, j)
If represented by m , the moving area detection unit 6R in the present embodiment.
The motion detection signal k R in the above equation is given by the equation (13).
【0042】[0042]
【数7】 kR = |P1(i,j)m −P1(i,j)m-2|+|P1(i,j)m-2−P1(i,j)m-4| +|P1(i,j)m-4−P1(i,j)m-6|+|P1(i,j)m-6−P1(i,j)m-8| +|P1(i,j)m-1−P1(i,j)m-3|+|P1(i,j)m-3−P1(i,j)m-5| +|P1(i,j)m-5−P1(i,j)m-7| ……(13) ただし、CCDは全てインタレース方式で駆動するた
め、第mフィールドで画素P1(i,j)を含むjライ
ンが走査されているとすれば、m-1 ,m-3 ,m-5,m-7
の各フィールドではjラインが走査されないため、画素
P1(i,j)の信号値を得ることができない。そこ
で、これらのフィールドにおいては、そのフィールドで
走査される上下のラインにある画素P1(i,j−1)
およびP1(i,j+1)の信号値の平均値を用いるこ
ととする。また、動領域検出部6Bでの動き検出信号kB
もkRと同様にして求める。[Formula 7] k R = | P1 (i, j) m −P1 (i, j) m-2 | + | P1 (i, j) m-2 −P1 (i, j) m-4 | + | P1 (i, j) m-4 −P1 (i, j) m-6 | + | P1 (i, j) m-6 −P1 (i, j) m-8 | + | P1 (i, j) m-1 −P1 (i, j) m-3 | + | P1 (i, j) m-3 −P1 (i, j) m-5 | + | P1 (i, j) m-5 −P1 ( i, j) m-7 | (13) However, since all CCDs are driven by the interlace method, if the j line including the pixel P1 (i, j) is scanned in the mth field, m-1, m-3, m-5, m-7
Since the j line is not scanned in each field of, the signal value of the pixel P1 (i, j) cannot be obtained. Therefore, in these fields, the pixel P1 (i, j-1) on the upper and lower lines scanned in that field
And the average value of the signal values of P1 (i, j + 1) is used. In addition, the motion detection signal k B in the motion area detection unit 6B
Is calculated in the same way as k R.
【0043】この実施例6では赤,緑および青成分画像
で動領域を同一とするため1つの動き検出信号kで各色
成分画像の動領域と静止領域の判定を行う。動き検出信
号kは(14)式により算出する。In the sixth embodiment, in order to make the moving regions the same in the red, green and blue component images, one moving detection signal k is used to determine the moving region and the still region of each color component image. The motion detection signal k is calculated by the equation (14).
【0044】[0044]
【数8】 k=kR + kG + kB ……(14) 上記動き検出信号kを用い、画像合成部8R,8Gおよ
び8Bでそれぞれ静止領域画像と動領域画像を合成す
る。K = k R + k G + k B (14) Using the motion detection signal k, the image combining units 8R, 8G, and 8B combine the still area image and the moving area image, respectively.
【0045】本実施例でも赤および青成分画像の撮像用
CCDは固定されているため、これらの画像には高周波
成分は含まれないが、緑成分画像の高周波成分との相関
性を利用して、これを加えることにより赤および青成分
画像の高精細化を実現する。Also in this embodiment, since the CCDs for picking up the red and blue component images are fixed, these images do not contain high frequency components, but the correlation with the high frequency components of the green component image is utilized. By adding this, high definition of red and blue component images is realized.
【0046】以上においては、本発明の6つの実施例を
示したにとどまり、本発明の精神を脱することなく種々
の変更が可能なことはいうまでもない。例えば、上記実
施例では固体撮像素子としてCCDを用いたが、固体撮
像素子の種類を問わず実施することが可能である。It is needless to say that various modifications can be made without departing from the spirit of the present invention. For example, although the CCD is used as the solid-state image pickup device in the above-described embodiment, it can be implemented regardless of the type of the solid-state image pickup device.
【0047】また、上記実施例では静止領域の緑成分画
像をCCDを1方向について画素ピッチの1/2だけず
らした画像を合成して生成したが、画素ピッチの1/3
または1/4づつずらし、さらに解像度の高い画像を合
成することも可能である。Further, in the above-mentioned embodiment, the green component image of the static area is generated by synthesizing an image obtained by shifting the CCD by ½ of the pixel pitch in one direction, but it is ⅓ of the pixel pitch.
Alternatively, it is also possible to shift by 1/4 and combine images with higher resolution.
【0048】また、上記実施例では圧電素子3でCCD
11R,11B,11G,111G,112G等を振動
させるシフト手段によるイメージシフト法を用いて、撮
像素子上で被写体像をシフトさせたが、例えば、ダイク
ロイックプリズムと撮像素子の間で透明板を振動させる
方法等いずれのシフト手段を用いても本発明の実施が可
能である。In the above embodiment, the piezoelectric element 3 is used for the CCD.
The image of the object is shifted on the image pickup device by using the image shift method by the shift means for vibrating 11R, 11B, 11G, 111G, 112G and the like. For example, the transparent plate is vibrated between the dichroic prism and the image pickup device. The present invention can be implemented by using any shifting means such as a method.
【0049】また、上記実施例では、ダイクロイックプ
リズムを用いる3CCD方式および4CCD方式につい
て述べたが、2個のCCDを用い赤成分と青成分の画像
を1つのCCDで撮像する方法でも本発明の実施は可能
である。Further, in the above embodiment, the 3CCD system and the 4CCD system using the dichroic prism have been described, but the present invention can also be implemented by a method in which two CCDs are used to capture images of red and blue components. Is possible.
【0050】[0050]
【発明の効果】本発明は以上説明したように、色分解プ
リズムと複数の固体撮像素子を備えたカラー撮像装置に
おいて、少なくとも1つの固体撮像素子をフィールドあ
るいはフレーム周期に同期させて、画素ピッチの整数分
の1の長さづつ水平方向または垂直方向、あるいは水
平,垂直の両方向にシフトさせるシフト手段を有するの
で、それぞれの領域および色に適した特性で画像の取り
込みが可能となる。すなわち、画像の精細度を決定する
静止領域については画素数の少ない撮像素子を用いても
時間をかけることにより十分高精細に撮像することがで
きる。また、動領域については従来の動画撮像と同一速
度で撮像でき、自然な動画像を撮像できる。以上から、
本発明のカラー撮像装置では画素数の少ない固体撮像素
子を用いても高精細な動画の撮像が可能である。このた
め、HDTVなどの高精細な動画撮像装置を低コストで
実現できる。さらに、HDTV用などの高解像度の撮像
素子を用いて本発明を実施すれば、従来にはない超高精
細な動画の撮像が可能となる。As described above, according to the present invention, in a color image pickup apparatus having a color separation prism and a plurality of solid-state image pickup elements, at least one solid-state image pickup element is synchronized with a field or frame period to reduce the pixel pitch. Since it has a shift means for shifting in the horizontal direction or the vertical direction, or both the horizontal direction and the vertical direction by the length of a fraction of an integer, it is possible to capture an image with characteristics suitable for each area and color. That is, with respect to a still area that determines the definition of an image, it is possible to take a sufficiently high-definition image by taking time even if an image pickup device having a small number of pixels is used. Further, the moving area can be picked up at the same speed as the conventional moving image pick-up, and a natural moving picture can be picked up. From the above,
The color image pickup device of the present invention can pick up a high-definition moving image even if a solid-state image pickup device having a small number of pixels is used. Therefore, a high-definition moving image pickup device such as an HDTV can be realized at low cost. Furthermore, by implementing the present invention using a high-resolution image pickup device for HDTV or the like, it becomes possible to take an ultra-high-definition moving image that has never been seen before.
【0051】また、本発明は連続する複数のフレームま
たはフィールド画像を合成する画像合成手段、および撮
像画像から動領域を検出する動領域検出手段を備えてい
るので動領域を検出して取り出すことができるため、受
信側への伝送に当たってはこの動領域と静止領域におい
て1コマ前に動領域であった部分のみの信号を送ればよ
く伝送信号を容易に圧縮することができる。Since the present invention is provided with the image synthesizing means for synthesizing a plurality of continuous frame or field images and the moving area detecting means for detecting the moving area from the picked-up image, the moving area can be detected and taken out. Therefore, when transmitting to the receiving side, it is sufficient to send only the signal in the moving region and the still region which were the moving region one frame before, and the transmitted signal can be easily compressed.
【図1】本発明の第1の実施例の概略構成を示すブロッ
ク図である。FIG. 1 is a block diagram showing a schematic configuration of a first embodiment of the present invention.
【図2】第1の実施例でのフレーム合成法を示す図であ
る。FIG. 2 is a diagram showing a frame synthesizing method in the first embodiment.
【図3】本発明の第2の実施例の概略構成を示すブロッ
ク図である。FIG. 3 is a block diagram showing a schematic configuration of a second embodiment of the present invention.
【図4】本発明の第3の実施例の概略構成を示すブロッ
ク図である。FIG. 4 is a block diagram showing a schematic configuration of a third embodiment of the present invention.
【図5】本発明の第4の実施例の概略構成を示すブロッ
ク図である。FIG. 5 is a block diagram showing a schematic configuration of a fourth exemplary embodiment of the present invention.
【図6】本発明の第4の実施例の撮像画像と出力画像の
画素位置関係をフレームおよびフィールド毎に示す図で
ある。FIG. 6 is a diagram illustrating a pixel positional relationship between a captured image and an output image according to a fourth embodiment of the present invention for each frame and field.
【図7】本発明の第4の実施例の撮像画像と出力画像の
画素位置関係をフレームおよびフィールド毎に示す図で
ある。FIG. 7 is a diagram illustrating a pixel positional relationship between a captured image and an output image according to a fourth embodiment of the present invention for each frame and field.
【図8】本発明の第4の実施例の撮像画像と出力画像の
画素位置関係をフレームおよびフィールド毎に示す図で
ある。FIG. 8 is a diagram showing a pixel positional relationship between a captured image and an output image according to a fourth embodiment of the present invention for each frame and field.
【図9】本発明の第4の実施例の撮像画像と出力画像の
画素位置関係をフレームおよびフィールド毎に示す図で
ある。FIG. 9 is a diagram showing a pixel positional relationship between a captured image and an output image according to a fourth embodiment of the present invention for each frame and field.
【図10】本発明の第5の実施例の概略構成を示すブロ
ック図である。FIG. 10 is a block diagram showing a schematic configuration of a fifth exemplary embodiment of the present invention.
【図11】第5の実施例で用いるイメージシフト法の説
明図である。FIG. 11 is an explanatory diagram of an image shift method used in the fifth embodiment.
【図12】本発明の第6の実施例の概略構成を示すブロ
ック図である。FIG. 12 is a block diagram showing a schematic configuration of a sixth embodiment of the present invention.
【図13】第6の実施例における動領域検出部での動き
検出信号の算出法を示す図である。FIG. 13 is a diagram showing a method of calculating a motion detection signal in a motion area detection unit in the sixth embodiment.
【図14】第6の実施例の撮像画像と出力画像の画素位
置関係を示す図である。FIG. 14 is a diagram showing a pixel positional relationship between a captured image and an output image according to the sixth embodiment.
【図15】本発明によるイメージシフト法による高解像
度化の原理説明図である。FIG. 15 is a diagram illustrating the principle of resolution enhancement by the image shift method according to the present invention.
【図16】従来のダイクロイックプリズムを用いるカラ
ー撮像装置の概略構成図である。FIG. 16 is a schematic configuration diagram of a color imaging device using a conventional dichroic prism.
2 レンズ 3 圧電素子 4 ダイクロイックプリズム 5R 補間処理部 5G 補間処理部 5B 補間処理部 6R 動領域検出部 6G 動領域検出部 6B 動領域検出部 7 フレーム合成部 8 画像合成部 9R 出力端子 9G 出力端子 9B 出力端子 11R CCDエリアセンサ 11G CCDエリアセンサ 11B CCDエリアセンサ 41 ダイクロイックプリズム 2 lens 3 piezoelectric element 4 dichroic prism 5R interpolation processing section 5G interpolation processing section 5B interpolation processing section 6R moving area detecting section 6G moving area detecting section 6B moving area detecting section 7 frame combining section 8 image combining section 9R output terminal 9G output terminal 9B Output terminal 11R CCD area sensor 11G CCD area sensor 11B CCD area sensor 41 Dichroic prism
Claims (2)
備えたカラー撮像装置において、 少なくとも1つの固体撮像素子をフィールドあるいはフ
レーム周期に同期させて、画素ピッチの整数分の1の長
さづつ水平方向または垂直方向、あるいは水平,垂直の
両方向にシフトさせるシフト手段を有することを特徴と
するカラー撮像装置。1. A color image pickup apparatus comprising a color separation prism and a plurality of solid-state image pickup devices, wherein at least one solid-state image pickup device is synchronized with a field or frame period, and is horizontally divided by an integer fraction of a pixel pitch. A color image pickup device comprising a shift means for shifting in a vertical or vertical direction, or in both horizontal and vertical directions.
ド画像を合成する画像合成手段、および撮像画像から動
領域を検出する動領域検出手段を備えていることを特徴
とする請求項1記載のカラー撮像装置。2. A color image pickup apparatus according to claim 1, further comprising: an image synthesizing unit for synthesizing a plurality of continuous frame or field images, and a moving region detecting unit for detecting a moving region from the picked-up image. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12319693A JP3648638B2 (en) | 1993-04-28 | 1993-04-28 | Color imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12319693A JP3648638B2 (en) | 1993-04-28 | 1993-04-28 | Color imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06315154A true JPH06315154A (en) | 1994-11-08 |
JP3648638B2 JP3648638B2 (en) | 2005-05-18 |
Family
ID=14854576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12319693A Expired - Fee Related JP3648638B2 (en) | 1993-04-28 | 1993-04-28 | Color imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3648638B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008524924A (en) * | 2004-12-15 | 2008-07-10 | マイクロン テクノロジー, インク. | Double lens imaging system and method |
WO2009019824A1 (en) * | 2007-08-07 | 2009-02-12 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
WO2009019823A1 (en) * | 2007-08-07 | 2009-02-12 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
WO2009031287A1 (en) * | 2007-09-07 | 2009-03-12 | Panasonic Corporation | Multi-color image processing apparatus and signal processing apparatus |
WO2010090025A1 (en) * | 2009-02-05 | 2010-08-12 | パナソニック株式会社 | Imaging processor |
JP2016111458A (en) * | 2014-12-04 | 2016-06-20 | 株式会社Jvcケンウッド | Imaging apparatus and imaging method |
-
1993
- 1993-04-28 JP JP12319693A patent/JP3648638B2/en not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008524924A (en) * | 2004-12-15 | 2008-07-10 | マイクロン テクノロジー, インク. | Double lens imaging system and method |
US8018500B2 (en) | 2007-08-07 | 2011-09-13 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
WO2009019824A1 (en) * | 2007-08-07 | 2009-02-12 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
WO2009019823A1 (en) * | 2007-08-07 | 2009-02-12 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
US8248495B2 (en) | 2007-08-07 | 2012-08-21 | Panasonic Corporation | Image picking-up processing device, image picking-up device, image processing method and computer program |
WO2009031287A1 (en) * | 2007-09-07 | 2009-03-12 | Panasonic Corporation | Multi-color image processing apparatus and signal processing apparatus |
US7825968B2 (en) | 2007-09-07 | 2010-11-02 | Panasonic Corporation | Multi-color image processing apparatus and signal processing apparatus |
JP4598162B2 (en) * | 2009-02-05 | 2010-12-15 | パナソニック株式会社 | Imaging processing device |
CN102106150A (en) * | 2009-02-05 | 2011-06-22 | 松下电器产业株式会社 | Imaging processor |
JPWO2010090025A1 (en) * | 2009-02-05 | 2012-08-09 | パナソニック株式会社 | Imaging processing device |
US8243160B2 (en) | 2009-02-05 | 2012-08-14 | Panasonic Corporation | Imaging processor |
WO2010090025A1 (en) * | 2009-02-05 | 2010-08-12 | パナソニック株式会社 | Imaging processor |
JP2016111458A (en) * | 2014-12-04 | 2016-06-20 | 株式会社Jvcケンウッド | Imaging apparatus and imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP3648638B2 (en) | 2005-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4142340B2 (en) | Imaging device | |
JP3735867B2 (en) | Luminance signal generator | |
WO2009145201A1 (en) | Image processing device, image processing method, and imaging device | |
JP5159461B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US7236194B2 (en) | Image signal processing apparatus | |
JP3648638B2 (en) | Color imaging device | |
JP3967853B2 (en) | Solid-state imaging device and signal readout method | |
JPH07203318A (en) | Imaging device | |
JP3346481B2 (en) | Video input device | |
JP2000023046A (en) | Imaging device | |
JP3535623B2 (en) | Color imaging device | |
JP2004104516A (en) | Imaging device | |
KR100665489B1 (en) | Imaging Device and Imaging Method | |
JP2000228775A (en) | CCD type 4-plate high-speed imaging device | |
JP3458443B2 (en) | High-definition solid-state imaging device | |
JPH05276452A (en) | Image pickup device | |
JPH06292094A (en) | Image pickup device | |
JPH05504873A (en) | Videophone camera throughput compression method and videophone camera | |
JPH06209435A (en) | Image input / output transmission system | |
JP2000261817A (en) | Imaging device | |
JP2533547B2 (en) | Solid-state imaging device | |
JP3259525B2 (en) | Image signal processing device | |
JPH0799664A (en) | High-definition image pickup device | |
JP3463697B2 (en) | Image input / output system | |
JPH08256345A (en) | Image pickup device and image signal processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20050202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050202 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090225 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090225 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100225 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110225 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110225 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120225 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130225 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |