[go: up one dir, main page]

JP2018175871A - Imaging device and control program for imaging device - Google Patents

Imaging device and control program for imaging device Download PDF

Info

Publication number
JP2018175871A
JP2018175871A JP2018077557A JP2018077557A JP2018175871A JP 2018175871 A JP2018175871 A JP 2018175871A JP 2018077557 A JP2018077557 A JP 2018077557A JP 2018077557 A JP2018077557 A JP 2018077557A JP 2018175871 A JP2018175871 A JP 2018175871A
Authority
JP
Japan
Prior art keywords
image
light
period
row
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077557A
Other languages
Japanese (ja)
Other versions
JP7116580B2 (en
Inventor
淳也 福元
Junya Fukumoto
淳也 福元
裕真 工藤
Hiromasa Kudo
裕真 工藤
隆司 津田
Takashi Tsuda
隆司 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US15/952,916 priority Critical patent/US10638077B2/en
Publication of JP2018175871A publication Critical patent/JP2018175871A/en
Application granted granted Critical
Publication of JP7116580B2 publication Critical patent/JP7116580B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Studio Devices (AREA)

Abstract

【課題】観察するのに十分なフレームレートを確保すること。【解決手段】実施形態の撮像装置は、イメージセンサと、制御部と、画像生成部とを備える。イメージセンサは、行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサである。制御部は、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間を基準とした期間にのみ、前記複数の画素を受光させる。画像生成部は、前記電気信号に基づいて、画像を生成する。【選択図】図1PROBLEM TO BE SOLVED: To secure a sufficient frame rate for observation. An image pickup apparatus according to an embodiment includes an image sensor, a control unit, and an image generation unit. The image sensor includes a plurality of pixels arranged in a matrix that generate an electric signal by receiving light, and starts exposure sequentially at least one row from the first row to the last row of the plurality of pixels. This is a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row at which the exposure is completed for each frame. The control unit sets the period based on the blanking period corresponding to the period from the end of the output of the electric signal from the last row to the start of the output of the electric signal from the first row. Only the plurality of pixels receive light. The image generation unit generates an image based on the electric signal. [Selection diagram] Fig. 1

Description

本発明の実施形態は、撮像装置及び撮像装置の制御プログラムに関する。   Embodiments of the present invention relate to an imaging device and a control program of the imaging device.

撮像装置、例えば、内視鏡装置では、以前は、CCD(Charge Coupled Device)イメージセンサが主流であったが、近年、低コスト化、単電源化、低消費電力化等の利点を有するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが主流になっている。CMOSイメージセンサでは、ローリングシャッタ方式が一般的に多く採用されている。   In imaging devices, for example, endoscopic devices, CCD (Charge Coupled Device) image sensors have been the mainstream in the past, but in recent years CMOS (with low cost, single power supply, low power consumption, etc.) has advantages Complementary Metal Oxide Semiconductor) image sensors have become mainstream. In a CMOS image sensor, a rolling shutter system is generally adopted in many cases.

国際公開第2014/125724号International Publication No. 2014/125724 特許第6019167号公報Patent No. 6019167 gazette

本発明が解決しようとする課題は、観察するのに十分なフレームレートを確保することができる撮像装置及び撮像装置の制御プログラムを提供することである。   The problem to be solved by the present invention is to provide an imaging device and a control program of the imaging device capable of securing a frame rate sufficient for observation.

実施形態の撮像装置は、イメージセンサと、制御部と、画像生成部とを備える。イメージセンサは、行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサである。制御部は、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間を基準とした期間にのみ、前記複数の画素を受光させる。画像生成部は、前記電気信号に基づいて、画像を生成する。   An imaging device according to an embodiment includes an image sensor, a control unit, and an image generation unit. The image sensor includes a plurality of pixels arranged in a matrix to generate an electric signal by light reception, and starts exposure sequentially at least every other row from the first row to the last row of the plurality of pixels. The rolling shutter type image sensor is a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row in which the exposure is completed for each frame. The control unit performs a period based on a blanking period corresponding to a period from the end of the output of the electrical signal from the last row to the start of the output of the electrical signal from the first row. Only the plurality of pixels are received. The image generation unit generates an image based on the electrical signal.

図1は、第1の実施形態に係る撮像装置を備える撮像システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an imaging system including an imaging device according to the first embodiment. 図2は、比較例に係る撮像装置の動作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of the operation of the imaging device according to the comparative example. 図3は、第1の実施形態に係る撮像装置の撮像動作の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of the imaging operation of the imaging device according to the first embodiment. 図4Aは、画像処理回路が実行する画像処理の一例を説明するための図である。FIG. 4A is a diagram for explaining an example of image processing performed by the image processing circuit. 図4Bは、合成画像の一例を示す図である。FIG. 4B is a diagram showing an example of a composite image. 図5は、第1の実施形態に係る制御処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of control processing according to the first embodiment. 図6は、第3の実施形態に係る撮像装置の動作の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of the operation of the imaging device according to the third embodiment. 図7は、第4の実施形態に係る画像の一例を説明するための図である。FIG. 7 is a view for explaining an example of an image according to the fourth embodiment. 図8は、第5の実施形態に係る撮像装置が行うモード切替の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of mode switching performed by the imaging device according to the fifth embodiment. 図9は、第6の実施形態に係る撮像装置の動作の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of the operation of the imaging device according to the sixth embodiment.

以下、図面を参照して、各実施形態に係る撮像装置及び撮像装置の制御プログラムを説明する。なお、実施形態は、以下の内容に限られるものではない。また、一つの実施形態や変形例に記載した内容は、原則として他の実施形態や変形例にも同様に適用される。   Hereinafter, an imaging device and a control program of the imaging device according to each embodiment will be described with reference to the drawings. The embodiment is not limited to the following contents. In addition, the contents described in one embodiment or modification can be applied to other embodiments or modifications in the same manner in principle.

(第1の実施形態)
図1は、第1の実施形態に係る撮像装置10を備える撮像システム1の構成例を示す図である。図1に示すように、第1の実施形態に係る撮像システム1は、撮像装置10と、光源装置30と、光ファイバ31とを備える。
First Embodiment
FIG. 1 is a diagram showing a configuration example of an imaging system 1 provided with an imaging device 10 according to the first embodiment. As shown in FIG. 1, the imaging system 1 according to the first embodiment includes an imaging device 10, a light source device 30, and an optical fiber 31.

撮像装置10は、例えば、医療用の硬性内視鏡として用いられ、被検体100の体内を撮像する装置である。撮像装置10は、スコープ11と、カメラヘッド12と、カメラケーブル13と、CCU(Camera Control Unit)14とを備える。   The imaging device 10 is, for example, a device that is used as a medical rigid endoscope and images the inside of the subject 100. The imaging device 10 includes a scope 11, a camera head 12, a camera cable 13, and a CCU (Camera Control Unit) 14.

スコープ11は、撮像が行われる際に、被検体100の体内に挿入される。スコープ11の先端には、対物レンズ11aが設けられている。スコープ11は、屈曲しない硬性を有する。   The scope 11 is inserted into the body of the subject 100 when imaging is performed. An objective lens 11 a is provided at the tip of the scope 11. The scope 11 has a hardness that does not bend.

カメラヘッド12は、励起光カットフィルタ12aと、分光プリズム12bと、3つのイメージセンサ12c〜12e(12c,12d,12e)と、イメージセンサ制御回路12fとを備える。   The camera head 12 includes an excitation light cut filter 12a, a spectral prism 12b, three image sensors 12c to 12e (12c, 12d, 12e), and an image sensor control circuit 12f.

励起光カットフィルタ12aは、複数の画素の撮像領域に対向するように配置され、光源装置30から出射された励起光以外の光を複数の画素に受光させる光学素子である。励起光カットフィルタ12aは、スコープ11と分光プリズム12bの入射面12b_1との間に配置され、対物レンズ11aから入射される光のうち、励起光をカットし、励起光以外の光を通過させるフィルタである。したがって、分光プリズム12bの入射面12b_1には、光源装置30により被検体100の体内組織に照射された光の反射光(戻り光)のうち、励起光以外の光が入射される。以下の説明では、分光プリズム12bに入射されてイメージセンサ12cに入射される白色光の反射光を、単に、白色光と表記する場合がある。   The excitation light cut filter 12 a is an optical element that is disposed to face the imaging region of the plurality of pixels, and causes the plurality of pixels to receive light other than the excitation light emitted from the light source device 30. The excitation light cut filter 12a is disposed between the scope 11 and the incident surface 12b_1 of the spectral prism 12b, and is a filter that cuts excitation light out of light incident from the objective lens 11a and transmits light other than the excitation light. It is. Therefore, light other than the excitation light among reflected light (return light) of the light irradiated to the body tissue of the subject 100 by the light source device 30 is incident on the incident surface 12b_1 of the spectral prism 12b. In the following description, the reflected light of white light that is incident on the spectral prism 12 b and that is incident on the image sensor 12 c may be simply described as white light.

分光プリズム12bは、入射された光を赤色(R)の光、緑色(G)の光及び青色(B)の光に分光する。そして、分光プリズム12bは、青色の光をイメージセンサ12cの撮像面に結像する。また、分光プリズム12bは、緑色の光をイメージセンサ12dの撮像面に結像する。また、分光プリズム12bは、赤色の光をイメージセンサ12eの撮像面に結像する。   The splitting prism 12b splits the incident light into red (R) light, green (G) light and blue (B) light. Then, the spectral prism 12 b focuses blue light on the imaging surface of the image sensor 12 c. Further, the spectral prism 12b focuses green light on the imaging surface of the image sensor 12d. The spectral prism 12b focuses red light on the imaging surface of the image sensor 12e.

イメージセンサ12c〜12eのそれぞれは、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。イメージセンサ12c〜12eのそれぞれの撮像面と、分光プリズム12bの結像面とが略一致するように、イメージセンサ12c〜12eが配置される。3つ(複数)のイメージセンサ12c〜12eのそれぞれの複数の画素は、対応する種類の光を受光することにより映像信号を出力する。   Each of the image sensors 12c to 12e is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensors 12c to 12e are arranged such that the imaging surfaces of the image sensors 12c to 12e substantially coincide with the image forming surface of the spectral prism 12b. A plurality of pixels of each of the three (plurality) image sensors 12c to 12e output an image signal by receiving light of the corresponding type.

イメージセンサ12c〜12eのそれぞれは、複数の画素(撮像要素)を備える。複数の画素は、撮像面において行列状に配置される。各画素は、イメージセンサ制御回路12fによる駆動制御により、光を受光することにより映像信号(電気信号)を発生し、発生した映像信号を出力する。例えば、イメージセンサ12cの各画素は、青色の光を受光することにより、B信号(Bの映像信号)を出力する。また、イメージセンサ12dの各画素は、緑色の光を受光することにより、G信号(Gの映像信号)を出力する。また、イメージセンサ12eの各画素は、赤色の光を受光することにより、R信号(Rの映像信号)を出力する。例えば、イメージセンサ12c〜12eを備えるカメラヘッド12は、カメラケーブル13を介して、CCU14にRGB信号を出力する。なお、イメージセンサ12c〜12eからは、アナログ形式の映像信号が出力される。   Each of the image sensors 12c to 12e includes a plurality of pixels (imaging elements). The plurality of pixels are arranged in a matrix on the imaging plane. Each pixel generates a video signal (electrical signal) by receiving light and driving the image sensor control circuit 12f under drive control, and outputs the generated video signal. For example, each pixel of the image sensor 12c outputs a B signal (image signal of B) by receiving blue light. In addition, each pixel of the image sensor 12d outputs a G signal (G video signal) by receiving green light. In addition, each pixel of the image sensor 12e outputs an R signal (R video signal) by receiving red light. For example, the camera head 12 including the image sensors 12 c to 12 e outputs RGB signals to the CCU 14 via the camera cable 13. The image sensors 12c to 12e output video signals of analog format.

ここで、第1の実施形態に係る撮像装置10は、例えば、被検体100に対して、ICG(インドシアニングリーン)蛍光造影法による外科手術を行う際に用いられる。第1の実施形態では、被検体100に、ICGが投与される。ICGは、IRレーザ30dから出射される励起光により励起され、800〜850nm程度の近赤外蛍光(以下、蛍光と称する)を発する。この蛍光は、励起光カットフィルタ12aを通過して、分光プリズム12bによりイメージセンサ12eの撮像面に結像される。すなわち、イメージセンサ12eは、励起光に基づく蛍光を受光することにより、R信号を出力する。以下、イメージセンサ12eが蛍光を受光して、撮像装置10が各種の処理を行う場合について説明するが、撮像装置10は、励起光カットフィルタ12aを設けずに、励起光の反射光をイメージセンサ12eに受光させて同様の処理を行っても良い。   Here, the imaging apparatus 10 according to the first embodiment is used, for example, when performing a surgical operation by an ICG (indocyanine green) fluorescence imaging method on the subject 100. In the first embodiment, the subject 100 is administered ICG. The ICG is excited by excitation light emitted from the IR laser 30d, and emits near infrared fluorescence (hereinafter referred to as fluorescence) of about 800 to 850 nm. This fluorescence passes through the excitation light cut filter 12a and is imaged on the imaging surface of the image sensor 12e by the spectral prism 12b. That is, the image sensor 12e outputs an R signal by receiving fluorescence based on excitation light. Hereinafter, a case where the image sensor 12e receives fluorescence and the imaging device 10 performs various processes will be described. However, the imaging device 10 does not provide the excitation light cut filter 12a, and the image sensor reflects the reflected light of the excitation light The same process may be performed by receiving light at 12e.

イメージセンサ12c〜12eのそれぞれは、複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に映像信号を出力する処理を、1フレーム(画像)毎に繰り返すローリングシャッタ方式のイメージセンサである。ここで、露光とは、例えば、画素が電荷を蓄積することを意味する。   Each of the image sensors 12c to 12e sequentially starts exposure for at least one row from the first row to the last row of the plurality of pixels, and outputs a video signal in order from the row where the exposure is completed, It is a rolling shutter type image sensor that repeats every one frame (image). Here, exposure means, for example, that the pixel stores charge.

ここで、上述したようにカメラヘッド12が複数のイメージセンサ12c〜12eを備える場合には、半画素ずらしという手法を用いて、画像の高解像度化を図ってもよい。   Here, when the camera head 12 includes the plurality of image sensors 12 c to 12 e as described above, the resolution of the image may be increased by using a method of shifting the pixels by half a pixel.

なお、カメラヘッド12は、分光プリズム12b及び3つのイメージセンサ12c〜12eに代えて、ベイヤフィルタ及び1つのイメージセンサを備えても良い。この場合には、イメージセンサの撮像面側に、各画素に赤色フィルタ、緑色フィルタ及び青色フィルタのいずれかが対向するようにベイヤフィルタが配置される。このように、1つの画素に対して1つの色のフィルタが対応する。イメージセンサは、画素毎に、当該画素に対応するフィルタの色の映像信号を出力する。なお、後述の画像処理回路14cにより、画素毎に、当該画素の周辺の画素から出力される映像信号に基づいて、直接得られない残りの2色の各映像信号を推定する推定処理が実行される。この結果、撮像装置10は、画素毎に、映像信号としてRGB信号を得ることができる。   The camera head 12 may be provided with a Bayer filter and one image sensor instead of the spectral prism 12 b and the three image sensors 12 c to 12 e. In this case, a Bayer filter is disposed on the imaging surface side of the image sensor such that any one of the red filter, the green filter, and the blue filter faces each pixel. Thus, one color filter corresponds to one pixel. The image sensor outputs, for each pixel, an image signal of the color of the filter corresponding to the pixel. The image processing circuit 14c described later executes, for each pixel, an estimation process of estimating each of the remaining two color video signals that can not be obtained directly based on the video signals output from pixels around the pixel. Ru. As a result, the imaging device 10 can obtain RGB signals as video signals for each pixel.

イメージセンサ制御回路12fは、後述する制御回路14aから出力された制御信号、並びに、後述するタイミング信号発生回路14fから出力された各種の同期信号に基づいてイメージセンサ12c〜12eを駆動制御する。例えば、イメージセンサ制御回路12fは、制御信号及び各種の同期信号に基づいて、イメージセンサ12c〜12eから出力されるアナログ形式の映像信号に適宜ゲイン(アナログゲイン)をかけて(映像信号を増幅して)、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12c〜12eを制御する。或いは、イメージセンサ12c〜12eが図示しないADコンバータを内蔵する場合、イメージセンサ制御回路12fは、イメージセンサ12c〜12eから出力されるデジタル形式の映像信号に適宜ゲイン(デジタルゲイン)をかけて、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12c〜12eを制御する。   The image sensor control circuit 12 f drives and controls the image sensors 12 c to 12 e based on control signals output from the control circuit 14 a described later and various synchronization signals output from the timing signal generation circuit 14 f described later. For example, based on the control signal and various synchronization signals, the image sensor control circuit 12f appropriately applies gain (analog gain) to the video signal in analog format output from the image sensors 12c to 12e (to amplify the video signal). Control the image sensors 12 c to 12 e so as to output the gain-applied video signal to the CCU 14. Alternatively, when the image sensors 12c to 12e incorporate an AD converter (not shown), the image sensor control circuit 12f appropriately applies a gain (digital gain) to the digital image signal output from the image sensors 12c to 12e to obtain a gain. The image sensors 12 c to 12 e are controlled so as to output the video signal to which the image is applied to the CCU 14.

カメラケーブル13は、カメラヘッド12とCCU14との間で映像信号、制御信号及び同期信号を送受信するための信号線を収容するケーブルである。   The camera cable 13 is a cable that accommodates signal lines for transmitting and receiving video signals, control signals, and synchronization signals between the camera head 12 and the CCU 14.

CCU14は、カメラヘッド12から出力された映像信号に各種の画像処理を施すことにより、ディスプレイ101に表示させる画像を示す画像データを生成し、CCU14に接続されたディスプレイ101に画像データを出力する。なお、各種の画像処理が施された映像信号は、ディスプレイ101に表示させる画像を示す画像データである。   The CCU 14 performs various types of image processing on the video signal output from the camera head 12 to generate image data indicating an image to be displayed on the display 101, and outputs the image data to the display 101 connected to the CCU 14. The video signal subjected to various image processing is image data indicating an image to be displayed on the display 101.

CCU14は、制御回路14aと、記憶制御回路14bと、画像処理回路14cと、画像合成回路14dと、出力回路14eと、タイミング信号発生回路14fと、記憶回路14gとを備える。なお、イメージセンサ12c〜12eがADコンバータを内蔵しない場合、CCU14は、図示しないAD(Analog to Digital)コンバータ等も備える。かかるADコンバータは、例えば、カメラヘッド12から出力されたアナログ形式の映像信号をデジタル形式の映像信号に変換する。   The CCU 14 includes a control circuit 14a, a storage control circuit 14b, an image processing circuit 14c, an image combining circuit 14d, an output circuit 14e, a timing signal generation circuit 14f, and a storage circuit 14g. When the image sensors 12c to 12e do not include an AD converter, the CCU 14 also includes an AD (Analog to Digital) converter (not shown). The AD converter converts, for example, an analog video signal output from the camera head 12 into a digital video signal.

制御回路14aは、撮像装置10の各種の構成要素を制御する。例えば、制御回路14aは、イメージセンサ制御回路12f、記憶制御回路14b、画像処理回路14c、画像合成回路14d、出力回路14e及びタイミング信号発生回路14fの各回路に対して制御信号を出力して、各回路を制御する。制御回路14aは、記憶回路14gに記憶された撮像装置10の制御プログラムを読み込み、読み込んだ制御プログラムを実行することで、撮像装置10の各種の構成要素を制御する制御処理を実行する。或いは、制御回路14aは、内部に図示しない記憶回路を有しており、当該記憶回路に記憶された制御プログラムを実行する。制御回路14aは、例えば、MPU(Micro-Processing Unit)等のプロセッサにより実現される。   The control circuit 14 a controls various components of the imaging device 10. For example, the control circuit 14a outputs control signals to the image sensor control circuit 12f, the storage control circuit 14b, the image processing circuit 14c, the image synthesis circuit 14d, the output circuit 14e, and the timing signal generation circuit 14f. Control each circuit. The control circuit 14 a reads the control program of the imaging device 10 stored in the storage circuit 14 g and executes the read control program to execute control processing for controlling various components of the imaging device 10. Alternatively, the control circuit 14a internally includes a storage circuit (not shown) and executes a control program stored in the storage circuit. The control circuit 14a is realized by, for example, a processor such as an MPU (Micro-Processing Unit).

記憶制御回路14bは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、カメラヘッド12から出力された映像信号を記憶回路14gに記憶させる制御を行う。また、記憶制御回路14bは、制御信号及び同期信号に基づいて、記憶回路14gに記憶された映像信号を1行毎に読み取る。そして、記憶制御回路14bは、読み取った1行分の映像信号を画像処理回路14cに出力する。   The storage control circuit 14b stores the video signal output from the camera head 12 in the storage circuit 14g based on the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. Control. The storage control circuit 14b also reads the video signal stored in the storage circuit 14g row by row based on the control signal and the synchronization signal. Then, the storage control circuit 14 b outputs the read video signal for one line to the image processing circuit 14 c.

画像処理回路14cは、制御回路14aから出力された制御信号、及び、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、記憶制御回路14bから出力された映像信号に対して各種の画像処理を施す。これにより、画像処理回路14cは、ディスプレイ101に表示させる画像を示す画像データを生成する。すなわち、画像処理回路14cは、映像信号に基づいて、画像を生成する。例えば、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対してゲイン(デジタルゲイン)をかけて、画像の明るさを調整する。また、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対して、ノイズを低減させるノイズリダクション処理や輪郭を強調する輪郭強調処理等を行ってもよい。そして、画像処理回路14cは、各種の画像処理が施された映像信号(ディスプレイ101に表示させる画像を示す画像データ)を画像合成回路14dに出力する。   The image processing circuit 14c performs various processing on the video signal output from the storage control circuit 14b based on the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. Perform image processing. Thereby, the image processing circuit 14 c generates image data indicating an image to be displayed on the display 101. That is, the image processing circuit 14c generates an image based on the video signal. For example, the image processing circuit 14 c adjusts the brightness of the image by applying a gain (digital gain) to the video signal output from the storage control circuit 14 b. In addition, the image processing circuit 14 c may perform noise reduction processing for reducing noise, contour emphasis processing for emphasizing a contour, or the like on the video signal output from the storage control circuit 14 b. Then, the image processing circuit 14c outputs a video signal (image data representing an image to be displayed on the display 101) subjected to various types of image processing to the image combining circuit 14d.

画像合成回路14dは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、画像処理回路14cから出力された映像信号を合成して合成画像データを生成する。そして、画像合成回路14dは、合成画像データをディスプレイ101に出力する。   The image combining circuit 14d combines the video signal output from the image processing circuit 14c on the basis of the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. Generate image data. Then, the image combining circuit 14 d outputs the combined image data to the display 101.

例えば、記憶制御回路14b、画像処理回路14c及び画像合成回路14dは、DSP(Digital Signal Processor)等の1つのプロセッサにより実現される。また、例えば記憶制御回路14b、画像処理回路14c及び画像合成回路14d、タイミング信号発生回路14fは、1つのFPGA(Field Programmable Gate Array)により実現される。なお、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14dは、1つの処理回路により実現されてもよい。この処理回路は、例えば、プロセッサにより実現される。   For example, the storage control circuit 14 b, the image processing circuit 14 c, and the image combining circuit 14 d are realized by one processor such as a DSP (Digital Signal Processor). Further, for example, the storage control circuit 14b, the image processing circuit 14c, the image synthesis circuit 14d, and the timing signal generation circuit 14f are realized by one FPGA (Field Programmable Gate Array). The control circuit 14a, the storage control circuit 14b, the image processing circuit 14c, and the image combining circuit 14d may be realized by one processing circuit. The processing circuit is realized by, for example, a processor.

出力回路14eは、画像合成回路14dから出力された合成画像データをディスプレイ101に出力する。これにより、ディスプレイ101は、合成画像データが示す合成画像を表示する。合成画像は、画像の一例である。出力回路14eは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)ドライバIC(Integrated Circuit)やSDI(Serial Digital Interface)ドライバICなどにより実現される。   The output circuit 14 e outputs the combined image data output from the image combining circuit 14 d to the display 101. Thereby, the display 101 displays the composite image indicated by the composite image data. The composite image is an example of an image. The output circuit 14e is realized by, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) driver IC (Integrated Circuit), an SDI (Serial Digital Interface) driver IC, or the like.

タイミング信号発生回路14fは、光源装置30からの光の出射タイミング、イメージセンサ12c〜12eの露光タイミング及び映像信号の出力タイミング、記憶制御回路14bによる記憶回路14gの制御タイミング等の各種のタイミングを一元管理する。制御回路14a及びタイミング信号発生回路14fは、制御部の一例である。   The timing signal generation circuit 14f unifies various timings such as emission timing of light from the light source device 30, exposure timing of the image sensors 12c to 12e, output timing of video signals, and control timing of the storage circuit 14g by the storage control circuit 14b. to manage. The control circuit 14a and the timing signal generation circuit 14f are examples of a control unit.

タイミング信号発生回路14fは、図示しない発振回路により生成されたクロック信号を基に水平同期信号及び垂直同期信号や、撮像装置10全体の同期をとるためのその他の同期信号等の各種の同期信号を生成する。そして、タイミング信号発生回路14fは、生成した各種の同期信号をイメージセンサ制御回路12f、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14d及び出力回路14eの各回路に出力する。   The timing signal generation circuit 14 f receives various synchronization signals such as a horizontal synchronization signal and a vertical synchronization signal based on a clock signal generated by an oscillation circuit (not shown) and other synchronization signals for synchronizing the entire imaging device 10. Generate Then, the timing signal generation circuit 14f outputs the generated various synchronization signals to the image sensor control circuit 12f, the control circuit 14a, the storage control circuit 14b, the image processing circuit 14c, the image synthesis circuit 14d, and the output circuit 14e. .

また、タイミング信号発生回路14fは、クロック信号、及び、制御回路14aから出力された制御信号を基に、光源制御信号を生成する。光源制御信号は、光源装置30から出射される光を制御するとともに撮像システム1全体の同期をとるための制御信号である。そして、タイミング信号発生回路14fは、生成した光源制御信号を光源装置30に出力する。   The timing signal generation circuit 14f generates a light source control signal based on the clock signal and the control signal output from the control circuit 14a. The light source control signal is a control signal for controlling the light emitted from the light source device 30 and synchronizing the entire imaging system 1. Then, the timing signal generation circuit 14 f outputs the generated light source control signal to the light source device 30.

例えば、光源制御信号の波形は、矩形波であり、光源制御信号は、ハイ(high)レベル及びロー(low)レベルの2つのレベル(状態)を有する。例えば、光源制御信号は、ハイレベルの間、白色LED30bから白色光を出射させたり、IRレーザ30dから励起光を出射させたりし、ローレベルの間、白色LED30bを消灯させたり、IRレーザ30dからの励起光の出射を停止させたりする制御信号である。   For example, the waveform of the light source control signal is a rectangular wave, and the light source control signal has two levels (states) of high level and low level. For example, while the light source control signal is high level, white light is emitted from the white LED 30b or excitation light is emitted from the IR laser 30d, and the white LED 30b is turned off during low level; Control signal for stopping the emission of the excitation light.

記憶回路14gは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。記憶回路14gは、各種のプログラムを記憶する。例えば、記憶回路14gは、制御回路14aにより実行される制御プログラムを記憶する。また、記憶回路14gには、記憶制御回路14bにより映像信号が一時的に格納される。   The storage circuit 14 g is realized by, for example, a random access memory (RAM), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The storage circuit 14g stores various programs. For example, the storage circuit 14g stores a control program executed by the control circuit 14a. Further, a video signal is temporarily stored in the storage circuit 14 g by the storage control circuit 14 b.

光源装置30は、光源制御信号に基づいて、白色光又は励起光を出射する。光源装置30は、駆動回路30aと、白色LED(Light Emitting Diode)30bと、駆動回路30cと、IRレーザ30dとを備える。   The light source device 30 emits white light or excitation light based on the light source control signal. The light source device 30 includes a drive circuit 30a, a white LED (Light Emitting Diode) 30b, a drive circuit 30c, and an IR laser 30d.

駆動回路30aは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、白色LED30bを駆動させて点灯させる駆動制御を行う。白色LED30bは、駆動回路30aによる駆動制御により、白色光を出射する。白色光は、例えば、可視光である。また、白色光は、光の一例である。また、白色光は、第2の光の一例でもある。   The drive circuit 30a performs drive control to drive and light the white LED 30b based on the light source control signal output from the timing signal generation circuit 14f. The white LED 30b emits white light by drive control by the drive circuit 30a. White light is, for example, visible light. White light is an example of light. White light is also an example of second light.

駆動回路30cは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、IRレーザ30dを駆動させて、IRレーザ30dから励起光を出射させる駆動制御を行う。IRレーザ30dは、駆動回路30cによる駆動制御により、励起光を出射する。なお、上述したように、励起光は、励起光カットフィルタ12aによりカットされる。また、励起光によりICGが励起されてICGから出射された蛍光(励起光に基づく蛍光)は、励起光カットフィルタ12aを通過して、イメージセンサ12eにより受光される。励起光は、光の一例である。また、励起光は、第1の光の一例である。   The drive circuit 30c drives the IR laser 30d based on the light source control signal output from the timing signal generation circuit 14f, and performs drive control to emit excitation light from the IR laser 30d. The IR laser 30d emits excitation light by drive control by the drive circuit 30c. As described above, the excitation light is cut by the excitation light cut filter 12a. In addition, the ICG is excited by the excitation light and the fluorescence (fluorescence based on the excitation light) emitted from the ICG passes through the excitation light cut filter 12a and is received by the image sensor 12e. Excitation light is an example of light. The excitation light is an example of the first light.

光ファイバ31は、光源装置30からの白色光及び励起光をスコープ11の先端部に導いて、スコープ11の先端部から出射させる。   The optical fiber 31 guides the white light and the excitation light from the light source device 30 to the tip of the scope 11 and causes the tip of the scope 11 to emit the light.

以上、第1の実施形態に係る撮像システム1の撮像装置10の構成例について説明した。ここで、比較例に係る撮像装置について説明する。比較例に係る撮像装置は、ローリングシャッタ方式のイメージセンサを備える。   The configuration example of the imaging device 10 of the imaging system 1 according to the first embodiment has been described above. Here, an imaging device according to a comparative example will be described. An imaging device according to the comparative example includes a rolling shutter type image sensor.

図2は、比較例に係る撮像装置の動作の一例を説明するための図である。図2には、比較例に係る撮像装置のイメージセンサが備える複数の画素の各行の露光タイミングと、イメージセンサから出力される映像信号の出力タイミングとの関係の一例が示されている。図2に示すように、比較例に係る撮像装置では、1フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。比較例に係る撮像装置では、露光期間は、1/60[s]である。ここで、露光期間とは、例えば、画素が電荷の蓄積を開始してから終了するまでの期間を意味する。   FIG. 2 is a diagram for explaining an example of the operation of the imaging device according to the comparative example. FIG. 2 shows an example of the relationship between the exposure timing of each row of a plurality of pixels included in the image sensor of the imaging device according to the comparative example and the output timing of the video signal output from the image sensor. As shown in FIG. 2, in the imaging device according to the comparative example, in imaging of the first frame, exposure is sequentially started for each row from the first row of the plurality of pixels to the last row. In the imaging device according to the comparative example, the exposure period is 1/60 [s]. Here, the exposure period means, for example, a period from when the pixel starts accumulation of charge until it ends.

そして、図2に示すように、比較例に係る撮像装置では、露光が終了した行から順に映像信号が出力される。すなわち、最初の行から最後の行に向かって各行から映像信号が順々に出力される。ここで、比較例に係る撮像装置では、イメージセンサから1フレームの映像信号が出力される期間(読み出し期間)は、露光期間と同じ1/60[s]である。そして、図2に示すように、2フレーム目以降も同様の処理が行われる。   Then, as shown in FIG. 2, in the imaging device according to the comparative example, video signals are output in order from the row in which the exposure is completed. That is, video signals are sequentially output from each row from the first row to the last row. Here, in the imaging device according to the comparative example, a period (readout period) in which a video signal of one frame is output from the image sensor is 1/60 [s] which is the same as the exposure period. Then, as shown in FIG. 2, the same processing is performed for the second and subsequent frames.

比較例に係る撮像装置では、イメージセンサは、複数の画素の全ての行において、光を受光する期間(受光期間)が露光期間と同じ期間である。そのため、最初の行から最後の行に向かって、各行の受光期間が順々に時間軸方向にずれている。このように、比較例に係る撮像装置では、行毎に受光期間が異なるため、画像に歪みが発生してしまう場合がある。この場合、画像を観察する医師等のユーザにとって、観察するのに画質が十分でないという問題がある。   In the imaging device according to the comparative example, in the image sensor, the light reception period (light reception period) is the same as the exposure period in all the rows of the plurality of pixels. Therefore, from the first row to the last row, the light reception periods of the respective rows are sequentially shifted in the time axis direction. As described above, in the imaging device according to the comparative example, since the light reception period is different for each row, distortion may occur in the image. In this case, for a user such as a doctor who observes an image, there is a problem that the image quality is not sufficient for observation.

そこで、第1の実施形態に係る撮像装置10は、上述した構成のもと、ユーザが観察するのに十分な画質及びフレームレートを確保することができるように、以下の動作を行う。   Therefore, the imaging apparatus 10 according to the first embodiment performs the following operation so as to ensure the image quality and the frame rate sufficient for the user to observe with the above-described configuration.

本実施形態では、イメージセンサ12c〜12eの露光期間は、撮像装置10からディスプレイ101に1フレームの映像信号が出力される期間の半分である。そして、制御回路14aは、ブランキング期間又はブランキング期間を中心とした期間にのみ、イメージセンサ12c〜12eそれぞれの複数の画素を受光させる制御を行う。例えば、制御回路14aは、このような制御をイメージセンサ制御回路12fに行わせるための制御信号をイメージセンサ制御回路12fに出力する。   In the present embodiment, the exposure period of the image sensors 12 c to 12 e is half of the period in which the image signal of one frame is output from the imaging device 10 to the display 101. Then, the control circuit 14a performs control to receive the plurality of pixels of each of the image sensors 12c to 12e only during a blanking period or a period centered on the blanking period. For example, the control circuit 14a outputs a control signal for causing the image sensor control circuit 12f to perform such control to the image sensor control circuit 12f.

ここで、制御回路14aは、読み出し期間以下の期間で、複数の画素を受光させる制御を行う。読み出し期間とは、例えば、イメージセンサ12c〜12eから1フレームの映像信号が出力される期間を指す。また、読み出し期間とは、例えば、1フレームにおける最初の行からの映像信号の出力を開始してから最後の行からの映像信号の出力を終了するまでの期間を指す。   Here, the control circuit 14a performs control to receive light of a plurality of pixels in a period equal to or less than the reading period. The readout period indicates, for example, a period in which a video signal of one frame is output from the image sensors 12 c to 12 e. Further, the reading period refers to, for example, a period from the start of the output of the video signal from the first row in one frame to the end of the output of the video signal from the last row.

なお、ブランキング期間とは、例えば、本実施形態では、n(nは、正の整数)フレーム目の撮像において、イメージセンサ12c〜12eの最後の行からの映像信号の出力を終了してから、(n+1)フレーム目の撮像において、イメージセンサ12c〜12eの最初の行からの映像信号の出力を開始するまでの期間に対応する期間を指す。   The blanking period is, for example, after the output of the video signal from the last row of the image sensors 12c to 12e is finished in the imaging of the n (n is a positive integer) frame in the present embodiment, for example. , And in the imaging of the (n + 1) th frame, the period corresponding to the period until the output of the video signal from the first row of the image sensors 12c to 12e is started.

本実施形態では、撮像装置10からディスプレイ101に出力される映像信号(画像)のフレームレートを、A[fps(frame per second)]とする。この場合、読み出し期間を、1/(M・A)[s]とすることが可能なイメージセンサを、撮像装置10のイメージセンサ12c〜12eとして用いる。すなわち、1/(M・k・A)[s]毎に、各行から映像信号を出力することが可能なイメージセンサをイメージセンサ12c〜12eとして用いる。ただし、「M」は、1よりも大きい数であり、「k」は、イメージセンサ12c〜12eそれぞれの画素の行数である。以下、M=2の場合を例に挙げて説明するが、Mは、2とは異なる数であって1よりも大きい数であってもよい。   In the present embodiment, the frame rate of the video signal (image) output from the imaging device 10 to the display 101 is A [fps (frame per second)]. In this case, an image sensor capable of setting the readout period to 1 / (M · A) [s] is used as the image sensors 12 c to 12 e of the imaging device 10. That is, an image sensor capable of outputting a video signal from each row is used as the image sensors 12 c to 12 e for each 1 / (M · k · A) [s]. However, “M” is a number larger than 1 and “k” is the number of rows of pixels of each of the image sensors 12 c to 12 e. Hereinafter, the case of M = 2 will be described as an example, but M may be a number different from 2 and a number larger than 1.

そして、制御回路14aは、露光期間1/A[s]よりも短い読み出し期間1/(2A)[s]で1フレームの映像信号をイメージセンサ12c〜12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。   Then, the control circuit 14a controls the image sensor 12c to 12e to output a control signal for outputting a video signal of one frame in the reading period 1 / (2A) [s] shorter than the exposure period 1 / A [s]. It outputs to the control circuit 12f.

以下、A=60の場合を例に挙げて説明する。つまり、露光期間と、撮像装置10からディスプレイ101に1フレームの映像信号が出力される期間とが同一の1/60[s]であり、読み出し期間が1/120[s]である場合について、以下、説明する。   In the following, the case of A = 60 will be described as an example. That is, in the case where the exposure period and the period in which the imaging device 10 outputs a video signal of one frame to the display 101 are the same 1/60 [s] and the readout period is 1/120 [s], This will be described below.

図3は、第1の実施形態に係る撮像装置10の撮像動作の一例を説明するための図である。図3には、第1の実施形態に係る光源装置30から出射される白色光及び励起光の出射タイミングと、撮像装置10のイメージセンサ12c〜12eが備える複数の画素の各行の露光タイミングと、イメージセンサ12c〜12eから出力される映像信号の出力タイミングと、出力回路14eから出力される映像信号の出力タイミングとの関係の一例が示されている。図3において、横軸は、時間を示す。   FIG. 3 is a diagram for explaining an example of the imaging operation of the imaging device 10 according to the first embodiment. In FIG. 3, emission timings of white light and excitation light emitted from the light source device 30 according to the first embodiment, and exposure timings of each row of a plurality of pixels included in the image sensors 12c to 12e of the imaging device 10; An example of the relationship between the output timing of the video signal output from the image sensors 12c to 12e and the output timing of the video signal output from the output circuit 14e is shown. In FIG. 3, the horizontal axis indicates time.

なお、図3において、図示を簡略化したため、nフレーム目の撮像においてイメージセンサ12c〜12eの最後の行からの映像信号の出力を終了した時間(タイミング)、及び、(n+1)フレーム目の撮像においてイメージセンサ12c〜12eの最初の行からの映像信号の出力を開始する時間の2つの異なる時間が、同一の「Tp(p=n+1)」で示されている。実際には、上述したように、nフレーム目の撮像において、イメージセンサ12c〜12eの最後の行からの映像信号の出力を終了してから、(n+1)フレーム目の撮像において、イメージセンサ12c〜12eの最初の行からの映像信号の出力を開始するまでの間の期間として、ブランキング期間が存在する。   In FIG. 3, since the illustration is simplified, the time (timing) when the output of the video signal from the last row of the image sensors 12c to 12e is finished in the imaging of the nth frame, and the imaging of the (n + 1) th frame Two different times of the time to start the output of the video signal from the first row of the image sensors 12c to 12e are indicated by the same "Tp (p = n + 1)". Actually, as described above, in the imaging of the n th frame, after the output of the video signal from the last row of the image sensors 12 c to 12 e is finished, in the imaging of the (n + 1) th frame, the image sensor 12 c A blanking period exists as a period until the output of the video signal from the first row of 12e is started.

図3において、(n)は、nフレーム目の撮像における露光タイミングを示す。ただし、nは、上述したように正の整数である。第1の実施形態では、白色LED30bから出射される白色光の反射の光量よりも、励起光の照射によって発生した蛍光の光量の方が小さい。例えば、白色光の反射の光量に比べて、蛍光の光量が無視できるくらい小さい。よって、白色光から得られるカラー画像に及ぼす励起光に基づく蛍光から得られる蛍光画像の影響は著しく小さいと考えられる。このため、第1の実施形態では、IRレーザ30dからは常時(連続的に)励起光が出射されている。したがって、イメージセンサ12eにより受光される蛍光の光量は、常時励起光がIRレーザ30dから出射されていない場合と比べて、大きくなる。このため、蛍光の受光感度を高くすることができ、光量不足による画像の明るさの低下を抑制することができる。   In FIG. 3, (n) shows the exposure timing in the imaging of the nth frame. However, n is a positive integer as described above. In the first embodiment, the light amount of the fluorescence generated by the irradiation of the excitation light is smaller than the light amount of the reflection of the white light emitted from the white LED 30b. For example, the amount of fluorescence is so small as to be negligible compared to the amount of reflection of white light. Therefore, it is considered that the influence of the fluorescence image obtained from the fluorescence based on the excitation light on the color image obtained from white light is extremely small. For this reason, in the first embodiment, excitation light is emitted constantly (continuously) from the IR laser 30d. Therefore, the light amount of the fluorescence light received by the image sensor 12e is larger than that in the case where the excitation light is not always emitted from the IR laser 30d. For this reason, the light reception sensitivity of fluorescence can be made high, and the fall of the brightness of the image by lack of light quantity can be suppressed.

図3において、nが奇数の場合には、IRnは、nフレーム目の撮像において、イメージセンサ12eから出力されるR信号を示す。すなわち、nが奇数の場合には、IRnは、励起光に基づく蛍光を受光したイメージセンサ12eから出力されるR信号を示す。   In FIG. 3, when n is an odd number, IRn indicates an R signal output from the image sensor 12e in the imaging of the nth frame. That is, when n is an odd number, IRn indicates an R signal output from the image sensor 12e that has received fluorescence based on excitation light.

図3において、nが偶数の場合には、Gnは、nフレーム目の撮像において、イメージセンサ12dから出力されるG信号を示す。また、nが偶数の場合には、Bnは、nフレーム目の撮像において、イメージセンサ12cから出力されるB信号を示す。また、nが偶数の場合には、「Rn+IRn」は、nフレーム目の撮像において、イメージセンサ12eから出力されるR信号を示す。すなわち、「Rn+IRn」は、nフレーム目の撮像において、白色光、及び、励起光に基づく蛍光を同時に受光したイメージセンサ12eから出力されるR信号を示す。また、「Wn+IRn」は、nフレーム目の撮像において、イメージセンサ12c〜12eから出力されるRGB信号を示す。すなわち、「Wn+IRn」は、GnとBnとRnとの合成信号である。   In FIG. 3, when n is an even number, Gn indicates a G signal output from the image sensor 12 d in the imaging of the nth frame. In addition, when n is an even number, Bn indicates a B signal output from the image sensor 12c in the imaging of the nth frame. Further, when n is an even number, “Rn + IRn” indicates an R signal output from the image sensor 12e in the imaging of the nth frame. That is, "Rn + IRn" indicates an R signal output from the image sensor 12e that simultaneously receives white light and fluorescence based on excitation light in imaging of the nth frame. “Wn + IRn” indicates RGB signals output from the image sensors 12 c to 12 e in the imaging of the nth frame. That is, “Wn + IRn” is a composite signal of Gn, Bn and Rn.

図3の例において、1フレーム目の撮像を開始する前または1フレーム目の撮像の開始とともに、制御回路14aは、第1の光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する。第1の光源制御信号は、IRレーザ30dから励起光を連続的に出射させるための制御信号である。   In the example of FIG. 3, the control circuit 14a sends a control signal for outputting the first light source control signal to the timing signal generation circuit 14f before starting imaging of the first frame or starting imaging of the first frame. Output. The first light source control signal is a control signal for continuously emitting excitation light from the IR laser 30d.

タイミング信号発生回路14fは、制御回路14aから出力された上述の制御信号に基づき、励起光を連続的に出射させるための第1の光源制御信号を駆動回路30cに出力する。駆動回路30cは、タイミング信号発生回路14fから出力された第1の光源制御信号に基づき、IRレーザ30dから励起光を連続的に出射させる。   The timing signal generation circuit 14f outputs a first light source control signal for continuously emitting excitation light to the drive circuit 30c based on the above-described control signal output from the control circuit 14a. The drive circuit 30c causes the IR laser 30d to continuously emit excitation light based on the first light source control signal output from the timing signal generation circuit 14f.

図3に示すように、1フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。1フレーム目の撮像では、励起光に基づく蛍光がイメージセンサ12eにより受光され、イメージセンサ12eは、時間T1から時間T2までの読み出し期間1/120[s]で、R信号(IR1)を出力する。すなわち、イメージセンサ12eは、1/(120k)[s]毎に、各行から映像信号を出力する。なお、時間T1は、1フレーム目において、最初の行からの映像信号の出力が開始する時間である。時間T2は、1フレーム目において、最後の行からの映像信号の出力が終了する時間である。   As shown in FIG. 3, in the imaging of the first frame, exposure is sequentially started for each row from the first row of the plurality of pixels to the last row. In imaging of the first frame, fluorescence based on excitation light is received by the image sensor 12e, and the image sensor 12e outputs an R signal (IR1) in a readout period 1/120 [s] from time T1 to time T2 . That is, the image sensor 12e outputs a video signal from each row every 1 / (120 k) [s]. The time T1 is a time at which the output of the video signal from the first row starts in the first frame. The time T2 is a time when the output of the video signal from the last row is finished in the first frame.

具体的な制御方法について説明すると、制御回路14aは、時間T1から読み出し期間1/120[s]で1フレーム目の映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T1から、1/(120k)[s]毎に各行から順々に映像信号を出力することをイメージセンサ12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。   A specific control method will be described. The control circuit 14a causes the image sensor control circuit 12f to output a control signal for causing the image sensor 12e to output a video signal of the first frame in a reading period 1/120 [s] from time T1. Output. That is, the control circuit 14a causes the image sensor control circuit 12f to start controlling the image sensor 12e to start outputting the video signal from each row sequentially every 1 / (120 k) [s] from time T1. Output.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12eを駆動制御する。この結果、イメージセンサ12eは、時間T1から時間T2までの読み出し期間1/120[s]で、全ての行(k行)から映像信号を出力する。   The image sensor control circuit 12 f drives and controls the image sensor 12 e based on the control signal. As a result, the image sensor 12e outputs video signals from all the rows (k rows) in a reading period 1/120 [s] from time T1 to time T2.

そして、記憶制御回路14bは、1フレーム目の撮像において、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、記憶制御回路14bは、時間T1から時間T2にかけて、最初の行から順々に最後の行まで、各行から出力された映像信号を記憶回路14gに記憶させる。このようにして1フレーム目の撮像において記憶された映像信号は、少なくとも、時間T5までは記憶回路14gに記憶される。   Then, the storage control circuit 14 b temporarily stores the video signal output from each row in the storage circuit 14 g each time the video signal output from each row of the image sensor 12 e is input in imaging of the first frame. . Here, from time T1 to time T2, the storage control circuit 14b causes the storage circuit 14g to store the video signal output from each row from the first row to the last row in order. Thus, the video signal stored in the imaging of the first frame is stored in the storage circuit 14g at least until time T5.

次に、図3に示すように、2フレーム目の撮像において、イメージセンサ12c〜12eそれぞれの複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。   Next, as shown in FIG. 3, in the imaging of the second frame, exposure is sequentially started for each row from the first row to the last row of the plurality of pixels of each of the image sensors 12c to 12e.

ここで、1フレーム目の撮像において、最後の行からの映像信号の出力が終了する時間T2から、2フレーム目の撮像において、最初の行からの映像信号の出力が開始する時間までの期間は、図3に示すように、ブランキング期間40に対応する。なお、ブランキング期間40は、露光期間等と比較して相対的に短い期間であるため、図3において一本の点線で示されているが、実際は、時間軸方向に一定の幅を有する期間である。   Here, in the imaging of the first frame, the period from the time T2 when the output of the video signal from the last row ends to the time when the output of the video signal from the first row starts in the imaging of the second frame is , Corresponds to the blanking period 40, as shown in FIG. The blanking period 40 is shown as a single dotted line in FIG. 3 because it is a relatively short period as compared to the exposure period etc. However, actually, a period having a fixed width in the time axis direction It is.

本実施形態では、図3に示すように、2フレーム目の撮像において、ブランキング期間40又はブランキング期間40を中心とした期間41にのみ、白色LED30bから白色光が出射される。例えば、ブランキング期間40を中心とした期間41にのみ白色光が出射される場合、2フレーム目の撮像において、イメージセンサ12c〜12eの複数の画素の全ての行のうち、最初の行側の少なくとも1つの行42、及び、最後の行側の少なくとも1つの行43には、期間41よりも短い時間しか白色光が照射されない。   In the present embodiment, as shown in FIG. 3, white light is emitted from the white LED 30 b only in the blanking period 40 or the period 41 centered on the blanking period 40 in imaging of the second frame. For example, when white light is emitted only in the period 41 centered on the blanking period 40, in the imaging of the second frame, the first row among all the plurality of pixels of the image sensors 12c to 12e. White light is emitted to the at least one row 42 and the at least one row 43 on the last row side only for a time shorter than the period 41.

なお、ブランキング期間40内で白色LED30bから白色光が出射されてもよい。この場合には、ブランキング期間40内なら、ブランキング期間40の中心を中心とした期間に限られず、どのようなタイミングでも白色光が出射されてもよい。また、期間41は、例えば、ブランキング期間40よりも長い期間であり、ブランキング期間40を含み、ブランキング期間40よりも前の期間と後ろの期間とを含む。ブランキング期間、ブランキング期間内の期間、及び、ブランキング期間を中心とした期間は、ブランキング期間を基準とした期間の一例である。   In the blanking period 40, white light may be emitted from the white LED 30b. In this case, within the blanking period 40, white light may be emitted at any timing without being limited to a period centered on the center of the blanking period 40. Also, the period 41 is, for example, a period longer than the blanking period 40, includes the blanking period 40, and includes a period before and a period after the blanking period 40. The blanking period, the period within the blanking period, and the period centered on the blanking period are examples of periods based on the blanking period.

一方、図3に示すように、全ての行のうち、行42及び行43を除いた1つ以上の行44では、白色光を受光する受光期間が、略一致する。すなわち、行44と、行42及び行43とでは、受光期間が異なる。このため、撮像装置10は、行42及び行43から出力される映像信号に基づいて得られる画像をマスクし、行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。これにより、ディスプレイ101には、明るさのムラが発生する可能性がある部分がマスクされた画像が表示される。したがって、画像の歪みの発生を抑制することができる。よって、第1の実施形態に係る撮像装置10によれば、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。   On the other hand, as shown in FIG. 3, in one or more rows 44 excluding the rows 42 and 43 among all the rows, the light receiving periods for receiving white light substantially coincide. That is, the light reception period is different between the row 44, the row 42 and the row 43. Therefore, the imaging device 10 masks the image obtained based on the video signals output from the rows 42 and 43, and sets the range of the image obtained based on the video signal output from the row 44 as the effective image range. Set As a result, the display 101 displays an image in which a portion in which unevenness in brightness may occur is masked. Therefore, the occurrence of image distortion can be suppressed. Therefore, according to the imaging device 10 according to the first embodiment, it is possible for the user such as a doctor who observes an image to ensure sufficient image quality for observation.

また、図3に示すように、3フレーム目の撮像において、複数の画素の全ての行のうち、最初の行側の少なくとも1つの行は、露光期間中に、励起光に基づく蛍光のみを受光するのではなく、白色光も受光している。また、1フレーム目の撮像において、複数の画素の全ての行のうち、最後の行側の少なくとも1つの行は、露光期間中に、励起光に基づく蛍光のみを受光するのではなく、白色光も受光している。よって、蛍光に加えて白色光も受光しているこれらの行から出力される映像信号からは、白色光の成分も含まれているため、蛍光成分のみからなる画質が良好な蛍光画像を生成することが困難である。   Further, as shown in FIG. 3, in the imaging of the third frame, at least one row on the first row side among all the rows of the plurality of pixels receives only the fluorescence based on the excitation light during the exposure period. Instead, they also receive white light. In addition, in the first frame imaging, at least one row on the last row side among all the rows of the plurality of pixels receives white light instead of receiving only fluorescence based on excitation light during the exposure period It also receives light. Therefore, since the image signal output from these rows that also receive white light in addition to fluorescence also includes the white light component, a fluorescent image having good image quality consisting only of the fluorescent component is generated. It is difficult.

したがって、第1の実施形態に係る撮像装置10は、1フレーム目の撮像及び3フレーム目の撮像においても同様に、行42及び行43から出力される映像信号に基づいて得られる画像をマスクし、行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。これにより、ディスプレイ101には、画質が良好でない可能性がある部分がマスクされた画像が表示される。したがって、第1の実施形態に係る撮像装置10によれば、この点からも、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。   Therefore, the imaging device 10 according to the first embodiment similarly masks the image obtained based on the video signal output from the row 42 and the row 43 also in the imaging of the first frame and the imaging of the third frame. The range of the image obtained based on the video signal output from the line 44 is set as the effective image range. As a result, the display 101 displays an image in which a portion that may not have good image quality is masked. Therefore, according to the imaging device 10 according to the first embodiment, it is possible to secure the image quality sufficient for the user such as the doctor who observes the image from this point as well.

ここで、期間41がブランキング期間を中心とした期間である理由の一例について説明する。仮に、期間41がブランキング期間を中心としていない期間である場合には、両端がマスクされる画像において、一端側のマスクされている領域の大きさと、他端側のマスクされている領域との大きさとが異なり、画像を観察するユーザに違和感を覚えさせてしまう虞がある。   Here, an example of the reason why the period 41 is a period centered on the blanking period will be described. If the period 41 is a period not centered on the blanking period, the size of the masked area at one end and the masked area at the other end in the image masked at both ends. The size is different, and there is a possibility that the user who observes the image may feel discomfort.

しかしながら、期間41がブランキング期間を中心とした期間であることで、一端側のマスクされている領域と、他端側のマスクされている領域との大きさが略一致し、ユーザに違和感を与えることを抑制することができる。   However, since the period 41 is a period centered on the blanking period, the sizes of the masked area on one end side and the masked area on the other end substantially match, which makes the user uncomfortable. It is possible to suppress giving.

そして、イメージセンサ12c〜12eは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)からの映像信号(RGB信号)を出力する。   Then, the image sensors 12c to 12e output video signals (RGB signals) from all the rows (k rows) in a reading period 1/120 [s] from time T2 to time T3.

具体的な制御方法について説明する。制御回路14aは、時間T2から読み出し期間1/120[s]で映像信号をイメージセンサ12c〜12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T2から1/(120k)[s]毎に各行からの映像信号を出力することをイメージセンサ12c〜12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。   A specific control method will be described. The control circuit 14a outputs a control signal for causing the image sensors 12c to 12e to output an image signal to the image sensor control circuit 12f in a reading period 1/120 [s] from time T2. That is, the control circuit 14a outputs, to the image sensor control circuit 12f, a control signal for causing the image sensors 12c to 12e to start outputting the video signal from each row every time 1 / (120 k) [s] from time T2. Do.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12c〜12eを駆動制御する。この結果、イメージセンサ12cは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)から映像信号(B信号)を出力する。また、イメージセンサ12dは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)から映像信号(G信号)を出力する。また、イメージセンサ12eは、時間T2から時間T3までの読み出し期間1/120[s]で、2フレーム目の撮像において、全ての行(k行)から映像信号(R信号(R2+IR2))を出力する。   The image sensor control circuit 12 f drives and controls the image sensors 12 c to 12 e based on the control signal. As a result, the image sensor 12c outputs the video signal (B signal) from all the rows (k rows) in the reading period 1/120 [s] from time T2 to time T3. Further, the image sensor 12d outputs video signals (G signals) from all the rows (k rows) in a reading period 1/120 [s] from time T2 to time T3. Further, the image sensor 12e outputs the video signal (R signal (R2 + IR2)) from all the rows (k rows) in the second frame imaging in the readout period 1/120 [s] from time T2 to time T3. Do.

そして、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12cの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。また、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12dの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。また、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、2フレーム目の撮像において、時間T2から時間T3にかけて、最初の行から順々に、最後の行まで、各行から出力された映像信号が記憶回路14gに記憶される。このようにして2フレーム目の撮像において記憶された映像信号は、少なくとも、時間T5までは記憶回路14gに記憶される。   Then, from time T2 to time T3, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12c is input. . Also, from time T2 to time T3, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12d is input. . Also, from time T2 to time T3, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12e is input. . Here, in the imaging of the second frame, from time T2 to time T3, the video signal output from each row is stored in the storage circuit 14g sequentially from the first row to the last row. Thus, the video signal stored in the imaging of the second frame is stored in the storage circuit 14g at least until time T5.

そして、図3に示すように、3フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。3フレーム目の撮像では、励起光に基づく蛍光がイメージセンサ12eにより受光され、イメージセンサ12eは、時間T3から時間T4までの読み出し期間1/120[s]で、R信号(IR3)を出力する。すなわち、イメージセンサ12eの各行は、1/(120k)[s]毎に映像信号を出力する。なお、時間T3は、3フレーム目の撮像において、最初の行からの映像信号の出力が開始する時間である。時間T4は、3フレーム目の撮像において、最後の行からの映像信号の出力が終了する時間である。   Then, as shown in FIG. 3, in the imaging of the third frame, exposure is sequentially started for each row from the first row of the plurality of pixels to the last row. In imaging of the third frame, fluorescence based on excitation light is received by the image sensor 12e, and the image sensor 12e outputs an R signal (IR3) in a readout period 1/120 [s] from time T3 to time T4. . That is, each row of the image sensor 12e outputs a video signal every 1 / (120 k) [s]. The time T3 is a time at which the output of the video signal from the first row starts in the imaging of the third frame. A time T4 is a time when the output of the video signal from the last row ends in imaging of the third frame.

具体的な制御方法について説明すると、制御回路14aは、時間T3から読み出し期間1/120[s]で映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T3から1/(120k)[s]毎に各行から映像信号を出力することをイメージセンサ12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。   A specific control method will be described. The control circuit 14a outputs, to the image sensor control circuit 12f, a control signal for causing the image sensor 12e to output a video signal in a reading period 1/120 [s] from time T3. That is, the control circuit 14a outputs, to the image sensor control circuit 12f, a control signal for causing the image sensor 12e to start outputting a video signal from each row every 1 / (120 k) [s] from time T3.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12eを駆動制御する。この結果、イメージセンサ12eは、時間T3から時間T4までの読み出し期間1/120[s]で、全ての行(k行)から映像信号を出力する。   The image sensor control circuit 12 f drives and controls the image sensor 12 e based on the control signal. As a result, the image sensor 12e outputs video signals from all the rows (k rows) in a readout period 1/120 [s] from time T3 to time T4.

そして、記憶制御回路14bは、3フレーム目の撮像において、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、3フレーム目の撮像において、時間T3から時間T4にかけて、最初の行から順々に最後の行まで、各行から出力された映像信号が記憶回路14gに記憶される。このようにして3フレーム目の撮像において記憶された映像信号は、少なくとも、時間T7までは記憶回路14gに記憶される。   Then, the storage control circuit 14 b temporarily stores the video signal output from each row in the storage circuit 14 g each time the video signal output from each row of the image sensor 12 e is input in imaging of the third frame. . Here, in the imaging of the third frame, from time T3 to time T4, the video signal output from each row is stored in the storage circuit 14g sequentially from the first row to the last row. Thus, the video signal stored in the imaging of the third frame is stored in the storage circuit 14g at least until time T7.

ここで、図3の「(W2+IR2)+(IR1+IR3)/2」が示す処理について説明する。時間T3の段階では、記憶回路14gには、1フレーム目の映像信号(IR1)と、2フレーム目の映像信号(W2+IR2)とが記憶されている。そして、時間T3からは、上述したように、3フレーム目の映像信号(IR3)が記憶回路14gに記憶されることが開始される。   Here, the process which "(W2 + IR2) + (IR1 + IR3) / 2" of FIG. 3 shows is demonstrated. At the stage of time T3, the memory circuit 14g stores the video signal (IR1) of the first frame and the video signal (W2 + IR2) of the second frame. Then, from time T3, as described above, the video signal (IR3) of the third frame is started to be stored in the storage circuit 14g.

そして、本実施形態では、撮像装置10は、1フレーム目の映像信号(IR1)と、2フレーム目の映像信号(W2+IR2)と、3フレーム目の映像信号(IR3)とを合成してディスプレイ101に出力する。   Then, in the present embodiment, the imaging device 10 combines the video signal (IR1) of the first frame, the video signal (W2 + IR2) of the second frame, and the video signal (IR3) of the third frame, and displays it. Output to

ここで、単純に、撮像装置10が、3フレーム目の撮像において、イメージセンサ12eの各行から映像信号(IR3)が出力される度に、各行から出力された映像信号(IR3)と、各行から出力された映像信号(IR1)と、イメージセンサ12c〜12eの各行から出力された映像信号(W2+IR2)とを合成して、合成画像をディスプレイ101に出力する場合について説明する。この場合、ディスプレイ101には、1/120[s]で、全ての行から出力された映像信号の合成画像が出力される。   Here, simply, each time the imaging device 10 outputs the video signal (IR3) from each row of the image sensor 12e in the imaging of the third frame, the video signal (IR3) output from each row and from each row A case will be described where the output video signal (IR1) and the video signal (W2 + IR2) output from each row of the image sensors 12c to 12e are combined and the combined image is output to the display 101. In this case, a composite image of the video signals output from all the rows is output to the display 101 at 1/120 [s].

すると、あるフレームの撮像において最後の行の映像信号がディスプレイ101に出力されてから、その次のフレームの撮像において最初の行の映像信号がディスプレイ101に出力されるまでの1/120[s]の間、ディスプレイ101に対して映像信号が出力されない期間が存在することとなる。映像信号が出力されない期間は、ディスプレイ101に表示される画像が更新されない期間でもある。このため、画像が更新される1/120[s]の期間と、画像が更新されない1/120[s]の期間とが交互に並ぶ。このような場合、画像の更新頻度が一定でないため、ディスプレイ101は、このような入力に対応できないことがある。   Then, after the video signal of the last row is output to the display 101 in the imaging of a certain frame, 1/120 [s] until the video signal of the first row is output to the display 101 in the imaging of the next frame. In the meantime, there is a period in which the video signal is not output to the display 101. The period in which the video signal is not output is also a period in which the image displayed on the display 101 is not updated. Therefore, a period of 1/120 [s] in which the image is updated and a period of 1/120 [s] in which the image is not updated are alternately arranged. In such a case, the display 101 may not be able to handle such an input because the image update frequency is not constant.

そこで、本実施形態では、画像の更新頻度が一定となるように、出力回路14eからディスプレイ101に出力される1フレームの映像信号のフレームレートを、60[fps]に設定している。すなわち、あるフレームの撮像において最後の行の映像信号が出力されてから、その次のフレームの撮像において最初の行の映像信号が出力されるまでの期間を短縮している。   Therefore, in the present embodiment, the frame rate of the video signal of one frame output from the output circuit 14e to the display 101 is set to 60 [fps] so that the image update frequency becomes constant. That is, the period from the output of the video signal of the last row in the imaging of a certain frame to the output of the video signal of the first row in the imaging of the next frame is shortened.

このため、記憶制御回路14bは、時間T3から、1/(60k)[s]毎に、1フレーム目の撮像において各行から出力された映像信号(IR1)、2フレーム目の撮像において各行から出力された映像信号(W2+IR2)、及び、3フレーム目の撮像において各行から出力された映像信号(IR3)を順々に記憶回路14gから読み出す。例えば、記憶制御回路14bは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)と映像信号(IR3)と、イメージセンサ12c〜12eのm番目の行から出力された映像信号(W2+IR2)とを読み出す。なお、mは、正の整数である。そして、記憶制御回路14bは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)と映像信号(IR3)と、イメージセンサ12c〜12eのm番目の行から出力された映像信号(W2+IR2)とを画像処理回路14cに出力する。   Therefore, the storage control circuit 14b outputs the video signal (IR1) output from each row in the imaging of the first frame every 1 / (60 k) [s] from time T3 and outputs from each row in the imaging of the second frame The read video signal (W2 + IR2) and the video signal (IR3) output from each row in the imaging of the third frame are sequentially read out from the storage circuit 14g. For example, the storage control circuit 14b outputs the video signal (IR1) and the video signal (IR3) output from the mth row of the image sensor 12e and the video signal (image signal (IR) output from the mth row Read W2 + IR2). Here, m is a positive integer. The storage control circuit 14b then outputs the video signal (IR1) and the video signal (IR3) output from the mth row of the image sensor 12e and the video signal (i.e., the video signal output from the mth row It outputs W2 + IR2) to the image processing circuit 14c.

そして、画像処理回路14cは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)及び映像信号(IR3)、並びに、イメージセンサ12c〜12eのm番目の行から出力された映像信号(W2+IR2)に対して各種の画像処理を施して、画像合成回路14dに出力する。   The image processing circuit 14c then outputs the video signal (IR1) and the video signal (IR3) output from the mth row of the image sensor 12e, and the video signal output from the mth row of the image sensors 12c to 12e. Various image processing is performed on (W2 + IR2), and the result is output to the image combining circuit 14d.

以下、画像処理回路14cにより施される各種の画像処理の一例について説明する。例えば、画像処理回路14cは、1フレーム目の撮像において、イメージセンサ12eのm番目の行から出力された映像信号(IR1)に対して、デジタルゲインをかける。画像処理回路14cは、デジタルゲイン及び上述したアナログゲインによって、イメージセンサ12eのm番目の行から出力された映像信号(IR1)を例えば30倍まで増幅させる。   Hereinafter, an example of various image processing performed by the image processing circuit 14c will be described. For example, the image processing circuit 14c applies digital gain to the video signal (IR1) output from the m-th row of the image sensor 12e in the imaging of the first frame. The image processing circuit 14c amplifies the video signal (IR1) output from the mth row of the image sensor 12e by, for example, 30 times by the digital gain and the above-described analog gain.

同様に、画像処理回路14cは、3フレーム目の撮像において、イメージセンサ12eのm番目の行から出力された映像信号(IR3)に対して、デジタルゲインをかける。画像処理回路14cは、デジタルゲイン及び上述したアナログゲインと合わせて、イメージセンサ12eのm番目の行から出力された映像信号(IR3)を例えば30倍まで増幅させる。   Similarly, the image processing circuit 14c applies digital gain to the video signal (IR3) output from the m-th row of the image sensor 12e in the imaging of the third frame. The image processing circuit 14c amplifies the video signal (IR3) output from the m-th row of the image sensor 12e to, for example, 30 times in combination with the digital gain and the above-described analog gain.

なお、画像処理回路14cは、2フレーム目の撮像において、イメージセンサ12c〜12eから出力されたm番目の映像信号(W2+IR2)については、デジタルゲイン及びアナログゲインをかけない。   Note that the image processing circuit 14c does not apply digital gain and analog gain to the m-th video signal (W2 + IR2) output from the image sensors 12c to 12e in the imaging of the second frame.

また、本実施形態に係る画像処理回路14cは、上述した行42及び行43から出力される映像信号に基づいて得られる画像をマスクする。また、画像処理回路14cは、上述した行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。   In addition, the image processing circuit 14 c according to the present embodiment masks an image obtained based on the video signal output from the above-described line 42 and line 43. Further, the image processing circuit 14 c sets the range of the image obtained based on the video signal output from the row 44 described above as the effective image range.

図4Aは、画像処理回路14cが実行する画像処理の一例を説明するための図である。図4Aの例に示すように、例えば、画像処理回路14cは、上述した行42及び行43から出力される映像信号(W2+IR2)に基づいて得られる画像を、黒色の画像51に置換し、上述した行44から出力される映像信号(W2+IR2)に基づいて得られる画像の範囲を有効画像範囲52として設定したカラー画像50を生成する。   FIG. 4A is a diagram for explaining an example of image processing performed by the image processing circuit 14 c. As shown in the example of FIG. 4A, for example, the image processing circuit 14c replaces the image obtained based on the video signal (W2 + IR2) output from the above-described row 42 and row 43 with the black image 51, and A color image 50 is generated in which the range of the image obtained based on the video signal (W2 + IR2) output from the row 44 is set as the effective image range 52.

図4Aの例に示すカラー画像50は、ブランキング期間を中心とし、ブランキング期間に1/1200[s]を加えた期間にのみイメージセンサ12c〜12eの複数の画素を受光させた場合のカラー画像の一例を示す。カラー画像50では、カラー画像50の全体の10%の領域がマスクされている。   The color image 50 illustrated in the example of FIG. 4A is a color when light is received from a plurality of pixels of the image sensors 12c to 12e only in a period in which 1/1200 [s] is added to the blanking period with the blanking period as the center. An example of an image is shown. In the color image 50, an area of 10% of the entire color image 50 is masked.

同様に、画像処理回路14cは、上述した行42及び行43から出力される映像信号(IR1)に基づいて得られる画像を、黒色の画像に置換し、上述した行44から出力される映像信号(IR1)に基づいて得られる画像の範囲を有効画像範囲として設定した蛍光画像を生成する。また、画像処理回路14cは、上述した行42及び行43から出力される映像信号(IR3)に基づいて得られる画像を、黒色の画像に置換し、上述した行44から出力される映像信号(IR3)に基づいて得られる画像の範囲を有効画像範囲として設定した蛍光画像を生成する。   Similarly, the image processing circuit 14c replaces the image obtained based on the video signal (IR1) output from the above-described rows 42 and 43 with a black image, and the video signal output from the above-described row 44 A fluorescence image is generated in which the range of the image obtained based on (IR1) is set as the effective image range. Further, the image processing circuit 14c replaces the image obtained based on the video signal (IR3) output from the above-described lines 42 and 43 with a black image, and outputs the video signal (from the above-described line 44) A fluorescence image is generated in which the range of the image obtained based on IR3) is set as the effective image range.

画像合成回路14dは、1フレーム目の撮像においてイメージセンサ12eの各行から出力された映像信号(IR1)と、3フレーム目の撮像においてイメージセンサ12eの各行から出力された映像信号(IR3)とを合成して合成画像を生成する。例えば、画像合成回路14dは、映像信号(IR1)と映像信号(IR3)とを合成して合成画像((IR1+IR3)/2)を生成する。   The image synthesis circuit 14d combines the video signal (IR1) output from each row of the image sensor 12e in the imaging of the first frame and the video signal (IR3) output from each row of the image sensor 12e in the imaging of the third frame. Synthesize to generate a composite image. For example, the image combining circuit 14d combines the video signal (IR1) and the video signal (IR3) to generate a combined image ((IR1 + IR3) / 2).

そして、画像合成回路14dは、例えば、合成画像((IR1+IR3)/2)のうち輝度が閾値以上の部分を抽出する。そして、画像合成回路14dは、抽出した部分と同一の位置及び範囲を有するマーカであって、所定の色(例えば、高彩度の緑色)が付与されたマーカを生成する。そして、画像合成回路14dは、2フレーム目の撮像において、各行から出力された映像信号(W2+IR2)に、生成したマーカを重畳して、合成画像(W2+IR2+(IR1+IR3)/2)を生成する。そして、画像合成回路14dは、生成した合成画像(W2+IR2+(IR1+IR3)/2)を出力回路14eに出力する。画像合成回路14dは、カラー画像、及び、カラー画像の前後に生成された複数(2つ)の蛍光画像を用いて、合成画像を生成する。   Then, the image synthesis circuit 14d extracts, for example, a portion where the luminance is equal to or higher than the threshold value in the synthesized image ((IR1 + IR3) / 2). Then, the image combining circuit 14d generates a marker having the same position and range as the extracted part and to which a predetermined color (for example, high saturation green color) is added. Then, in the imaging of the second frame, the image combining circuit 14 d superimposes the generated marker on the video signal (W2 + IR2) output from each row to generate a combined image (W2 + IR2 + (IR1 + IR3) / 2). Then, the image combining circuit 14d outputs the generated combined image (W2 + IR2 + (IR1 + IR3) / 2) to the output circuit 14e. The image combining circuit 14d generates a combined image using the color image and a plurality of (two) fluorescence images generated before and after the color image.

例えば、被検体100の体内を画像化したカラー画像の色合いは、全体的に赤みがかった色合いである。そのため、例えば、マーカに赤い色を付与しても、マーカが目立たない。そのため、赤色に対して補色である緑色をマーカに付与して、マーカを目立つようにする。   For example, the color tone of a color image obtained by imaging the inside of the subject 100 is a reddish tint as a whole. Therefore, for example, even if the marker is given a red color, the marker is not noticeable. Therefore, the marker is made to stand out by providing the marker with green which is complementary to red.

なお、画像合成回路14dは、マーカではなく、蛍光により得られる蛍光画像から輪郭成分を抽出し、抽出した輪郭成分をカラー画像に重畳して合成画像を生成してもよい。   The image combining circuit 14 d may extract a contour component from a fluorescence image obtained by fluorescence instead of a marker, and may superimpose the extracted contour component on a color image to generate a composite image.

このような処理を、画像合成回路14dは、全ての行から出力された映像信号に対して行う。すなわち、画像合成回路14dは、時間T3から時間T5までの期間1/60[s]で、全ての行から出力された映像信号の合成画像を出力回路14eに出力する。これにより、図3の「W2+IR2+(IR1+IR3)/2」によって示されるように、出力回路14eは、時間T3から時間T5までの期間1/60[s]で、全ての行の映像信号の合成画像をディスプレイ101に出力する。このため、ディスプレイ101に表示された合成画像は、1/60[s]毎に更新される。   The image synthesis circuit 14d performs such processing on the video signals output from all the rows. That is, the image combining circuit 14d outputs the combined image of the video signals output from all the rows to the output circuit 14e in a period 1/60 [s] from time T3 to time T5. Thus, as indicated by “W2 + IR2 + (IR1 + IR3) / 2” in FIG. 3, the output circuit 14e generates a composite image of video signals of all the rows in a period 1/60 [s] from time T3 to time T5. Are output to the display 101. For this reason, the composite image displayed on the display 101 is updated every 1/60 [s].

4フレーム目以降についても、1フレーム目の撮像、2フレーム目の撮像及び3フレーム目の撮像において説明した撮像動作と同様の撮像動作が繰り返し行われる。したがって、制御回路14aは、励起光を光源装置30から連続的に出射させるとともに、励起光と種類が異なる白色光を、ブランキング期間40又は期間41と同期するように、光源装置30から2フレームに1回の割合で出射させる。画像処理回路14cは、励起光に基づく蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号に基づいて蛍光画像を生成する。なお、蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号は、第1の電気信号の一例である。また、蛍光画像は、第1の画像の一例である。   The imaging operation similar to the imaging operation described in the imaging of the first frame, the imaging of the second frame, and the imaging of the third frame is repeatedly performed for the fourth and subsequent frames. Therefore, the control circuit 14 a continuously emits excitation light from the light source device 30 and generates two frames from the light source device 30 so as to synchronize white light different in type from the excitation light with the blanking period 40 or the period 41. To emit at a rate of once. The image processing circuit 14c generates a fluorescence image based on video signals generated in a plurality of pixels of the image sensor 12e by receiving fluorescence based on excitation light. In addition, the video signal generated at the plurality of pixels of the image sensor 12e by the light reception of the fluorescence is an example of the first electric signal. In addition, the fluorescence image is an example of the first image.

また、画像処理回路14cは、蛍光および白色光の同時受光によりイメージセンサ12c〜12eの複数の画素で発生した映像信号に基づいてカラー画像を生成する。なお、蛍光および白色光の同時受光によりイメージセンサ12c〜12eの複数の画素で発生した映像信号は、第2の電気信号の一例である。また、カラー画像は、第2の画像の一例である。   Further, the image processing circuit 14 c generates a color image based on video signals generated in a plurality of pixels of the image sensors 12 c to 12 e by simultaneous reception of fluorescence and white light. In addition, the video signal which generate | occur | produced in the several pixel of image sensor 12c-12e by simultaneous light reception of fluorescence and white light is an example of a 2nd electrical signal. Also, a color image is an example of a second image.

画像合成回路14dは、蛍光画像とカラー画像を用いて、合成画像を生成する。例えば、画像処理回路14c及び画像合成回路14dは、画像生成部の一例である。   The image combining circuit 14d generates a combined image using the fluorescence image and the color image. For example, the image processing circuit 14c and the image synthesis circuit 14d are an example of an image generation unit.

図4Bは、合成画像の一例を示す図である。図4Bの例には、明るさのムラが生じる可能性がある部分がマスクされたカラー画像50に、マーカ53が重畳された合成画像の一例が示されている。したがって、ユーザは、例えば、注目すべき箇所であるマーカ53を容易に観察することができる。また、ユーザは、人間が実際に認識できるような内容のカラー画像であるカラー画像50を観察しつつ、マーカ53の情報を得ることができる。   FIG. 4B is a diagram showing an example of a composite image. In the example of FIG. 4B, an example of a composite image in which the marker 53 is superimposed on a color image 50 in which a portion where unevenness in brightness may occur is masked is shown. Therefore, the user can easily observe, for example, the marker 53 which is the place to be noted. In addition, the user can obtain information of the marker 53 while observing the color image 50 which is a color image of content that can be actually recognized by a human.

また、カラー画像50において、露光タイミングは一致している。このため、第1の実施形態に係る撮像装置10によれば、画像の歪みの発生を抑制することができる。したがって、第1の実施形態に係る撮像装置10によれば、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。   Further, in the color image 50, the exposure timings coincide. For this reason, according to the imaging device 10 according to the first embodiment, it is possible to suppress the occurrence of image distortion. Therefore, according to the imaging device 10 according to the first embodiment, it is possible for the user such as a doctor who observes an image to ensure sufficient image quality for observation.

図4Bに示すように、画像処理回路14cは、最初の行と最後の行に対応する合成画像の端部を少なくとも除く有効画像範囲52を合成画像に設定する。また、画像処理回路14c及び画像合成回路14dは、有効画像範囲52以外の範囲が黒色の画像(他の画像)51に置き換えられた合成画像を生成する。   As shown in FIG. 4B, the image processing circuit 14c sets the effective image range 52 excluding at least the end of the composite image corresponding to the first row and the last row as the composite image. Further, the image processing circuit 14 c and the image combining circuit 14 d generate a combined image in which the range other than the effective image range 52 is replaced with the black image (another image) 51.

ここで、合成画像において、撮像対象が所定の方向に移動している場合について説明する。更に、カラー画像(W2+IR2)に対して、蛍光画像(IR1)から得られるマーカを重畳させて、合成画像(W2+IR2+IR1)を生成した場合について説明する。この場合、撮像対象が移動しているため、カラー画像(W2+IR2)に描出された撮像対象の重心位置に対して、マーカの重心位置が時間的に遅れた位置となる。   Here, the case where the imaging target is moving in a predetermined direction in the composite image will be described. Further, the case where a composite image (W2 + IR2 + IR1) is generated by superimposing a marker obtained from the fluorescence image (IR1) on a color image (W2 + IR2) will be described. In this case, since the imaging target is moving, the position of the center of gravity of the marker is temporally delayed with respect to the position of the center of gravity of the imaging target depicted in the color image (W2 + IR2).

次に、カラー画像(W2+IR2)に対して、蛍光画像(IR3)から得られるマーカを重畳させて、合成画像(W2+IR2+IR3)を生成した場合について説明する。この場合、撮像対象が移動しているため、カラー画像(W2+IR2)に描出された撮像対象の重心位置に対して、マーカの重心位置が時間的に進んだ位置となる。   Next, a case where a composite image (W2 + IR2 + IR3) is generated by superimposing a marker obtained from the fluorescence image (IR3) on a color image (W2 + IR2) will be described. In this case, since the imaging target is moving, the position of the center of gravity of the marker temporally advances with respect to the position of the center of gravity of the imaging target depicted in the color image (W2 + IR2).

ここで、本実施形態では、カラー画像(W2+IR2)に対して、蛍光画像(IR1)と蛍光画像(IR3)の合成画像((IR1+IR3)/2)から得られるマーカを重畳させて、合成画像(W2+IR2+(IR1+IR3)/2)を生成している。本実施形態によれば、撮像対象が移動していても、カラー画像(W2+IR2)の撮像タイミングから、略同一な時間だけ前後する撮像タイミングで撮像された蛍光画像(IR1)と蛍光画像(IR3)の合成画像((IR1+IR3)/2)から得られるマーカをカラー画像(W2+IR2)に重畳している。このため、カラー画像(W2+IR2)の重心位置と合成画像((IR1+IR3)/2)の重心位置との差は、比較的小さい。したがって、合成画像(W2+IR2+(IR1+IR3)/2)に描出される撮像対象の重心位置に対するマーカの重心位置のずれを抑制することができる。よって、第1の実施形態によれば、動きに対して合成画像(W2+IR2+(IR1+IR3)/2)からユーザに与える違和感を抑制することができる。   Here, in the present embodiment, a marker obtained from a composite image ((IR1 + IR3) / 2) of the fluorescence image (IR1) and the fluorescence image (IR3) is superimposed on the color image (W2 + IR2) to form a composite image (the image). W2 + IR2 + (IR1 + IR3) / 2) is generated. According to the present embodiment, even if the imaging target is moving, the fluorescence image (IR1) and the fluorescence image (IR3) captured at the imaging timing which is approximately the same time before and after the imaging timing of the color image (W2 + IR2) The marker obtained from the composite image ((IR1 + IR3) / 2) of is superimposed on the color image (W2 + IR2). For this reason, the difference between the gravity center position of the color image (W2 + IR2) and the gravity center position of the composite image ((IR1 + IR3) / 2) is relatively small. Therefore, it is possible to suppress the deviation of the position of the center of gravity of the marker with respect to the position of the center of gravity of the imaging target depicted in the composite image (W2 + IR2 + (IR1 + IR3) / 2). Therefore, according to the first embodiment, it is possible to suppress an uncomfortable feeling given to the user from the composite image (W2 + IR2 + (IR1 + IR3) / 2) with respect to the movement.

次に、第1の実施形態に係る制御回路14aにより実行される制御処理について説明する。図5は、第1の実施形態に係る制御処理の流れを示すフローチャートである。かかる制御処理は、図示しないマウスやキーボード等のユーザからの指示を受け付ける入力装置により、被検体100の体内の撮像を開始する指示がCCU14に入力された場合に、制御回路14aにより実行される。   Next, control processing executed by the control circuit 14a according to the first embodiment will be described. FIG. 5 is a flowchart showing the flow of control processing according to the first embodiment. The control process is executed by the control circuit 14a when an instruction to start imaging in the body of the subject 100 is input to the CCU 14 by an input device that receives an instruction from the user such as a mouse or a keyboard (not shown).

図5に示すように、制御回路14aは、変数Nに「1」を設定する(ステップS101)。そして、制御回路14aは、IRレーザ30dから励起光を連続的に出射させるための光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する(ステップS102)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS103)。   As shown in FIG. 5, the control circuit 14a sets "1" to the variable N (step S101). Then, the control circuit 14a outputs, to the timing signal generation circuit 14f, a control signal for outputting a light source control signal for continuously emitting excitation light from the IR laser 30d (step S102). Then, the control circuit 14a outputs a control signal for starting exposure of the Nth frame by the rolling shutter method to the image sensor control circuit 12f in order to start imaging of the Nth frame (step S103).

そして、制御回路14aは、Nフレーム目の撮像においてイメージセンサ12eの複数の画素の最初の行の映像信号の出力が開始する時間から、読み出し期間1/120[s]で映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する(ステップS104)。なお、ステップS104において、記憶制御回路14bは、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。   Then, the control circuit 14a starts the image sensor 12e in the readout period 1/120 [s] from the time when the output of the video signal of the first row of the plurality of pixels of the image sensor 12e starts in imaging the Nth frame. Control signal for causing the image sensor control circuit 12f to output the control signal (step S104). In step S104, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensor 12e is input.

そして、制御回路14aは、変数Nの値を1つインクリメントする(ステップS105)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS106)。   Then, the control circuit 14a increments the value of the variable N by one (step S105). Then, the control circuit 14a outputs a control signal for starting exposure of the Nth frame by the rolling shutter method to the image sensor control circuit 12f in order to start imaging of the Nth frame (step S106).

制御回路14aは、現在の時間が、ブランキング期間又はブランキング期間を中心とした期間であるか否かを判定する(ステップS107)。現在の時間が、ブランキング期間又はブランキング期間を中心とした期間でない場合(ステップS107;No)には、制御回路14aは、再び、ステップS107の判定を行う。   The control circuit 14a determines whether the current time is a blanking period or a period centered on the blanking period (step S107). If the current time is not a blanking period or a period centered on the blanking period (step S107; No), the control circuit 14a performs the determination of step S107 again.

一方、現在の時間が、ブランキング期間又はブランキング期間を中心とした期間である場合(ステップS107;Yes)には、制御回路14aは、次の処理を行う。すなわち、制御回路14aは、ブランキング期間又はブランキング期間を中心とした期間にのみ、白色LED30bから白色光を出射させる光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する(ステップS108)。   On the other hand, when the current time is a period centered on the blanking period or the blanking period (step S107; Yes), the control circuit 14a performs the following processing. That is, the control circuit 14a outputs a control signal for outputting a light source control signal for causing the white LED 30b to emit white light only to the blanking period or a period centered on the blanking period to the timing signal generating circuit 14f ( Step S108).

そして、制御回路14aは、最初の行からの映像信号の出力が開始する時間から、読み出し期間1/120[s]で映像信号をイメージセンサ12c〜12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する(ステップS109)。なお、ステップS109において、記憶制御回路14bは、イメージセンサ12c〜12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。   Then, the control circuit 14a controls the image sensor to control the control signal for outputting the video signal to the image sensors 12c to 12e in the reading period 1/120 [s] from the time when the output of the video signal from the first row starts. It outputs to the circuit 12f (step S109). In step S109, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensors 12c to 12e is input.

そして、制御回路14aは、変数Nの値を1つインクリメントする(ステップS110)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS111)。なお、ステップS111において、記憶制御回路14bは、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。   Then, the control circuit 14a increments the value of the variable N by one (step S110). Then, the control circuit 14a outputs a control signal for starting exposure of the Nth frame by the rolling shutter method to the image sensor control circuit 12f in order to start imaging of the Nth frame (step S111). In step S111, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensor 12e is input.

そして、ステップS112では、画像処理回路14cは、1フレーム目の撮像において各行から出力された映像信号(IR1)、2フレーム目の撮像において各行から出力された映像信号(W2+IR2)、及び、3フレーム目の撮像において各行から出力された映像信号(IR3)に対して各種の画像処理を施す。そして、ステップS112では、画像合成回路14dは、映像信号(IR1)、映像信号(W2+IR2)及び映像信号(IR3)の合成画像(W2+IR2+(IR1+IR3)/2)を出力回路14eに出力する。   Then, in step S112, the image processing circuit 14c outputs the video signal (IR1) output from each row in the first frame imaging, the video signal (W2 + IR2) output from each row in the second frame imaging, and three frames Various image processing is performed on the video signal (IR3) output from each row in imaging of the eye. Then, in step S112, the image combining circuit 14d outputs the combined image (W2 + IR2 + (IR1 + IR3) / 2) of the video signal (IR1), the video signal (W2 + IR2) and the video signal (IR3) to the output circuit 14e.

そして、制御回路14aは、制御処理を終了する指示を、入力装置を介して受け付けたか否かを判定する(ステップS113)。制御処理を終了する指示を受け付けていない場合(ステップS113;No)には、制御回路14aは、変数Nの値を1つインクリメントして(ステップS114)、ステップS102に戻る。一方、制御処理を終了する指示を受け付けた場合(ステップS113;Yes)には、制御回路14aは、制御処理を終了する。   Then, the control circuit 14a determines whether an instruction to end the control processing has been received through the input device (step S113). When the instruction to end the control process is not received (step S113; No), the control circuit 14a increments the value of the variable N by one (step S114), and returns to step S102. On the other hand, when an instruction to end the control processing is received (step S113; Yes), the control circuit 14a ends the control processing.

以上、第1の実施形態に係る撮像装置10について説明した。第1の実施形態に係る撮像装置10によれば、上述したように、ユーザが観察するのに十分な画質を確保することができる。   The imaging device 10 according to the first embodiment has been described above. According to the imaging device 10 according to the first embodiment, as described above, it is possible to secure an image quality sufficient for the user to observe.

また、例えば、上記特許文献1に記載の技術において、波長の異なる2つの光(白色光、及び、IR励起光)を交互に出射し、撮像素子が120[fps]で映像信号を出力し、露光期間を1/60[s]とした場合について説明する。この場合には、白色光画像は、30[fps]でモニタに出力される。   Also, for example, in the technology described in Patent Document 1 above, two light beams (white light and IR excitation light) having different wavelengths are alternately emitted, and the imaging device outputs a video signal at 120 fps. The case where the exposure period is set to 1/60 [s] will be described. In this case, the white light image is output to the monitor at 30 fps.

一方、第1の実施形態では、例えば、イメージセンサ12cが120[fps]で映像信号を出力し、露光期間が1/60[s]である場合に、白色光に基づくカラー画像は、60[fps]でディスプレイ101に出力される。したがって、第1の実施形態に係る撮像装置によれば、フレームレートの低下を抑制することができる。したがって、ユーザが観察するのに十分なフレームレートを確保することができる。   On the other hand, in the first embodiment, for example, when the image sensor 12c outputs a video signal at 120 fps and the exposure period is 1/60 [s], the color image based on white light is 60 [60]. is output to the display 101 at fps]. Therefore, according to the imaging device according to the first embodiment, it is possible to suppress a decrease in frame rate. Therefore, a frame rate sufficient for the user to observe can be secured.

(第1の実施形態の変形例)
次に、第1の実施形態の変形例について説明する。第1の実施形態において、カラー画像(W2+IR2)には、白色光及び蛍光の同時受光によりイメージセンサ12c〜12eから出力された映像信号に基づく画像である。このため、カラー画像(W2+IR2)は、白色光に基づくカラー画像と、蛍光に基づく蛍光画像との合成画像である。このように、カラー画像(W2+IR2)には、蛍光画像が含まれている。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the first embodiment, the color image (W2 + IR2) is an image based on video signals output from the image sensors 12c to 12e by simultaneous reception of white light and fluorescence. For this reason, the color image (W2 + IR2) is a composite image of a color image based on white light and a fluorescence image based on fluorescence. Thus, the color image (W2 + IR2) contains a fluorescence image.

第1の実施形態では、白色光の反射の光量に比べて、蛍光の光量が無視できるくらい小さいことが前提であるが、第1の実施形態の変形例では、白色光の反射の光量に比べて、蛍光の光量が無視できないくらいの大きさである場合について説明する。この場合には、蛍光画像が赤みがかかった色合いであるため、カラー画像(W2+IR2)も赤みがかかったような色合いとなる。   In the first embodiment, it is premised that the light amount of fluorescence is negligibly small compared to the light amount of reflection of white light, but in the modification of the first embodiment, the light amount of reflection of white light is compared The case where the light quantity of the fluorescence is so large that it can not be ignored will be described. In this case, since the fluorescence image is a reddish tint, the color image (W2 + IR2) also has a reddish tint.

そこで、第1の実施形態の変形例では、画像処理回路14cは、カラー画像(W2+IR2)から、蛍光画像(IR1)と蛍光画像(IR3)との合成画像((IR1+IR3)/2)を減算することで、略白色光のみに基づくカラー画像を生成する。すなわち、画像処理回路14cは、カラー画像(W2+IR2)の前後に生成された複数の蛍光画像(IR1)及び蛍光画像(IR3)を用いて、蛍光の成分が低減されるようにカラー画像(W2+IR2)を補正する。したがって、第1の実施形態の変形例によれば、カラー画像(W2+IR2)から蛍光成分を抑制する補正を行うことができる。なお、蛍光の成分は、第1の光による成分の一例である。   Therefore, in the modification of the first embodiment, the image processing circuit 14c subtracts the composite image ((IR1 + IR3) / 2) of the fluorescence image (IR1) and the fluorescence image (IR3) from the color image (W2 + IR2). Thus, a color image based on substantially white light is generated. That is, the image processing circuit 14c uses the plurality of fluorescence images (IR1) and fluorescence images (IR3) generated before and after the color image (W2 + IR2) to reduce the color component of fluorescence (W2 + IR2). Correct the Therefore, according to the modification of the first embodiment, it is possible to perform correction to suppress the fluorescence component from the color image (W2 + IR2). In addition, the component of fluorescence is an example of the component by 1st light.

(第2の実施形態)
次に、第2の実施形態に係る撮像装置について説明する。第2の実施形態において、第1の実施形態と同様の構成については、同一の符号を付して説明を省略する場合がある。第2の実施形態に係る撮像装置は、画像の明るさが、目標の明るさとなるように、白色LED30bが発する白色光を制御する点以外は、第1の実施形態に係る撮像装置10の動作と同様の動作を行う。また、第2の実施形態に係る撮像装置及び撮像システムの構成は、第1の実施形態と同様である。
Second Embodiment
Next, an imaging device according to the second embodiment will be described. In the second embodiment, the same components as those in the first embodiment may be assigned the same reference numerals and descriptions thereof may be omitted. The imaging device according to the second embodiment operates the imaging device 10 according to the first embodiment except that the white light emitted by the white LED 30b is controlled such that the brightness of the image becomes the target brightness. Do the same as The configurations of the imaging device and the imaging system according to the second embodiment are similar to those of the first embodiment.

例えば、ローリングシャッタ方式のイメージセンサ12c〜12eでは、あるフレームの撮像中に、複数の画素の全ての行で、それまで蓄積していた電荷を全て排出し(リセットし)、電荷を排出後、露光を再び行って電荷を再蓄積するシャッタ機能がある。このようなシャッタ機能が動作すると、上述した行44で受光期間が同一にならない場合がある。この場合には、画像に明るさのムラが発生することがある。   For example, in the rolling shutter type image sensors 12c to 12e, during imaging of a certain frame, all the charges accumulated up to that point are discharged (reset) in all the rows of a plurality of pixels, and the charges are discharged. There is a shutter function that performs exposure again to re-accumulate the charge. When such a shutter function operates, the light reception periods may not be the same in the row 44 described above. In this case, unevenness in brightness may occur in the image.

そこで、第2の実施形態に係る撮像装置は、シャッタ機能が動作しないように、画像の明るさが、閾値以下の目標の明るさとなるように、白色LED30bが発する白色光を制御する。   Therefore, the imaging device according to the second embodiment controls the white light emitted by the white LED 30b so that the brightness of the image becomes the target brightness less than the threshold value so that the shutter function does not operate.

ここで、画像の明るさの算出方法の一例について説明する。第2の実施形態では、制御回路14aは、フレームごとに、以下の処理を実行する。例えば、制御回路14aは、各種の画像処理が施された結果得られたカラー画像の画像データを画像処理回路14cから取得する。そして、制御回路14aは、画像データが示すカラー画像を構成する各画素のRの輝度、Gの輝度及びBの輝度の中から最も高い輝度を画素毎に選択する。なお、例えば、画像を構成する各画素は、イメージセンサ12c〜12eの各画素に対応する。そして、制御回路14aは、画素毎に選択した輝度の合計を算出する。そして、制御回路14aは、算出した輝度の合計を、画像を構成する画素の数(画素数)で除して、1つの画素あたりの輝度の平均値を算出する。そして、制御回路14aは、算出した輝度の平均値を画像の明るさとして扱う。   Here, an example of a method of calculating the brightness of the image will be described. In the second embodiment, the control circuit 14a executes the following processing for each frame. For example, the control circuit 14a acquires, from the image processing circuit 14c, image data of a color image obtained as a result of being subjected to various types of image processing. Then, the control circuit 14a selects, for each pixel, the highest luminance from among the luminance of R, the luminance of G, and the luminance of B which constitute the color image indicated by the image data. For example, each pixel which constitutes a picture corresponds to each pixel of image sensors 12c-12e. Then, the control circuit 14a calculates the sum of the luminances selected for each pixel. Then, the control circuit 14a divides the total of the calculated luminances by the number of pixels (number of pixels) forming the image to calculate an average value of luminance per pixel. Then, the control circuit 14a treats the calculated average value of the brightness as the brightness of the image.

そして、制御回路14aは、画像の明るさと、目標の明るさとを比較する。なお、目標の明るさは、例えば、ユーザにより指定される輝度の値である。また、目標の明るさは、所定の明るさの一例である。制御回路14aは、目標の明るさよりも、画像の明るさの方が大きければ、被検体100に照射される白色光の光量を小さくするために、画像の明るさと目標の明るさとの差分に応じて、ハイレベルの期間の長さを短くした光源制御信号をタイミング信号発生回路14fに出力させる。例えば、制御回路14aは、画像の明るさと目標の明るさとの差分が大きくなるほど、ハイレベルの期間の長さを短くした光源制御信号をタイミング信号発生回路14fに出力させる。具体例を挙げて説明すると、制御回路14aは、画像の明るさと目標の明るさとの差分に応じて、ハイレベルの期間の長さを計算して、計算の結果得られたハイレベルの期間の長さをタイミング信号発生回路14fに出力する。これにより、タイミング信号発生回路14fは、ハイレベルの期間の長さを短くした光源制御信号を駆動回路30aに出力する。   Then, the control circuit 14a compares the brightness of the image with the brightness of the target. The target brightness is, for example, a value of brightness designated by the user. Further, the target brightness is an example of a predetermined brightness. If the brightness of the image is larger than the brightness of the target, the control circuit 14a responds to the difference between the brightness of the image and the brightness of the target in order to reduce the amount of white light emitted to the subject 100. Then, the light source control signal whose length of the high level period is shortened is output to the timing signal generation circuit 14 f. For example, as the difference between the brightness of the image and the target brightness increases, the control circuit 14a causes the timing signal generation circuit 14f to output a light source control signal in which the length of the high level period is shortened. Describing the specific example, the control circuit 14a calculates the length of the high level period according to the difference between the brightness of the image and the brightness of the target, and the high level period obtained as a result of the calculation. The length is output to the timing signal generation circuit 14f. Thus, the timing signal generation circuit 14f outputs a light source control signal whose length of the high level period is shortened to the drive circuit 30a.

また、画像の明るさよりも目標の明るさのほうが大きければ、制御回路14aは、画像の明るさと目標の明るさとの差分に応じて、読み出し期間以下の範囲で、ハイレベルの期間の長さを長くした光源制御信号をタイミング信号発生回路14fに出力させる。   If the target brightness is larger than the image brightness, the control circuit 14a sets the length of the high level period within the readout period or less according to the difference between the image brightness and the target brightness. The light source control signal thus lengthened is output to the timing signal generation circuit 14 f.

すなわち、制御回路14a及びタイミング信号発生回路14fは、画像の明るさが目標の明るさとなるように、ハイレベルの期間の長さを変更することにより、複数の画素により受光される白色光を制御する。具体的には、制御回路14a及びタイミング信号発生回路14fは、画像の明るさが目標の明るさとなるように、受光期間を制御する。制御回路14a及びタイミング信号発生回路14fは、受光期間を制御することにより、被検体100に照射される白色光の光量を制御する。制御回路14a及びタイミング信号発生回路14fは、受光期間を制御することにより、カラー画像の明るさを制御する。   That is, the control circuit 14a and the timing signal generation circuit 14f control the white light received by the plurality of pixels by changing the length of the high level period so that the brightness of the image becomes the target brightness. Do. Specifically, the control circuit 14a and the timing signal generation circuit 14f control the light reception period so that the brightness of the image becomes the target brightness. The control circuit 14a and the timing signal generation circuit 14f control the light reception period to control the amount of white light emitted to the subject 100. The control circuit 14a and the timing signal generation circuit 14f control the light reception period to control the brightness of the color image.

(第3の実施形態)
次に、第3の実施形態に係る撮像装置について説明する。第3の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
Third Embodiment
Next, an imaging device according to a third embodiment will be described. In the description of the third embodiment, the same components as those in the above-described embodiments and the above-described modification may be given the same reference numerals and descriptions thereof may be omitted.

第3の実施形態に係る撮像装置は、白色光及び励起光(蛍光)の光量が十分である場合や、白色光と励起光との混在を抑制する場合に用いられる。   The imaging device according to the third embodiment is used when the light amounts of white light and excitation light (fluorescence) are sufficient or when mixing of white light and excitation light is suppressed.

図6は、第3の実施形態に係る撮像装置の動作の一例を説明するための図である。図6には、第3の実施形態に係る光源装置30から出射される白色光及び励起光の出射タイミングと、撮像装置10のイメージセンサ12c〜12eが備える複数の画素の各行の露光タイミングと、イメージセンサ12c〜12eから出力される映像信号の出力タイミングと、出力回路14eから出力される映像信号の出力タイミングとの関係の一例が示されている。図6において、横軸は、時間を示す。   FIG. 6 is a diagram for explaining an example of the operation of the imaging device according to the third embodiment. In FIG. 6, emission timings of white light and excitation light emitted from the light source device 30 according to the third embodiment, and exposure timings of each row of a plurality of pixels included in the image sensors 12c to 12e of the imaging device 10; An example of the relationship between the output timing of the video signal output from the image sensors 12c to 12e and the output timing of the video signal output from the output circuit 14e is shown. In FIG. 6, the horizontal axis indicates time.

図6に示す第3の実施形態に係る撮像装置の動作が、図3に示す第1の実施形態に係る撮像装置10の動作と異なる点について説明する。第1の実施形態では、制御回路14aが、連続的に励起光を出射させていた場合について説明した。しかしながら、第3の実施形態では、制御回路14aは、複数の画素が受光する光の種類を、1フレーム毎に切り替える。具体的には、制御回路14aは、1フレームごとに、交互に、光源装置30から出射させる光を、白色光又は励起光に切り替える。これにより、制御回路14aは、複数の画素に受光させる光を、1フレームごとに、交互に、白色光又は蛍光に切り替える。   The operation of the imaging apparatus according to the third embodiment shown in FIG. 6 is different from the operation of the imaging apparatus 10 according to the first embodiment shown in FIG. In the first embodiment, the case where the control circuit 14a continuously emits the excitation light has been described. However, in the third embodiment, the control circuit 14a switches the type of light received by the plurality of pixels for each frame. Specifically, the control circuit 14 a switches the light emitted from the light source device 30 to white light or excitation light alternately for each frame. Thereby, the control circuit 14 a switches the light to be received by the plurality of pixels alternately to white light or fluorescence for each frame.

第3の実施形態では、制御回路14aは、種類が異なる励起光と白色光を、ブランキング期間又はブランキング期間を中心とした期間と同期するように、光源装置30から交互に出射させる。画像処理回路14cは、励起光に基づく蛍光の受光により複数の画素で発生した映像信号に基づいて蛍光画像を生成し、白色光の受光により複数の画素で発生した映像信号に基づいてカラー画像を生成する。画像合成回路14dは、蛍光画像とカラー画像を用いて、合成画像を生成する。なお、励起光に基づく蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号は、第1の電気信号の一例である。白色光の受光によりイメージセンサ12c〜12eの複数の画素で発生した映像信号は、第2の電気信号の一例である。   In the third embodiment, the control circuit 14 a causes the light source device 30 to alternately emit excitation light and white light of different types in synchronization with a blanking period or a period centered on the blanking period. The image processing circuit 14c generates a fluorescence image based on video signals generated in a plurality of pixels by receiving fluorescence based on excitation light, and a color image based on video signals generated in a plurality of pixels by receiving white light. Generate The image combining circuit 14d generates a combined image using the fluorescence image and the color image. In addition, the video signal generated at the plurality of pixels of the image sensor 12e by the reception of the fluorescence based on the excitation light is an example of the first electric signal. The video signals generated at the plurality of pixels of the image sensors 12c to 12e by the reception of the white light are an example of the second electrical signal.

第3の実施形態に係る撮像装置は、第1の実施形態と同様に、観察するのに十分な画質を確保することができる。   The imaging apparatus according to the third embodiment can ensure sufficient image quality for observation, as in the first embodiment.

また、例えば、上記特許文献1に記載の技術において、波長の異なる2つの光(白色光、及び、IR励起光)を交互に出射し、撮像素子が120[fps]で映像信号を出力し、露光期間を1/60[s]とした場合について説明する。この場合には、白色光画像及び蛍光観察画像それぞれは、30[fps]でモニタに出力される。   Also, for example, in the technology described in Patent Document 1 above, two light beams (white light and IR excitation light) having different wavelengths are alternately emitted, and the imaging device outputs a video signal at 120 fps. The case where the exposure period is set to 1/60 [s] will be described. In this case, each of the white light image and the fluorescence observation image is output to the monitor at 30 [fps].

一方、第3の実施形態では、例えば、波長の異なる2つの光(白色光、及び、励起光)を交互に出射し、イメージセンサ12c〜12eが120[fps]で映像信号を出力し、露光期間が1/60[s]である場合に、白色光に基づくカラー画像、及び、蛍光に基づく蛍光画像の合成画像は、60[fps]でディスプレイ101に出力される。したがって、第3の実施形態に係る撮像装置によれば、フレームレートの低下を抑制することができる。   On the other hand, in the third embodiment, for example, two light beams (white light and excitation light) having different wavelengths are alternately emitted, and the image sensors 12c to 12e output video signals at 120 fps to perform exposure. When the period is 1/60 [s], a composite image of a white light-based color image and a fluorescence-based fluorescence image is output to the display 101 at 60 [fps]. Therefore, according to the imaging device of the third embodiment, it is possible to suppress a decrease in frame rate.

(第4の実施形態)
次に、第4の実施形態に係る撮像装置について説明する。第4の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
Fourth Embodiment
Next, an imaging device according to a fourth embodiment will be described. In the description of the fourth embodiment, the same components as those of the above-described embodiments and the above-described modification may be denoted by the same reference numerals and description thereof may be omitted.

第1の実施形態では、例えば、ブランキング期間を中心とし、ブランキング期間に1/1200[s]を加えた期間にのみ、イメージセンサ12c〜12eの複数の画素に受光させる場合について説明した。この場合、マスクされる領域は、全画面の領域のおよそ10%となる。   In the first embodiment, for example, a case has been described in which a plurality of pixels of the image sensors 12c to 12e receive light only in a period in which 1/1200 [s] is added to the blanking period with the blanking period as the center. In this case, the area to be masked is approximately 10% of the area of the entire screen.

図7は、第4の実施形態に係る画像の一例を説明するための図である。しかしながら、光量を確保するために、イメージセンサ12c〜12eの複数の画素の受光期間を伸ばして、例えば、図7の例に示すように、全画面の領域のおよそ50%をマスクされる領域としてもよい。この場合には、画像処理回路14cは、有効画像範囲52が拡大された画像(拡大画像)50aを生成してもよい。図7の例に示すように、拡大されたことで、ユーザは、マーカ53aを、より容易に観察することができる。   FIG. 7 is a view for explaining an example of an image according to the fourth embodiment. However, in order to secure the light intensity, the light reception periods of the plurality of pixels of the image sensors 12c to 12e are extended, for example, about 50% of the entire screen area is masked as shown in the example of FIG. It is also good. In this case, the image processing circuit 14c may generate an image (enlarged image) 50a in which the effective image range 52 is expanded. As shown in the example of FIG. 7, the user can observe the marker 53 a more easily by enlarging.

(第5の実施形態)
次に、第5の実施形態に係る撮像装置について説明する。第5の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
Fifth Embodiment
Next, an imaging device according to the fifth embodiment will be described. In the description of the fifth embodiment, the same components as those in the above-described embodiments and the above-described modification may be denoted by the same reference numerals and description thereof may be omitted.

第5の実施形態に係る撮像装置の制御回路14aは、第1の実施形態〜第4の実施形態のうちの1つの実施形態に係る制御処理を実行するモード(第1のモード)と、白色LED30b又はIRレーザ30dのみを駆動させて白色光に基づくカラー画像又は励起光に基づく蛍光画像の撮像を実行するモード(第2のモード)とを、ユーザの指示に応じて切り替える。   The control circuit 14a of the imaging device according to the fifth embodiment has a mode (first mode) for executing control processing according to one of the first to fourth embodiments, and white. A mode (second mode) in which only the LED 30 b or the IR laser 30 d is driven to perform imaging of a color image based on white light or a fluorescence image based on excitation light is switched according to a user's instruction.

例えば、第2のモードでは、露光期間が、第1〜第4の実施形態に係る露光期間1/120[s]の2倍の期間である1/60となる。そして、第2のモードでは、制御回路14aは、イメージセンサ12c〜12eの複数の画素に、蛍光又は白色光を受光させ、蛍光画像又はカラー画像を所定のフレームレート1/60[s]でディスプレイ101に出力させる。   For example, in the second mode, the exposure period is 1/60, which is a double period of the exposure period 1/120 [s] according to the first to fourth embodiments. In the second mode, the control circuit 14a causes the plurality of pixels of the image sensors 12c to 12e to receive fluorescence or white light, and displays a fluorescence image or a color image at a predetermined frame rate 1/60 [s]. Make it output to 101.

図8は、第5の実施形態に係る撮像装置が行うモード切替の一例を説明するための図である。図8の例に示すように、例えば、医師等のユーザが、第2のモードでカラー画像60を観察している最中に、精査したい箇所がある場合には、入力装置(図示せず)を介して第1のモードに切り替える指示を入力する。制御回路14aは、入力されたユーザの指示に応じて、第1のモードに切り替えて、カラー画像50にマーカ53が重畳された合成画像をディスプレイ101に表示させる。   FIG. 8 is a diagram for explaining an example of mode switching performed by the imaging device according to the fifth embodiment. As shown in the example of FIG. 8, for example, when a user such as a doctor or the like observes the color image 60 in the second mode, if there is a portion to be scrutinized, an input device (not shown) Input an instruction to switch to the first mode. The control circuit 14 a switches to the first mode in accordance with the input user's instruction, and causes the display 101 to display a composite image in which the marker 53 is superimposed on the color image 50.

第5の実施形態では、モードが切り替わった場合であっても、撮像装置からディスプレイ101に出力されるフレームレートは変わらない。したがって、第5の実施形態に係る撮像装置によれば、モードの切り替え時にユーザに与える違和感を抑制することができる。   In the fifth embodiment, the frame rate output from the imaging apparatus to the display 101 does not change even when the mode is switched. Therefore, according to the imaging device according to the fifth embodiment, it is possible to suppress a sense of discomfort given to the user when switching the mode.

(第6の実施形態)
次に、第6の実施形態に係る撮像装置について説明する。上述した第1の実施形態〜第4の実施形態及び第1の実施形態の変形例では、制御回路14aが、ブランキング期間を基準とした期間として、ブランキング期間、ブランキング期間内の期間、又は、ブランキング期間を中心とした期間にのみ、複数の画素を受光させる場合について説明した。しかしながら、制御回路14aは、ブランキング期間を基準とした期間として、ブランキング期間を中心とした期間の一部の期間のみ、複数の画素を受光させてもよい。そこで、このような実施形態を第6の実施形態として説明する。
Sixth Embodiment
Next, an imaging device according to a sixth embodiment will be described. In the first to fourth embodiments and the modification of the first embodiment described above, the control circuit 14a sets a blanking period, a period within the blanking period, as a period based on the blanking period, Alternatively, the case has been described in which the plurality of pixels are received only during a period centered on the blanking period. However, as a period based on the blanking period, the control circuit 14a may cause a plurality of pixels to receive light only during a part of the period centered on the blanking period. Thus, such an embodiment will be described as a sixth embodiment.

図9は、第6の実施形態に係る撮像装置の動作の一例を説明するための図である。図9において横軸は、時間を示す。例えば、まず、第1の実施形態と同様に、制御回路14aが、励起光を光源装置30から連続的に出射させるとともに、白色光を、ブランキング期間40を基準とした期間と同期するように、光源装置30から2フレームに1回の割合で出射させる場合について説明する。   FIG. 9 is a diagram for explaining an example of the operation of the imaging device according to the sixth embodiment. The horizontal axis in FIG. 9 indicates time. For example, first, similarly to the first embodiment, the control circuit 14a causes excitation light to be continuously emitted from the light source device 30, and synchronizes white light with a period based on the blanking period 40. The case where light is emitted from the light source device 30 once in two frames will be described.

この場合、図9に示すように、制御回路14aは、白色光を、2フレームに1回の割合でブランキング期間40を中心とした期間41の一部の期間41aのみ、光源装置30から出射させる。これにより、複数の画素は、期間41の一部の期間41aのみ受光される。ここで、期間41aは、ブランキング期間40よりも時系列において前の期間である。   In this case, as shown in FIG. 9, the control circuit 14a emits white light from the light source device 30 only during a part of the period 41a of the period 41 centered on the blanking period 40 at a rate of once every two frames. Let Thereby, the plurality of pixels are received only during a part of the period 41 a of the period 41. Here, the period 41 a is a period before the blanking period 40 in time series.

次に、第3の実施形態と同様に、制御回路14aが、種類が異なる励起光と白色光を、ブランキング期間40を基準とした期間と同期するように、光源装置30から交互に出射させる場合について説明する。   Next, as in the third embodiment, the control circuit 14 a causes the light source device 30 to alternately emit excitation light and white light of different types in synchronization with a period based on the blanking period 40. The case will be described.

この場合においても、図9に示すように、制御回路14aは、励起光と白色光を、期間41aのみ、光源装置30から交互に出射させる。これによっても、複数の画素は、期間41の一部の期間41aのみ受光される。   Also in this case, as shown in FIG. 9, the control circuit 14a alternately emits the excitation light and the white light from the light source device 30 only during the period 41a. Also in this case, the plurality of pixels are received only during part of the period 41 a.

第6の実施形態によれば、ディスプレイ101に表示される合成画像の一端側のマスクされている領域の大きさと、他端側のマスクされている領域との大きさとが異なるものの、他の実施形態と同様に、画像を観察する医師等のユーザにとって、観察するのに十分なフレームレート及び画質を確保することができる。   According to the sixth embodiment, although the size of the masked area on one end side of the composite image displayed on the display 101 is different from the size of the masked area on the other end side, the other embodiments are different. Similar to the form, for a user such as a doctor who observes an image, a frame rate and image quality sufficient for observation can be secured.

以上、各実施形態について説明した。なお、各実施形態において、撮像装置10が、白色光の反射光をイメージセンサ12c〜12eを受光させて、各種の処理を行う場合について説明した。しかしながら、撮像装置10は、白色光によりICGが励起されてICGから出射された蛍光(白色光に基づく蛍光)をイメージセンサ12eに受光させて、同様の処理を行ってもよい。   Each embodiment has been described above. In each embodiment, the case where the imaging device 10 receives the reflected light of white light and receives the image sensors 12 c to 12 e and performs various processes has been described. However, the imaging device 10 may perform similar processing by causing the image sensor 12 e to receive fluorescence (fluorescence based on white light) emitted from the ICG after the ICG is excited by white light.

以上述べた少なくとも1つの実施形態又は変形例に係る撮像装置によれば、ユーザが観察するのに十分なフレームレートを確保することができる。   According to the imaging device according to at least one embodiment or modification described above, it is possible to secure a frame rate sufficient for the user to observe.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   While certain embodiments of the present invention have been described, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.

1 撮像システム
10 撮像装置
12c,12d,12e イメージセンサ
14a 制御回路
14c 画像処理回路
14d 画像合成回路
1 imaging system 10 imaging device 12c, 12d, 12e image sensor 14a control circuit 14c image processing circuit 14d image combining circuit

Claims (16)

行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、
前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間を基準とした期間にのみ、前記複数の画素を受光させる制御部と、
前記電気信号に基づいて、画像を生成する画像生成部と、
を備えた撮像装置。
It includes a plurality of pixels arranged in a matrix to generate an electric signal by light reception, and exposure starts sequentially at least every other row from the first row to the last row of the plurality of pixels, and the exposure ends A rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the left row, for each frame;
After the output of the electrical signal from the last row is ended, the plurality of the plurality of periods are only based on a blanking period corresponding to a period from when the output of the electrical signal from the first row is started. A control unit that receives the pixels of
An image generation unit that generates an image based on the electrical signal;
An imaging device provided with
前記ブランキング期間を基準とした期間は、前記ブランキング期間、前記ブランキング期間内の期間、前記ブランキング期間を中心とした期間、又は、前記ブランキング期間を中心とした期間の一部の期間である、請求項1に記載の撮像装置。   The period based on the blanking period is the blanking period, a period within the blanking period, a period centered on the blanking period, or a partial period of a period centered on the blanking period. The imaging device according to claim 1, wherein 前記制御部は、1フレームにおける前記最初の行からの前記電気信号の出力を開始してから前記最後の行からの前記電気信号の出力を終了するまでの期間以下の期間で、前記複数の画素を受光させる、請求項1又は2に記載の撮像装置。   The control unit performs the plurality of pixels in a period equal to or less than a period from when output of the electrical signal from the first row in one frame starts to when output of the electrical signal from the last row ends. The imaging device according to claim 1, wherein the light is received. 前記画像生成部は、前記最初の行と前記最後の行に対応する前記画像の端部を少なくとも除く有効画像範囲を前記画像に設定する、請求項1〜3のいずれか1つに記載の撮像装置。   The imaging according to any one of claims 1 to 3, wherein the image generation unit sets an effective image range excluding at least an end of the image corresponding to the first row and the last row to the image. apparatus. 前記画像生成部は、前記有効画像範囲以外の範囲が他の画像に置き換えられた前記画像を生成する、
請求項4に記載の撮像装置。
The image generation unit generates the image in which a range other than the effective image range is replaced with another image.
The imaging device according to claim 4.
前記画像生成部は、前記有効画像範囲が拡大された前記画像を生成する、
請求項4又は5に記載の撮像装置。
The image generation unit generates the image in which the effective image range is expanded,
The imaging device according to claim 4 or 5.
前記制御部は、第1の光を光源装置から連続的に出射させるとともに、前記第1の光と種類が異なる第2の光を、前記ブランキング期間を基準とした期間と同期するように、前記光源装置から2フレームに1回の割合で出射させ、
前記画像生成部は、前記第1の光の反射光又は前記第1の光によって発生した蛍光の受光により前記複数の画素で発生した第1の電気信号に基づいて第1の画像を生成し、前記第1の光の反射光又は前記蛍光と、前記第2の光の反射光又は前記第2の光によって発生した蛍光との同時受光により前記複数の画素で発生した第2の電気信号に基づいて第2の画像を生成し、前記第1の画像と前記第2の画像を用いて、前記画像を生成する、
請求項1〜6のいずれか1つに記載の撮像装置。
The control unit causes the light source device to continuously emit the first light and synchronizes the second light whose type is different from the first light with a period based on the blanking period. The light source device emits light at a rate of once every two frames,
The image generation unit generates a first image based on first electric signals generated in the plurality of pixels by receiving the reflected light of the first light or fluorescence generated by the first light, Based on second electric signals generated in the plurality of pixels by simultaneous reception of the reflected light of the first light or the fluorescence and the reflected light of the second light or the fluorescence generated by the second light Generating a second image, and using the first image and the second image to generate the image.
The imaging device according to any one of claims 1 to 6.
前記制御部は、種類が異なる第1の光と第2の光を、前記ブランキング期間を基準とした期間と同期するように、光源装置から交互に出射させ、
前記画像生成部は、前記第1の光の反射光又は前記第1の光によって発生した蛍光の受光により前記複数の画素で発生した第1の電気信号に基づいて第1の画像を生成し、前記第2の光の反射光又は前記第2の光によって発生した蛍光の受光により前記複数の画素で発生した第2の電気信号に基づいて第2の画像を生成し、前記第1の画像と前記第2の画像を用いて、前記画像を生成する、
請求項1〜6のいずれか1つに記載の撮像装置。
The control unit causes the light source device to alternately emit first light and second light of different types so as to be synchronized with a period based on the blanking period.
The image generation unit generates a first image based on first electric signals generated in the plurality of pixels by receiving the reflected light of the first light or fluorescence generated by the first light, A second image is generated based on second electric signals generated in the plurality of pixels by reception of the reflected light of the second light or fluorescence generated by the second light; Generating the image using the second image;
The imaging device according to any one of claims 1 to 6.
前記画像生成部は、前記第2の画像、及び、前記第2の画像の前後に生成された複数の前記第1の画像を用いて、前記画像を生成する、
請求項7又は8に記載の撮像装置。
The image generation unit generates the image using the second image and a plurality of the first images generated before and after the second image.
The imaging device according to claim 7.
前記画像生成部は、前記第2の画像の前後に生成された複数の前記第1の画像を用いて、前記第1の光による成分が低減されるように前記第2の画像を補正する、
請求項7に記載の撮像装置。
The image generation unit corrects the second image such that a component of the first light is reduced by using a plurality of the first images generated before and after the second image.
The imaging device according to claim 7.
前記複数の画素の撮像領域に対向するように配置され、前記光源装置から前記第1の光として出射された励起光以外の光を前記複数の画素に受光させる光学素子を更に備える、
請求項7〜10のいずれか1つに記載の撮像装置。
The optical device is further provided with an optical element disposed to face the imaging region of the plurality of pixels, and causing the plurality of pixels to receive light other than the excitation light emitted from the light source device as the first light.
The imaging device according to any one of claims 7 to 10.
前記制御部は、前記画素の受光期間を制御することにより、前記画像の明るさを制御する、
請求項1〜11のいずれか1つに記載の撮像装置。
The control unit controls the brightness of the image by controlling a light reception period of the pixel.
The imaging device according to any one of claims 1 to 11.
前記制御部は、指示に応じて、前記複数の画素の所定の露光期間中に、前記ブランキング期間を基準とした期間にのみ前記複数の画素を受光させて、前記画像を所定のフレームレートで出力させる第1のモードと、前記所定の露光期間の2倍の露光期間中に、前記複数の画素に、前記第1の光の反射光、前記第1の光によって発生した蛍光、前記第2の光の反射光及び前記第2の光によって発生した蛍光のうちの1つの光を受光させ、当該1つの光に基づく画像を前記所定のフレームレートで出力せる第2のモードとを切り替える、
請求項7〜11のいずれか1つに記載の撮像装置。
The control unit causes the plurality of pixels to receive light only during a predetermined exposure period of the plurality of pixels in response to an instruction, and the image at a predetermined frame rate. Reflected light of the first light, fluorescence generated by the first light, in the plurality of pixels during a first mode of outputting and an exposure period twice as long as the predetermined exposure period; And one of the fluorescence generated by the second light is received, and switching is made between a second mode in which an image based on the one light is output at the predetermined frame rate.
The imaging device according to any one of claims 7 to 11.
複数の前記イメージセンサを備え、
前記複数のイメージセンサのそれぞれは、対応する種類の光を受光することにより電気信号を出力する、
請求項1〜13のいずれか1つに記載の撮像装置。
Comprising a plurality of said image sensors,
Each of the plurality of image sensors outputs an electrical signal by receiving light of a corresponding type,
The imaging device according to any one of claims 1 to 13.
前記画像生成部は、前記第1の画像と前記第2の画像とを合成した前記画像を生成する、
請求項7〜11のいずれか1つに記載の撮像装置。
The image generation unit generates the image obtained by combining the first image and the second image.
The imaging device according to any one of claims 7 to 11.
行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサを備えた撮像装置を制御するための制御プログラムであって、
前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間を基準とした期間にのみ、前記複数の画素を受光させ、
前記電気信号に基づいて、画像を生成させる、
制御プログラム。
It includes a plurality of pixels arranged in a matrix to generate an electric signal by light reception, and exposure starts sequentially at least every other row from the first row to the last row of the plurality of pixels, and the exposure ends It is a control program for controlling an imaging device provided with a rolling shutter type image sensor, which repeats the process of outputting the electric signal in order from a row to a row, for each frame,
After the output of the electrical signal from the last row is ended, the plurality of the plurality of periods are only based on a blanking period corresponding to a period from when the output of the electrical signal from the first row is started. Receive the pixels of
Generating an image based on the electrical signal,
Control program.
JP2018077557A 2017-04-14 2018-04-13 IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE Active JP7116580B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/952,916 US10638077B2 (en) 2017-04-14 2018-04-13 Imaging device and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017080974 2017-04-14
JP2017080974 2017-04-14

Publications (2)

Publication Number Publication Date
JP2018175871A true JP2018175871A (en) 2018-11-15
JP7116580B2 JP7116580B2 (en) 2022-08-10

Family

ID=64281752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077557A Active JP7116580B2 (en) 2017-04-14 2018-04-13 IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP7116580B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137614A (en) * 2019-02-27 2020-09-03 Hoya株式会社 Electronic endoscopy system
US10958852B2 (en) 2018-10-19 2021-03-23 Canon Kabushiki Kaisha Imaging apparatus and control method having a plurality of synchronized light source devices
CN114026845A (en) * 2019-06-20 2022-02-08 西拉格国际有限公司 Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11789283B2 (en) 2019-08-22 2023-10-17 Canon Kabushiki Kaisha Imaging apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224209A (en) * 1995-02-23 1996-09-03 Olympus Optical Co Ltd Fluorescence observing device
JPH09154812A (en) * 1995-12-06 1997-06-17 Matsushita Electric Ind Co Ltd Optical diagnostic device
JP2006115963A (en) * 2004-10-20 2006-05-11 Fujinon Corp Electronic endoscope apparatus
JP2009022579A (en) * 2007-07-20 2009-02-05 Olympus Corp Electronic endoscope
WO2012176561A1 (en) * 2011-06-21 2012-12-27 オリンパスメディカルシステムズ株式会社 Medical device
JP2015037565A (en) * 2014-09-12 2015-02-26 富士フイルム株式会社 Endoscope system and driving method thereof
JP2015119762A (en) * 2013-12-20 2015-07-02 富士フイルム株式会社 Imaging system and endoscope apparatus
WO2015114906A1 (en) * 2014-01-29 2015-08-06 オリンパス株式会社 Imaging system and imaging device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224209A (en) * 1995-02-23 1996-09-03 Olympus Optical Co Ltd Fluorescence observing device
JPH09154812A (en) * 1995-12-06 1997-06-17 Matsushita Electric Ind Co Ltd Optical diagnostic device
JP2006115963A (en) * 2004-10-20 2006-05-11 Fujinon Corp Electronic endoscope apparatus
JP2009022579A (en) * 2007-07-20 2009-02-05 Olympus Corp Electronic endoscope
WO2012176561A1 (en) * 2011-06-21 2012-12-27 オリンパスメディカルシステムズ株式会社 Medical device
JP2015119762A (en) * 2013-12-20 2015-07-02 富士フイルム株式会社 Imaging system and endoscope apparatus
WO2015114906A1 (en) * 2014-01-29 2015-08-06 オリンパス株式会社 Imaging system and imaging device
JP2015037565A (en) * 2014-09-12 2015-02-26 富士フイルム株式会社 Endoscope system and driving method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10958852B2 (en) 2018-10-19 2021-03-23 Canon Kabushiki Kaisha Imaging apparatus and control method having a plurality of synchronized light source devices
JP2020137614A (en) * 2019-02-27 2020-09-03 Hoya株式会社 Electronic endoscopy system
JP7610343B2 (en) 2019-02-27 2025-01-08 Hoya株式会社 Electronic Endoscope System
CN114026845A (en) * 2019-06-20 2022-02-08 西拉格国际有限公司 Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11789283B2 (en) 2019-08-22 2023-10-17 Canon Kabushiki Kaisha Imaging apparatus

Also Published As

Publication number Publication date
JP7116580B2 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
JP7265823B2 (en) Imaging device and program
JP6956805B2 (en) Endoscope system, control method of endoscope system
JP2018182580A (en) Imaging device and control program for imaging device
US20200337540A1 (en) Endoscope system
US9513221B2 (en) Fluorescence observation apparatus
US10901199B2 (en) Endoscope system having variable focal length lens that switches between two or more values
US20210052149A1 (en) Imaging apparatus
JP6355527B2 (en) Endoscope system and operating method thereof
JP2018175871A (en) Imaging device and control program for imaging device
JP7374600B2 (en) Medical image processing device and medical observation system
JP6355531B2 (en) Endoscope light source device, endoscope system and operating method thereof
JP7551465B2 (en) Medical image processing device and medical observation system
US10638077B2 (en) Imaging device and control method
US11789283B2 (en) Imaging apparatus
JP7224963B2 (en) Medical controller and medical observation system
CN106714657B (en) camera system
JP7281308B2 (en) Medical image processing device and medical observation system
JP7402637B2 (en) Imaging device, its control method and program
JP2021003347A (en) Medical image processing device and medical observation system
US10918269B2 (en) Medical light source apparatus and medical observation system
WO2019130834A1 (en) Image processing device and image processing method
JP2010279457A (en) Electronic endoscope, electronic endoscopic system, and color adjusting method
JP6386889B2 (en) Endoscope light source device, endoscope system and operating method thereof
WO2023090044A1 (en) Processor for electronic endoscope and electronic endoscopic system
JP6312254B2 (en) Endoscope system and operating method thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191001

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R151 Written notification of patent or utility model registration

Ref document number: 7116580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151