[go: up one dir, main page]

JP2015191362A - Image data generation apparatus and image data generation method - Google Patents

Image data generation apparatus and image data generation method Download PDF

Info

Publication number
JP2015191362A
JP2015191362A JP2014067032A JP2014067032A JP2015191362A JP 2015191362 A JP2015191362 A JP 2015191362A JP 2014067032 A JP2014067032 A JP 2014067032A JP 2014067032 A JP2014067032 A JP 2014067032A JP 2015191362 A JP2015191362 A JP 2015191362A
Authority
JP
Japan
Prior art keywords
image data
viewpoint
scattered light
scattered
data generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014067032A
Other languages
Japanese (ja)
Inventor
村上 友近
Tomochika Murakami
友近 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014067032A priority Critical patent/JP2015191362A/en
Publication of JP2015191362A publication Critical patent/JP2015191362A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new technology of generating image data suitable for observation or diagnosis of a subject, by means of image processing, from original image data obtained by capturing the subject.SOLUTION: Image data generation apparatus includes: feature image data generation means which generates feature image data corresponding to image data which is formed by extracting or enhancing a difference between multiple pieces of point-of-view image data different in line-of-sight direction with respect to a subject, by use of original image data obtained by capturing the subject; and correction means which performs correction processing for reducing luminance on pixels corresponding to a low-luminance area in the original image data at least, of the pixels in the feature image data, to generate correction image data.

Description

本発明は、被写体を撮影して得られた画像データから観察や診断に適した画像データを生成する画像データ生成装置および画像データ生成方法に関する。   The present invention relates to an image data generation apparatus and an image data generation method for generating image data suitable for observation and diagnosis from image data obtained by photographing a subject.

病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料を撮像しデジタル化してディスプレイ上での病理診断を可能とするバーチャル・スライド・システムがある。バーチャル・スライド・システムによる病理診断画像のデジタル化により、従来の被検試料の光学顕微鏡像をデジタルデータとして取り扱える。それによって、遠隔診断の迅速化、デジタル画像データを使った患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られる。
またデジタルデータに対しては様々な画像処理が可能で、バーチャル・スライド・システムで撮影した画像データに対し、病理医の診断を支援する種々の診断支援機能が提案されている。
In the field of pathology, as an alternative to an optical microscope, which is a tool for pathological diagnosis, there is a virtual slide system that enables imaging of a test sample placed on a slide and digitizes it to enable pathological diagnosis on a display. By digitizing pathological diagnosis images using a virtual slide system, conventional optical microscope images of specimens can be handled as digital data. As a result, advantages such as rapid remote diagnosis, explanation to patients using digital image data, sharing of rare cases, efficiency of education and practical training, etc. can be obtained.
Various image processing is possible for digital data, and various diagnosis support functions for supporting diagnosis by a pathologist for image data captured by a virtual slide system have been proposed.

従来、診断支援機能の一例として、以下の提案がされている。
非特許文献1は、がんを診断する上で重要な所見であるN/C比(細胞質に対して核が占める比率)を算出することを目標とし、デジタル画像処理技術を用いて肝臓の病理組織標本画像データから細胞膜を抽出する方法を開示している。非特許文献1では明視野、暗視野、位相差の3種類の観察像の色情報を組み合わせることで、明視野観察像単独の場合に比べて細胞膜の抽出正解率を向上させている。
Conventionally, the following proposal has been made as an example of a diagnosis support function.
Non-Patent Document 1 aims to calculate the N / C ratio (ratio of the nucleus to the cytoplasm), which is an important finding in diagnosing cancer, and uses a digital image processing technique to determine the pathology of the liver. A method for extracting a cell membrane from tissue specimen image data is disclosed. Non-Patent Document 1 improves the extraction accuracy of cell membranes by combining the color information of three types of observation images, bright field, dark field, and phase difference, compared to the case of a bright field observation image alone.

また、細胞膜に限らず、細胞境界(細胞と細胞の間の細胞境界には細胞膜以外にも細胞間物質などが存在)や細胞と管や腔との境界を明瞭にすることは、診断を行う上で大きな意味がある。明瞭な境界は、医師が標本から複雑な肝臓の3次元構造を推測することを容易にするので、限られた情報からより精度の高い診断が実現できる。
また、細胞と管や腔との境界はN/C比を精度良く算出する上でも有用な情報である。例えば、肝臓の病理組織標本には、大別して核と細胞質からなる細胞の領域、肝細胞へ物質を供給する血管である類洞の領域があり、正しいN/C比を算出するには細胞が存在しない類洞の領域を正しく除外する必要がある。
Moreover, not only the cell membrane but also the cell boundary (the cell boundary between cells contains intercellular substances other than the cell membrane) and the boundary between the cell and the tube or cavity are diagnosed. There is a big meaning above. The clear boundary makes it easier for a doctor to infer a complicated three-dimensional structure of the liver from the specimen, so that more accurate diagnosis can be realized from limited information.
The boundary between the cell and the tube or cavity is useful information for calculating the N / C ratio with high accuracy. For example, the pathological tissue specimen of the liver is roughly divided into a cell region composed of a nucleus and a cytoplasm, and a sinusoidal region that is a blood vessel that supplies a substance to the liver cell. It is necessary to exclude the sinusoidal area that does not exist correctly.

特開2007−128009号公報JP 2007-128209 A

鳥澤奈美子,高橋正信,中野雅行,“肝病理組織標本画像中の細胞膜抽出におけるマルチイメージング利用の検討”,電子情報通信学会総合大会,D−16−9,2009/3Namiko Torisawa, Masanobu Takahashi, Masayuki Nakano, “Examination of the use of multi-imaging in the extraction of cell membranes in liver pathological tissue specimen images”, IEICE General Conference, D-16-9, 2009/3 児玉和也,久保田彰,“単一のレンズ系からの多様なボケ味の生成”,映像情報メディア学会誌65(3),pp.372−381,2011年3月Kazuya Kodama, Akira Kubota, “Generation of various blurs from a single lens system”, Journal of the Institute of Image Information and Television Engineers 65 (3), pp. March 372-381, 2111 児玉和也,久保田彰,“周波数領域上での線型結合に基づくScene Refocusing”,映像メディア処理シンポジウム(IMPS2012),I−3.02,pp.45−46,2012年10月Kazuya Kodama, Akira Kubota, “Scene Refocusing based on linear combination on frequency domain”, Video Media Processing Symposium (IMPS2012), I-3.02, pp. 45-46, October 2012 Kazuya KODAMA, Akira KUBOTA, “Efficient Reconstruction of All−in−Focus Images Through Shifted Pinholes from Multi−Focus Images for Dense Light Field Synthesis and Rendering, IEEE Trans. Image Processing, Vol.22, Issue 11, 15pages (2013−11)Kazuya KODAMA, Akira KUBOTA, "Efficient Reconstruction of All-in-Focus Images Through Shifted Pinholes from Multi-Focus Images for Dense Light Field Synthesis and Rendering, IEEE Trans. Image Processing, Vol.22, Issue 11, 15pages (2013-11 )

しかしながら上述した従来の技術においては、以下のような問題があった。
非特許文献1では、明視野、暗視野、位相差観察像を取得するために、明視野顕微鏡に対して位相差用対物レンズや共用コンデンサを装備し、それらを切り替えて撮影している。その為、明視野観察用の光学顕微鏡に追加の部品が必要になるというコスト的な課題、撮影時に光学系および露出条件の変更の手間が発生し、撮影時間が増加するという課題があった。また前記の手間は、広視野領域を局所的な視野毎に分割撮影して繋ぎ合せるバーチャル・スライド・システムにおいて新たな課題を生む。局所的な視野の撮影ごとにメカ機構を切り替えて広視野領域を撮影する場合、撮影時間の増加だけでなく、光学系を切り替えて撮影するためにその保持機構の耐久性の課題が生じる。一方、明視野、暗視野、位相差観察を変更することなく各々の広視野領域を撮影する場合には、各々の画像での焦点合わせ精度の差やステージ制御などを原因とする視野移動時の撮影位置の累積誤差が発生しやすい。そのため互いの画像データ間に位置ずれが生じやすく、同一の画素位置で各々の画像データの比較が難しくなるという課題が生じる。
However, the conventional techniques described above have the following problems.
In Non-Patent Document 1, in order to acquire bright field, dark field, and phase difference observation images, a bright field microscope is equipped with a phase difference objective lens and a shared capacitor, and these are switched and photographed. For this reason, there are a cost problem that an additional part is required for the optical microscope for bright field observation, and a problem that the trouble of changing the optical system and the exposure condition occurs at the time of photographing, and the photographing time increases. In addition, the above-described effort creates a new problem in a virtual slide system that divides and captures a wide field of view for each local field of view. When shooting a wide field of view by switching the mechanical mechanism for each shooting of a local field of view, not only an increase in shooting time but also a problem of durability of the holding mechanism occurs because of shooting by switching the optical system. On the other hand, when shooting each wide-field area without changing the bright-field, dark-field, and phase-contrast observations, when moving the field of view due to differences in focusing accuracy or stage control in each image Accumulated errors in shooting positions are likely to occur. Therefore, there is a problem that misalignment is likely to occur between the image data, and it is difficult to compare the image data at the same pixel position.

本発明は、このような問題点に鑑みてなされたものであり、被写体を撮影して得られた元画像データから、画像処理によって、被写体の観察や診断に適した画像データを生成するための新規な技術を提供することを目的とする。   The present invention has been made in view of such problems, and for generating image data suitable for observation and diagnosis of a subject by image processing from original image data obtained by photographing the subject. The purpose is to provide new technology.

本発明の第1態様は、被写体を撮影して得られた元画像データを用いて、前記被写体に対する視線方向が互いに異なる複数の視点画像データのあいだの差異を抽出または強調した画像データに相当する、特徴画像データを生成する特徴画像データ生成手段と、前記特徴画像データの画素のうち、少なくとも前記元画像データにおける低輝度領域に対応する画素に対して、輝度を低下させる補正処理を行うことにより、補正画像データを生成する補正手段と、を有することを特徴とする画像データ生成装置である。   The first aspect of the present invention corresponds to image data obtained by extracting or emphasizing a difference between a plurality of viewpoint image data having different line-of-sight directions with respect to the subject using original image data obtained by photographing the subject. A feature image data generating unit configured to generate feature image data, and performing correction processing for reducing brightness on at least a pixel corresponding to a low brightness region in the original image data among the pixels of the feature image data. And an image data generation device comprising correction means for generating corrected image data.

本発明の第2態様は、コンピュータが、被写体を撮影して得られた元画像データを用いて、前記被写体に対する視線方向が互いに異なる複数の視点画像データのあいだの差異を抽出または強調した画像データに相当する、特徴画像データを生成するステップと、コンピュータが、前記特徴画像データの画素のうち、少なくとも前記元画像データにおける低輝度領域に対応する画素に対して、輝度を低下させる補正処理を行うことにより、補正画像データを生成するステップと、を有することを特徴とする画像データ生成方法である。   According to a second aspect of the present invention, image data in which a computer extracts or emphasizes differences between a plurality of viewpoint image data having different line-of-sight directions with respect to the subject using original image data obtained by photographing the subject. Corresponding to the step of generating feature image data, and the computer performs a correction process for lowering the luminance of at least a pixel corresponding to the low luminance region in the original image data among the pixels of the feature image data Thus, a method for generating corrected image data is provided.

本発明の第3態様は、本発明に係る画像データ生成方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。   A third aspect of the present invention is a program that causes a computer to execute each step of the image data generation method according to the present invention.

本発明によれば、被写体を撮影して得られた元画像データから、画像処理によって、被写体の観察や診断に適した画像データを生成することができる。   According to the present invention, image data suitable for observation and diagnosis of a subject can be generated by image processing from original image data obtained by photographing the subject.

本発明の実施形態の画像データ生成および表示システムの構成図1 is a configuration diagram of an image data generation and display system according to an embodiment of the present invention. 画像表示アプリケーションの機能を説明する為の表示例Display example to explain the functions of the image display application 画像データ生成装置の内部構成を示す図The figure which shows the internal structure of an image data generation apparatus 被写体の一例であるプレパラートを示す図A diagram showing a preparation that is an example of a subject 被写体を撮影する撮像装置の構成を模式的に示す図The figure which shows typically the structure of the imaging device which image | photographs a to-be-photographed object. 視点画像データでコントラストが強調される理由を説明する図Diagram explaining the reason why contrast is emphasized in viewpoint image data 視点の偏角および視線方向と光軸のなす角(観察角)の関係を示す図The figure which shows the relationship between the angle (observation angle) which the deflection angle of a viewpoint, a gaze direction, and an optical axis make プレパラート内の病理標本の表面に存在する凹凸を示す図The figure which shows the unevenness which exists on the surface of the pathological specimen in the preparation 図8(a)の各面での観察角φにおける散乱光の強度を示す図The figure which shows the intensity | strength of the scattered light in observation angle (phi) in each surface of Fig.8 (a). 物体のZ位置が異なる場合のZスタック画像データを示す図The figure which shows Z stack image data in case the Z position of an object differs 物体のZ位置が異なる場合の視点画像データと焦点ぼけを示す図Diagram showing viewpoint image data and defocus when the Z position of an object is different 散乱光抽出画像データと散乱光強調画像データの焦点ぼけを示す図Figure showing the defocus of scattered light extracted image data and scattered light weighted image data 実施例1のGUIの例を示す図The figure which shows the example of GUI of Example 1. 実施例1の散乱画像データ生成処理のフローチャートFlowchart of scattered image data generation process of embodiment 1 実施例1の透過光成分抑制マスクとその生成処理を説明する図The figure explaining the transmitted light component suppression mask of Example 1, and its production | generation process. 実施例1の散乱光抽出画像データ生成処理のフローチャートFlowchart of scattered light extraction image data generation processing of Embodiment 1 実施例1の透過光成分抑制処理を説明する図The figure explaining the transmitted light component suppression process of Example 1. FIG. 実施例1のN/C比算出処理を示すフローチャートThe flowchart which shows the N / C ratio calculation processing of Example 1 実施例2の散乱画像データ計算処理を説明する図The figure explaining the scattered image data calculation process of Example 2. 実施例2の散乱光強調画像データ生成処理のフローチャートFlowchart of scattered light weighted image data generation process of embodiment 2 実施例2の散乱光強調画像データ生成処理を説明する図The figure explaining the scattered light weighted | enhanced image data generation process of Example 2. 実施例3の散乱光強調画像データ生成処理を説明する図The figure explaining the scattered light weighted | enhanced image data generation process of Example 3. 散乱光抽出画像データ生成処理のフローチャートFlowchart of scattered light extraction image data generation processing 散乱光抽出画像データ生成処理のフローチャートFlowchart of scattered light extraction image data generation processing 視点重み関数および散乱光情報抽出用の視点重み関数の例Example of viewpoint weight function and viewpoint weight function for extracting scattered light information 標本の表面凹凸を偏角が180度異なる視点から観察する様子を示す図The figure which shows a mode that the surface unevenness | corrugation of a sample is observed from the viewpoint from which a declination differs 180 degrees 実施例6の視点の位置、偏角選択関数、偏角選択視点重み関数の例Example of viewpoint position, argument selection function, argument selection viewpoint weight function of embodiment 6 実施例6の処理のフローチャートFlowchart of processing in embodiment 6

(全体構成)
図1は、本発明の実施形態に係る画像データ生成および表示システムの構成を示している。
画像データ生成装置(ホストコンピュータ)100には、ユーザからの入力を受け付ける操作入力デバイス110と、画像データ生成装置100から出力される画像データなどをユーザに提示するためのディスプレイ120が接続される。操作入力デバイス110としては、キーボード111、マウス112、ユーザの操作性を高めるための専用コントローラ113(例えばトラックボール、タッチパッド)などを利用できる。また画像データ生成装置100には、ハードディスクや光学ドライブ、フラッシュメモリ等の記憶装置130、ネットワークI/Fを通じてアクセスできる他のコンピュータシステム140が接続されている。なお、図1では記憶装置130は画像データ生成装置100の外部に存在するが、画像データ生成装置100に内蔵しても良い。
(overall structure)
FIG. 1 shows the configuration of an image data generation and display system according to an embodiment of the present invention.
The image data generation apparatus (host computer) 100 is connected to an operation input device 110 that receives input from the user and a display 120 for presenting image data output from the image data generation apparatus 100 to the user. As the operation input device 110, a keyboard 111, a mouse 112, a dedicated controller 113 (for example, a trackball or a touch pad) for improving user operability can be used. The image data generating apparatus 100 is connected to a storage device 130 such as a hard disk, an optical drive, or a flash memory, and another computer system 140 that can be accessed through a network I / F. In FIG. 1, the storage device 130 exists outside the image data generation device 100, but may be built in the image data generation device 100.

画像データ生成装置100は、操作入力デバイス110から入力されたユーザの制御信号に従い、記憶装置130から画像データを取得し、画像処理を適用することによって観察に適した観察用画像データを生成したり、診断に必要な情報を抽出したりする。   The image data generation device 100 acquires image data from the storage device 130 in accordance with a user control signal input from the operation input device 110, and generates image data for observation suitable for observation by applying image processing. Extract information necessary for diagnosis.

画像表示アプリケーションおよび画像データ生成プログラム(いずれも不図示)は画像データ生成装置100で実行されるコンピュータプログラムである。これらのプログラムは画像データ生成装置100内の内部記憶装置(不図示)または記憶装置130に格納されている。後述する画像データ生成に関わる機能は画像データ生成プログラムによって提供されるものであり、画像データ生成プログラムの各機能は画像表示アプリケーションを
介して呼び出す(利用する)ことができる。画像生成プログラムの処理結果(例えば生成された観察用画像データ)は、画像表示アプリケーションを介して、ユーザに提示される。
The image display application and the image data generation program (both not shown) are computer programs executed by the image data generation apparatus 100. These programs are stored in an internal storage device (not shown) or the storage device 130 in the image data generation device 100. Functions related to image data generation to be described later are provided by an image data generation program, and each function of the image data generation program can be called (utilized) via an image display application. The processing result of the image generation program (for example, generated image data for observation) is presented to the user via the image display application.

(表示画面)
図2は、予め撮影した病理標本の画像データを、画像表示アプリケーションを通じて、ディスプレイ120に表示した場合の一例である。
(Display screen)
FIG. 2 shows an example in which image data of a pathological specimen imaged in advance is displayed on the display 120 through an image display application.

図2は画像表示アプリケーションの画面レイアウトの基本構成である。表示画面の全体ウィンドウ201内に、表示や操作のステータスと各種画像データの情報を示す情報エリア202、観察対象の病理標本のサムネイル画像203、病理標本画像の詳細観察用の表示領域205、表示領域205の表示倍率206、が配置されている。サムネイル画像203上に描画された枠線204は、詳細観察用の表示領域205に拡大表示している領域の位置および大きさを示している。このサムネイル画像203と枠線204によって、ユーザは病理標本画像全体中のどの部分を観察しているのかを容易に把握できる。   FIG. 2 shows the basic configuration of the screen layout of the image display application. In the entire window 201 of the display screen, an information area 202 indicating the status of display and operation and information on various image data, a thumbnail image 203 of the pathological specimen to be observed, a display area 205 for detailed observation of the pathological specimen image, a display area A display magnification 206 of 205 is arranged. A frame line 204 drawn on the thumbnail image 203 indicates the position and size of the area that is enlarged and displayed in the display area 205 for detailed observation. With the thumbnail image 203 and the frame line 204, the user can easily grasp which part of the entire pathological specimen image is being observed.

詳細観察用の表示領域205に表示する画像は、入力操作デバイス110による移動操作や拡大・縮小操作によって設定、更新できる。例えば、移動は画面上でのマウスのドラッグ操作により、拡大縮小はマウスホイールの回転等によって実現できる(例えば、ホイールの前方回転を拡大、後方回転を縮小に割り当てる)。また、焦点位置の異なる画像、すなわち奥行き位置の異なる画像への切り替えは、所定のキー(例えばCtrlキー)を押しながらのマウスホイールの回転等で実現できる。例えば、ホイールの前方回転を奥行きが深い画像への移動に、後方回転を奥行きが浅い画像への移動に割り当てる。上記のようなユーザの表示画像の変更操作に伴い、表示領域205、表示倍率206、サムネイル画像203内の枠線204が更新される。このようにして、ユーザは所望する面内位置、奥行き位置、倍率の画像を観察できる。   The image displayed in the detailed observation display area 205 can be set and updated by a moving operation or an enlargement / reduction operation by the input operation device 110. For example, the movement can be realized by dragging the mouse on the screen, and the enlargement / reduction can be realized by rotating the mouse wheel or the like (for example, the forward rotation of the wheel is enlarged and the backward rotation is assigned to reduction). Further, switching to an image having a different focal position, that is, an image having a different depth position can be realized by rotating the mouse wheel while pressing a predetermined key (for example, the Ctrl key). For example, the forward rotation of the wheel is assigned to movement to an image having a deep depth, and the backward rotation is assigned to movement to an image having a shallow depth. The display area 205, the display magnification 206, and the frame line 204 in the thumbnail image 203 are updated in accordance with the change operation of the display image by the user as described above. In this way, the user can observe an image with a desired in-plane position, depth position, and magnification.

(画像データ生成装置)
図3は画像データ生成装置100の内部構成を示す図である。
CPU301はメインメモリ302に格納されているプログラムやデータを用いて画像データ生成装置全体の制御を行う。またCPU301は、以降の実施例で説明する各種演算処理、データ処理、例えば、散乱画像データ生成処理や透過光成分抑制マスク生成処理、散乱光抽出画像データ生成処理、透過光成分抑制処理、散乱光強調画像データ生成処理等を行う。
(Image data generator)
FIG. 3 is a diagram illustrating an internal configuration of the image data generation apparatus 100.
The CPU 301 controls the entire image data generation apparatus using programs and data stored in the main memory 302. In addition, the CPU 301 performs various arithmetic processing and data processing described in the following embodiments, for example, scattered image data generation processing, transmitted light component suppression mask generation processing, scattered light extraction image data generation processing, transmitted light component suppression processing, scattered light. Performs enhanced image data generation processing and the like.

メインメモリ302は記憶装置130からロードされたプログラムやデータ、他のコンピュータシステム140からネットワークI/F(インターフェース)304を介してダウンロードしたプログラムやデータを一時的に記憶するエリアを備える。またメインメモリ302は、CPU301が各種の処理を行うために必要とするワークエリアを備える。   The main memory 302 has an area for temporarily storing programs and data loaded from the storage device 130 and programs and data downloaded from other computer systems 140 via the network I / F (interface) 304. The main memory 302 includes a work area necessary for the CPU 301 to perform various processes.

操作入力デバイス110はキーボード102、マウス103、専用コントローラ113などCPU301に各種の指示を入力することのできるデバイスにより構成される。ユーザは画像データ生成装置100の動作を制御する情報を操作入力デバイス110により入力する。305は操作入力デバイス110を介して入力された各種の指示等をCPU301に通知するためのI/O(入出力)である。   The operation input device 110 is configured by devices that can input various instructions to the CPU 301 such as the keyboard 102, the mouse 103, and the dedicated controller 113. The user inputs information for controlling the operation of the image data generation apparatus 100 through the operation input device 110. Reference numeral 305 denotes an I / O (input / output) for notifying the CPU 301 of various instructions input via the operation input device 110.

記憶装置130はハードディスクなどの大容量情報記憶装置であり、OS(オペレーティングシステム)や以降の実施例で説明する処理をCPU301に実行させるためのプログラムや画像データなどを記憶する。記憶装置130への情報の書き込みや記憶装置130からの情報の読み出しはI/O306を介して行われる。   The storage device 130 is a large-capacity information storage device such as a hard disk, and stores an OS (Operating System), a program for causing the CPU 301 to execute processing described in the following embodiments, image data, and the like. Writing information to the storage device 130 and reading information from the storage device 130 are performed via the I / O 306.

ディスプレイ制御装置307は画像データや文字等をディスプレイ120に表示させるための制御処理を行う。ディスプレイ120はユーザに入力を求めるための画面表示を行うとともに、記憶装置130や他のコンピュータシステム140から取得しCPU301で処理した画像データを表示する。   The display control device 307 performs control processing for causing the display 120 to display image data, characters, and the like. The display 120 displays a screen for prompting the user to input, and displays image data acquired from the storage device 130 or another computer system 140 and processed by the CPU 301.

演算処理ボード303は、画像処理など特定の演算機能が強化されたプロセッサおよびバッファメモリ(不図示)を備えている。以降の説明では各種演算処理、データ処理にはCPU301を、メモリ領域としてメインメモリ302を用いるとして説明するが、演算処理ボード内のプロセッサやバッファメモリを用いることも可能であり、本発明の範疇とする。   The arithmetic processing board 303 includes a processor and a buffer memory (not shown) in which specific arithmetic functions such as image processing are enhanced. In the following description, the CPU 301 is used for various arithmetic processing and data processing, and the main memory 302 is used as a memory area. However, a processor or a buffer memory in the arithmetic processing board can also be used. To do.

(被写体)
図4は被写体の一例である病理標本のプレパラート(スライドとも呼ぶ)を表す。病理標本のプレパラートでは、スライドグラス410上に載置した病理標本400が封入剤(不図示)とその上に載せるカバーグラス411によって封入されている。病理標本400の大きさや厚みは病理標本によって異なっている。更にスライドグラス410上には病理標本に関する情報が記録されたラベルエリア412が存在する。ラベルエリア412への情報の記録は、ペンによる記入でもよいし、バーコードや2次元コードの印刷でもよい。また電気的、磁気的、または光学的な方法により情報を記憶可能な記憶媒体をラベルエリア412に設けてもよい。以降の実施形態では、被写体として図4に示す病理標本のプレパラートを例に説明する。
(subject)
FIG. 4 shows a preparation (also called a slide) of a pathological specimen that is an example of a subject. In the preparation of the pathological specimen, the pathological specimen 400 placed on the slide glass 410 is enclosed by an encapsulating agent (not shown) and a cover glass 411 placed thereon. The size and thickness of the pathological specimen 400 vary depending on the pathological specimen. Further, on the slide glass 410, there is a label area 412 in which information on the pathological specimen is recorded. Information may be recorded in the label area 412 by pen entry or printing of a barcode or a two-dimensional code. A storage medium that can store information by an electrical, magnetic, or optical method may be provided in the label area 412. In the following embodiments, the preparation of the pathological specimen shown in FIG. 4 will be described as an example of the subject.

(撮像装置)
図5は被写体を撮影しデジタル画像を取得する撮像装置の構成の一部を模式的に表す。図5に示すように、本実施形態では、病理標本400の表面に平行にx軸とy軸をとり、病理標本400の奥行き方向(光学系の光軸方向)にz軸をとる。
(Imaging device)
FIG. 5 schematically illustrates a part of the configuration of an imaging apparatus that captures a subject and acquires a digital image. As shown in FIG. 5, in this embodiment, the x axis and the y axis are taken in parallel to the surface of the pathological specimen 400, and the z axis is taken in the depth direction of the pathological specimen 400 (the optical axis direction of the optical system).

プレパラート(病理標本400)をステージ502上に置き、照明ユニット501から光を照射する。病理標本400を透過した光は、撮像光学系503によって拡大され、撮像センサ504の受光面に結像する。撮像センサ504は複数の光電変換素子を有するラインセンサ(一次元センサ)またはエリアセンサ(二次元センサ)である。病理標本400の光像は撮像センサ504により電気信号に変換され、デジタルデータとして出力される。   A preparation (pathological specimen 400) is placed on the stage 502, and light is emitted from the illumination unit 501. The light transmitted through the pathological specimen 400 is magnified by the imaging optical system 503 and forms an image on the light receiving surface of the imaging sensor 504. The imaging sensor 504 is a line sensor (one-dimensional sensor) or an area sensor (two-dimensional sensor) having a plurality of photoelectric conversion elements. The optical image of the pathological specimen 400 is converted into an electrical signal by the imaging sensor 504 and output as digital data.

一回の撮影で病理標本全体の画像データを取得できない場合には、ステージ502をx方向および/またはy方向に移動しながら複数回の分割撮影を行い、得られた複数の分割画像データを合成(繋ぎ合わせ)して病理標本全体の画像データを生成する。また、ステージ502をz方向に移動しつつ複数回の撮影を行うことで、光軸方向(奥行き方向)の焦点位置が異なる複数枚の画像データ(レイヤー画像データと呼ぶ)を取得する。本明細書では、光軸方向(奥行き方向)の焦点位置が異なる複数枚のレイヤー画像データからなる画像データ群を「Zスタック画像データ」と呼ぶ。また、被写体を撮影することによって取得された画像データであるレイヤー画像データやZスタック画像データを「元画像データ」と呼ぶ。   If the image data of the entire pathological specimen cannot be acquired by a single imaging, multiple division imaging is performed while moving the stage 502 in the x direction and / or the y direction, and the obtained plurality of division image data are synthesized. The image data of the entire pathological specimen is generated by (joining). Further, a plurality of image data (referred to as layer image data) having different focal positions in the optical axis direction (depth direction) are acquired by performing the imaging a plurality of times while moving the stage 502 in the z direction. In this specification, an image data group including a plurality of layer image data having different focal positions in the optical axis direction (depth direction) is referred to as “Z stack image data”. Further, layer image data and Z stack image data, which are image data acquired by photographing a subject, are referred to as “original image data”.

図2の表示倍率206に表示される倍率の値は、撮像光学系503の倍率に画像表示アプリケーション上での拡大/縮小率を掛けた値である。なお、撮像光学系503の倍率は固定でも良いし、対物レンズの交換によって可変であっても良い。   The magnification value displayed on the display magnification 206 in FIG. 2 is a value obtained by multiplying the magnification of the imaging optical system 503 by the enlargement / reduction ratio on the image display application. Note that the magnification of the imaging optical system 503 may be fixed, or may be variable by exchanging the objective lens.

(視点画像データを生成する技術の説明)
画像データ生成装置100では、暗視野観察や位相差観察など光学系に変更を加える観察・撮像方法を必要としない。その代わりに、Zスタック画像データから画像処理によって中間画像データ(視点画像データ)を生成し、その中間画像データを用いて観察や診断に適した観察用画像データを生成する。まずは、Zスタック画像データから中間画像データとしての視点画像データを生成する処理に利用可能な技術について説明する。
(Description of technology for generating viewpoint image data)
The image data generation apparatus 100 does not require an observation / imaging method for changing the optical system such as dark field observation or phase difference observation. Instead, intermediate image data (viewpoint image data) is generated from the Z stack image data by image processing, and image data for observation suitable for observation and diagnosis is generated using the intermediate image data. First, a technique that can be used for processing for generating viewpoint image data as intermediate image data from Z stack image data will be described.

光軸方向の焦点位置を変えて撮影した複数枚の画像データ(Zスタック画像データ)を元に、任意の方向から観察した視点画像データ(任意視点画像データ)を生成できることが知られている。ここで、視点画像データとは所定の観察方向(即ち視点)から被写体を観察した画像データを表す。
例えば特開2007−128009号公報(以降、特許文献1と呼ぶ)には、焦点位置を変えて撮影した焦点ぼけ画像データ群から、任意の視点や任意のぼけの画像データを生成する方法が開示されている。この方法では、焦点ぼけ画像データ群に対し、焦点位置の前後で発生する2次元の焦点ぼけを集めた3次元的な焦点ぼけ(以降、3次元焦点ぼけと呼ぶ)がXYZ位置で不変になるように座標変換処理を施す。そして、得られた直交座標系(XYZ)において3次元のフィルタ処理を適用することで視点やぼけを変更した画像データを得る。
また、非特許文献2には、特許文献1の方法の改良が開示されている。非特許文献2では、視点から視線方向を求め、Zスタック画像データを視線方向に積算することで積算画像データを生成するとともに、同じように3次元焦点ぼけの視線方向の積算画像データも生成する。その後、Zスタック画像データの積算画像データに対し3次元焦点ぼけの積算画像データを逆フィルタ処理することにより、Z方向(レイヤー画像データの枚数)の制約による影響を抑制し、高画質な視点画像データを生成することができる。
また、非特許文献3には、非特許文献2の計算を高速化する方法が開示されている。非特許文献3の方法では、被写体(シーン)に依存せずに予め定まるフィルタと焦点ぼけ画像データ群の各Z位置のフーリエ変換画像データの線型結合によって、周波数領域上での任意視点画像データや任意焦点ぼけ画像データが効率的に計算できる。
非特許文献4は、非特許文献3の方法をより詳細に記した文献である。
It is known that viewpoint image data (arbitrary viewpoint image data) observed from an arbitrary direction can be generated based on a plurality of pieces of image data (Z stack image data) captured by changing the focal position in the optical axis direction. Here, the viewpoint image data represents image data obtained by observing a subject from a predetermined observation direction (that is, viewpoint).
For example, Japanese Patent Laid-Open No. 2007-128009 (hereinafter referred to as Patent Document 1) discloses a method for generating image data of an arbitrary viewpoint or an arbitrary blur from a defocused image data group captured by changing the focal position. Has been. In this method, three-dimensional defocusing (hereinafter referred to as three-dimensional defocusing), which is a collection of two-dimensional defocusing that occurs before and after the focal position, becomes invariant at the XYZ position with respect to the defocused image data group. The coordinate conversion process is performed as described above. And the image data which changed the viewpoint and blur is obtained by applying a three-dimensional filter process in the obtained orthogonal coordinate system (XYZ).
Non-Patent Document 2 discloses an improvement of the method of Patent Document 1. In Non-Patent Document 2, the line-of-sight direction is obtained from the viewpoint, and integrated image data is generated by integrating the Z stack image data in the line-of-sight direction, and similarly, integrated image data in the line-of-sight direction of three-dimensional defocusing is also generated. . Thereafter, the cumulative image data of the three-dimensional defocus is inversely filtered with respect to the integrated image data of the Z stack image data, thereby suppressing the influence due to the restriction in the Z direction (number of layer image data), and a high-quality viewpoint image. Data can be generated.
Non-Patent Document 3 discloses a method for speeding up the calculation of Non-Patent Document 2. In the method of Non-Patent Document 3, arbitrary viewpoint image data on the frequency domain is obtained by linear combination of a filter determined in advance without depending on a subject (scene) and Fourier transform image data at each Z position of the defocused image data group. Arbitrary defocus image data can be calculated efficiently.
Non-Patent Document 4 is a document describing the method of Non-Patent Document 3 in more detail.

本実施形態では、光軸方向の焦点位置を変えて撮影した複数枚の画像データ(Zスタック画像データ)を元に、任意の方向から観察した視点画像データ(任意視点画像データ)を生成したり、任意の焦点ぼけを持つ画像データを生成する。以降の説明では、これらの手法を総称して、MFI(マルチフォーカスイメージング)任意視点/焦点ぼけ画像生成法と呼ぶこととする。
なお、両側テレセントリックな光学系を持つ顕微鏡で焦点位置を変えて撮影したZスタック画像データは3次元焦点ぼけがxyz位置で不変である。よって、両側テレセントリックな光学系で撮影したZスタック画像データにMFI任意視点/焦点ぼけ画像生成法を適用する場合は、座標変換処理および座標変換処理に伴う画像データの拡縮処理は不要である。
In the present embodiment, viewpoint image data (arbitrary viewpoint image data) observed from an arbitrary direction is generated based on a plurality of pieces of image data (Z stack image data) captured by changing the focal position in the optical axis direction. Generate image data with arbitrary defocus. In the following description, these methods are collectively referred to as an MFI (multi-focus imaging) arbitrary viewpoint / defocus image generation method.
It should be noted that the three-dimensional focal blur is invariant at the xyz position in the Z stack image data photographed by changing the focal position with a microscope having a bilateral telecentric optical system. Therefore, when the MFI arbitrary viewpoint / defocused image generation method is applied to the Z stack image data photographed by the bilateral telecentric optical system, the coordinate conversion process and the image data enlargement / reduction process associated with the coordinate conversion process are unnecessary.

ライトフィールドと呼ばれる4次元の情報(XYの2次元画像データに視点位置の自由度を加えた情報)が記録された画像データを1回の撮影で取得可能な撮像装置が知られている。このような撮像装置はライトフィールドカメラやライトフィールド顕微鏡と呼ばれる。これらの装置では、本来結像面となる位置にレンズアレイが配置されており、それよりも後方のイメージセンサでライトフィールドを撮影する。ライトフィールドが記録された元画像データからも、公知の技術を用いて、任意の焦点位置の画像データや任意の方向から観察した視点画像データ(任意視点画像データ)を生成できる。   2. Description of the Related Art An imaging device is known that can acquire image data in which four-dimensional information called light field (XY two-dimensional image data plus the degree of freedom of the viewpoint position) is recorded by one shooting. Such an imaging apparatus is called a light field camera or a light field microscope. In these apparatuses, a lens array is originally arranged at a position that is an image plane, and a light field is photographed by an image sensor behind the lens array. From the original image data in which the light field is recorded, image data at an arbitrary focal position and viewpoint image data (arbitrary viewpoint image data) observed from an arbitrary direction can be generated using a known technique.

本実施例では、撮像装置の被写体に対する方向を物理的に変えることなく、Zスタック画像データ又はライトフィールドなどの撮像画像データを元に、デジタル画像処理によっ
て生成される任意の観察方向の画像データを「視点画像データ」とよぶ。この視点画像データは、被写体の撮影に用いる撮像光学系を通る任意の光線を主光線とし、その主光線を中心とする光束によって撮像面に形成される光学像を模擬した画像データである。主光線の方向が観察方向に対応する。主光線の方向は任意に設定できる。また光束の大きさ(NA)も任意に設定できる。画像診断等が目的の場合には、視点画像データの被写界深度は深いことが望ましいので、視点画像データに対応する光束のNAは0.1以下が望ましい。
In this embodiment, image data in an arbitrary observation direction generated by digital image processing based on captured image data such as Z-stack image data or a light field without physically changing the direction of the imaging device with respect to the subject. This is called “viewpoint image data”. This viewpoint image data is image data simulating an optical image formed on an imaging surface by a light beam having a principal ray as a principal ray and passing through an imaging optical system used for photographing a subject. The direction of the chief ray corresponds to the viewing direction. The direction of the chief ray can be set arbitrarily. Also, the size (NA) of the light beam can be set arbitrarily. When the purpose is image diagnosis or the like, it is desirable that the depth of field of the viewpoint image data is deep. Therefore, the NA of the luminous flux corresponding to the viewpoint image data is desirably 0.1 or less.

なお、デジタル画像処理によって生成(計算)した視点画像データは、撮像光学系の撮影条件(絞りの位置・大きさ)や光軸方向やレンズ等を物理的に変えて撮影した画像データとは、必ずしも一致しない。しかし、現実に撮影した画像データと一致していなくても、視点を変えて被写体を観察したのと同様の特徴をもつ画像データであれば(つまり、観察方向を変えるのと同様の効果をデジタル画像処理によって付与できれば)、画像観察や画像診断等には有用である。従って、現実に光軸方向等を変えて撮影した画像データとは厳密には一致しないが、そのような画像データと同様の特徴が現れるようにデジタル画像処理された画像データも、本実施例の視点画像データに含まれる。   Note that the viewpoint image data generated (calculated) by digital image processing is the image data captured by physically changing the imaging conditions (aperture position / size), optical axis direction, lens, etc. of the imaging optical system. Does not necessarily match. However, even if the image data does not match the actual captured image data, if the image data has the same characteristics as if the subject was observed by changing the viewpoint (that is, the same effect as changing the observation direction is digital) If it can be applied by image processing), it is useful for image observation and image diagnosis. Therefore, although it does not exactly match image data actually taken by changing the optical axis direction or the like, image data that has been subjected to digital image processing so that the same characteristics as such image data appear is also in this embodiment. Included in the viewpoint image data.

座標変換を施した焦点ぼけ画像群から、実空間上のレンズ面(瞳面に相当)上にある原点O(x,y,z)=(0,0,0)から視点(x,y,z)=(s,t,0)だけズレた位置のピンホールを通して観察した視点画像データを生成できる。MFI任意視点/焦点ぼけ画像生成法では、レンズ面上の視点の位置を変えることで被写体を観察する観察方向、すなわち視線方向を変化させることができる。   From the defocused image group subjected to coordinate transformation, the viewpoint (x, y, 0) from the origin O (x, y, z) = (0, 0, 0) on the lens surface (corresponding to the pupil plane) in real space. It is possible to generate viewpoint image data observed through a pinhole at a position shifted by z) = (s, t, 0). In the MFI arbitrary viewpoint / defocused image generation method, the observation direction for observing the subject, that is, the line-of-sight direction can be changed by changing the position of the viewpoint on the lens surface.

視線方向は、結像した像に対応する被写体の所定の位置から発する光束の中で、レンズ面上の視点の位置(x,y,z)=(s,t,0)を通る直線の傾きである、と定義できる。視線方向は様々な方法で表現可能である。例えば、直線の進行方向を示す3次元的なベクトルによる表現でも良いし、前述の3次元的なベクトルが光軸となす角(観察角)と光軸に垂直な平面に射影したときのベクトルがX軸となす角(偏角)による表現でも良い。   The line-of-sight direction is the slope of a straight line passing through the position (x, y, z) = (s, t, 0) of the viewpoint on the lens surface in a light beam emitted from a predetermined position of the subject corresponding to the image formed. Can be defined. The line-of-sight direction can be expressed in various ways. For example, it may be expressed by a three-dimensional vector indicating the traveling direction of a straight line, or an angle (observation angle) formed by the aforementioned three-dimensional vector with the optical axis and a vector projected onto a plane perpendicular to the optical axis may be An expression by an angle (deflection angle) with the X axis may be used.

撮像光学系が両側テレセントリックではない場合、撮像面における3次元焦点ぼけは、合焦した被写体の空間的な位置(xyz座標内の位置)によって変化し、レンズ面上の視点の位置(x,y,z)=(s,t,0)を通る直線の傾きは一定とはならない。その場合、特許文献1に記載の座標変換後の直交座標系(XYZ)の上で視線方向を定義すると良く、視線方向は(X,Y,Z)=(−s,−t,1)のベクトルで表すことができる。以下、座標変換後の視線方向の求め方を説明する。
特許文献1には、撮像光学系の焦点が合った任意の位置と撮像装置のレンズ面(瞳面に相当)上の同一の視点の位置(x,y,z)=(s,t,0)を結ぶ光線は、座標変換後の直交座標系(XYZ)では全て互いに平行な光線となることが記載されている。(特許文献1の図1〜3およびその説明を参照)
When the imaging optical system is not bilateral telecentric, the three-dimensional defocus on the imaging surface changes depending on the spatial position of the focused subject (position in the xyz coordinates), and the viewpoint position (x, y on the lens surface). , Z) = (s, t, 0), the slope of the straight line is not constant. In that case, the line-of-sight direction should be defined on the orthogonal coordinate system (XYZ) after coordinate transformation described in Patent Document 1, and the line-of-sight direction is (X, Y, Z) = (− s, −t, 1). It can be expressed as a vector. Hereinafter, how to obtain the line-of-sight direction after coordinate conversion will be described.
In Patent Document 1, an arbitrary position where an imaging optical system is in focus and the same viewpoint position (x, y, z) = (s, t, 0) on the lens surface (corresponding to the pupil plane) of the imaging apparatus are disclosed. It is described that all of the light rays that connect () are parallel to each other in the orthogonal coordinate system (XYZ) after coordinate conversion. (See FIGS. 1 to 3 of Patent Document 1 and the description thereof)

透視座標系(座標変換前の実空間)の被写体のある点から出た光は、(p+s,q+t,f)(fは焦点距離)を通過し、視点の位置(x,y,z)=(s,t,0)で屈折する。この直線は以下の式で表される。

Figure 2015191362
数1の直線は座標変換後の直交座標系(XYZ)では以下の式で表される。
Figure 2015191362
数2にZ=0(z=f)、Z=1(z=∞)を代入し、3次元座標を求めると、それぞれ(X,Y,Z)=(p+s,q+t,0)、(X,Y,Z)=(p,q,1)となることから、直交座標系(X,Y,Z)での直線の傾きは(−s,−t,1)で表される。
従って、座標変換後の直交座標系での視線方向を表すベクトルは(X,Y,Z)=(−s,−t,1)となる。 Light emitted from a certain point of the subject in the perspective coordinate system (real space before coordinate transformation) passes through (p + s, q + t, f) (f is the focal length), and the viewpoint position (x, y, z) = Refraction occurs at (s, t, 0). This straight line is represented by the following equation.
Figure 2015191362
The straight line of Formula 1 is represented by the following expression in the orthogonal coordinate system (XYZ) after coordinate conversion.
Figure 2015191362
Substituting Z = 0 (z = f) and Z = 1 (z = ∞) into Equation 2 to obtain three-dimensional coordinates, (X, Y, Z) = (p + s, q + t, 0), (X , Y, Z) = (p, q, 1), the slope of the straight line in the orthogonal coordinate system (X, Y, Z) is represented by (−s, −t, 1).
Therefore, the vector representing the line-of-sight direction in the orthogonal coordinate system after coordinate conversion is (X, Y, Z) = (− s, −t, 1).

なお、撮像光学系が両側テレセントリックである場合、奥行き方向に焦点を変えて撮影した複数枚の画像データ(Zスタック画像データ)中の3次元焦点ぼけはZの位置によらず不変となる。
従って、空間的な位置によらず3次元焦点ぼけを不変とするための座標変換は必要ない。実空間においてピントが合った被写体の所定の位置(x,y,z)=(0,0,za)とレンズ面上の視点の位置(x,y,z)=(s,t,0)を結ぶ直線の傾き(−s,−t,za)をそのまま視線方向と見なしても良い。
When the imaging optical system is bilateral telecentric, three-dimensional defocusing in a plurality of pieces of image data (Z stack image data) photographed with the focus changed in the depth direction is not changed regardless of the Z position.
Therefore, coordinate conversion is not required to make the three-dimensional defocusing invariant regardless of the spatial position. A predetermined position (x, y, z) = (0, 0, za) of the subject in focus in the real space and a viewpoint position (x, y, z) = (s, t, 0) on the lens surface The slope (−s, −t, za) of the straight line connecting the lines may be regarded as the line-of-sight direction as it is.

(視点と実際に標本を観察したときの偏角θ及び観察角φの対応関係)
図7(a)は実空間上の視点の位置(x,y,z)=(s,t,0)を表す模式図であり、図7(b)は直交座標系(XYZ)において視点の位置(x,y,z)=(s,t,0)を通る光線を表す模式図である。
(Correspondence between the angle of view and the observation angle φ when the specimen is actually observed)
FIG. 7A is a schematic diagram showing the position (x, y, z) = (s, t, 0) of the viewpoint in the real space, and FIG. 7B shows the viewpoint position in the orthogonal coordinate system (XYZ). It is a schematic diagram showing the light ray which passes a position (x, y, z) = (s, t, 0).

図7(a)で示す点線の円はレンズ面上(z=0)で光線が通過可能な範囲を表している。偏角θをレンズ面上の視点の位置(x,y,z)=(s,t,0)がレンズ面上(z=0)のx軸となす角、あるいは視線(−s,−t,1)をxy平面に射影したときの直線がx軸となす角と定義すると、偏角θは下記の式で求められる。

Figure 2015191362
ただし、θはt,sの符号に応じて−180〜+180度の範囲に収まるように調整する。 A dotted circle shown in FIG. 7A represents a range through which light rays can pass on the lens surface (z = 0). The angle at which the position (x, y, z) = (s, t, 0) of the viewpoint on the lens surface is the x axis on the lens surface (z = 0) or the line of sight (−s, −t) , 1) is defined as an angle formed by a straight line projected onto the xy plane and the x axis, the declination angle θ can be obtained by the following equation.
Figure 2015191362
However, θ is adjusted to fall within the range of −180 to +180 degrees according to the signs of t and s.

続いて、図7(b)を用いて視線と変換座標上の観察角φの関係について説明する。
図7(b)では、数2で示す直線と数2に光軸上の点p=0、q=0を代入した場合の直線を太字の矢印で示している。
特許文献1によれば、直交座標系(XYZ)のZ=0は透視座標系(xyz)のz=f(またはz=−∞)に対応し、Z=1はz=∞(またはz=−f)に対応している。そのため、図7(b)は直交座標系XYZにおいて無限遠(Z=1)からの光束が、レンズ面上の手前の焦点面(Z=0)で広がりを持つことを示している。(特許文献1の図3およびその説明を参照)
ここで、変換座標上の観察角φを、視線(−s,−t,1)と光軸(Z軸)がなす角と定義すると、図7(b)からも明らかなように視線は、被写体の位置に依存しないので、観察角φは以下の式で求められる。

Figure 2015191362
なお、図7(b)の2本の点線はレンズ面上の最も端を通る光線を示している。座標変換前の透視座標系(xyz)でのレンズの絞り半径をrとすると、視点の位置(x,y
,z)=(s,t,0)が半径rの内部にある場合のみ視点画像データは計算できる。 Next, a description will be given of the relationship viewing angle phi T on conversion coordinates sight with reference to FIG. 7 (b).
In FIG. 7 (b), the straight line shown by Formula 2 and the straight line when the points p = 0 and q = 0 on the optical axis are substituted into Formula 2 are shown by bold arrows.
According to Patent Document 1, Z = 0 in the orthogonal coordinate system (XYZ) corresponds to z = f (or z = −∞) in the perspective coordinate system (xyz), and Z = 1 corresponds to z = ∞ (or z = -F). For this reason, FIG. 7B shows that the light beam from infinity (Z = 1) has a spread on the front focal plane (Z = 0) on the lens surface in the orthogonal coordinate system XYZ. (See FIG. 3 of Patent Document 1 and its description)
Here, the observation angle phi T on conversion coordinates, line-of-sight (-s, -t, 1) and the optical axis (Z axis) is defined as the angle, the line of sight as is apparent from FIG. 7 (b) It does not depend on the position of the object, viewing angle phi T is calculated by the following equation.
Figure 2015191362
Note that the two dotted lines in FIG. 7B indicate the light rays that pass through the end most on the lens surface. When the aperture radius of the lens in the coordinate before conversion of the perspective coordinate system (xyz) and r m, the position of the viewpoint (x, y
, Z) = (s, t , 0) viewpoint image data only if internal radius r m can be calculated.

次に、変換座標上ではなく、実際に標本を観察したときの視線に対応する偏角θ、観察角φについて述べる。スネルの法則では屈折率の異なる境界に光線が入射したとき、光線の入射角と入射側の媒質の屈折率の積は、光線の屈折角と屈折側の媒体の屈折率の積に等しい。標本の屈折率は空気の屈折率よりも大きいことから、空気中の観察角に比べ標本中の観察角は小さくなっている。そのため、屈折した光線で構成される、標本中の3次元焦点ぼけは、空気中での3次元焦点ぼけよりも小さくなっている。しかし、本実施例では標本中での3次元焦点ぼけによる3次元的な結像関係に基づいて視点の位置を計算しているため、標本の屈折率の影響は考える必要はなく、偏角θおよび観察角φはそのまま標本中での観察方向を表している。
撮像光学系が両側テレセントリックである場合には、座標変換を必要としないため、x方向とy方向のセンサ画素ピッチが等しいとすれば、観察角φは、x方向のセンサ画素ピッチΔxと、z方向の移動間隔Δz(単位はμm)を用いて、下記式で表現できる。

Figure 2015191362
なお、撮像光学系が両側テレセントリックでない場合には、数5でΔxとΔzの代わりに、直交座標系(XYZ)におけるX方向のセンサ画素ピッチΔXとZ方向の移動間隔ΔZを用いれば観察角φが求められる。
以上で、実際に標本を観察したときの視線に対応する偏角θ、観察角φについて説明した。
以降の説明では、レンズ面上の視点の位置(x,y,z)=(s,t,0)を視点(s,t)と略して記載する。また、直交座標系(XYZ)上での画像処理を前提として説明するため、視点の位置(s,t)に言及する場合のみ透視座標系(座標変換前の実空間)での位置を表すものとし、その他は特に断りが無い限りは、直交座標系(XYZ)での位置を表すとする。 Next, the deflection angle θ and the observation angle φ corresponding to the line of sight when the specimen is actually observed, not on the converted coordinates, will be described. According to Snell's law, when a light beam is incident on a boundary having a different refractive index, the product of the incident angle of the light beam and the refractive index of the medium on the incident side is equal to the product of the refraction angle of the light beam and the refractive index of the medium on the refractive side. Since the refractive index of the sample is larger than the refractive index of air, the observation angle in the sample is smaller than the observation angle in air. Therefore, the three-dimensional defocus in the sample, which is composed of refracted rays, is smaller than the three-dimensional defocus in air. However, in this embodiment, since the position of the viewpoint is calculated based on the three-dimensional imaging relationship due to the three-dimensional defocusing in the sample, there is no need to consider the influence of the refractive index of the sample, and the angle θ The observation angle φ directly represents the observation direction in the sample.
When the imaging optical system is bilateral telecentric, coordinate conversion is not required. Therefore, if the sensor pixel pitch in the x direction and the y direction are the same, the observation angle φ is the sensor pixel pitch Δx in the x direction and z It can be expressed by the following equation using a direction movement interval Δz (unit: μm).
Figure 2015191362
If the imaging optical system is not bilateral telecentric, the observation angle φ can be obtained by using the sensor pixel pitch ΔX in the X direction and the movement interval ΔZ in the Z direction in the orthogonal coordinate system (XYZ) instead of Δx and Δz in Equation 5. Is required.
As described above, the declination angle θ and the observation angle φ corresponding to the line of sight when actually observing the sample have been described.
In the following description, the viewpoint position (x, y, z) = (s, t, 0) on the lens surface is abbreviated as viewpoint (s, t). In addition, in order to explain on the premise of image processing on an orthogonal coordinate system (XYZ), only when referring to the position (s, t) of the viewpoint, the position in the perspective coordinate system (real space before coordinate transformation) is represented. Unless otherwise specified, the position in the Cartesian coordinate system (XYZ) is expressed unless otherwise specified.

図5の撮像装置で取得したZスタック画像データに対しMFI任意視点/焦点ぼけ画像生成法を適用すると、視点の位置、即ち観察方向を変えた視点画像データを生成することが出来る。
MFI任意視点/焦点ぼけ画像生成法で計算する視点画像データには、主に2つの特徴がある。1つは視点画像データが非常に深い(無限大の)被写界深度を持ち、透過率が異なる標本内の物質の境界が明瞭に見える点である。もう1つは、視点画像データは、照明の一部領域から標本を照らして得る偏斜照明の観察像に近く、XY平面での視線方向に沿って変化する凹凸が強調され、標本が立体的に見える点である。視点画像データでは偏斜照明の像と同様、光軸に対して視線方向が傾くほど、即ち、視線の観察角φが大きくなるほど、標本表面の凹凸のコントラストが高くなり、標本表面が立体的に見える。
(ただし、物理的には偏斜照明の像と視点画像データは異なっている。偏斜照明の像は焦点位置の変更に伴って光学的なぼけが発生するが、視点画像データは焦点位置の変更によらず被写界深度は非常に深いままであるという違いがある。なお、視点画像データはピントを合わせるZスタック画像データのZ位置Zfによって変化するが、その変化はXY方向の平行移動で表される。)
When the MFI arbitrary viewpoint / defocused image generation method is applied to the Z stack image data acquired by the imaging apparatus of FIG. 5, viewpoint image data in which the position of the viewpoint, that is, the observation direction is changed, can be generated.
The viewpoint image data calculated by the MFI arbitrary viewpoint / defocused image generation method has mainly two characteristics. One is that the viewpoint image data has a very deep (infinite) depth of field, and the boundaries of substances in specimens with different transmittances can be clearly seen. The other is that the viewpoint image data is close to the oblique illumination observation image obtained by illuminating the specimen from a partial area of the illumination, and the unevenness changing along the line-of-sight direction on the XY plane is emphasized, and the specimen is stereoscopic. It is a point that can be seen. In the viewpoint image data, as with the oblique illumination image, as the viewing direction tilts with respect to the optical axis, that is, as the viewing angle φ of the viewing line increases, the contrast of the unevenness of the specimen surface increases and the specimen surface becomes three-dimensional. appear.
(However, physically, the oblique illumination image and the viewpoint image data are different. The oblique illumination image has an optical blur due to the change of the focal position, but the viewpoint image data is not The difference is that the depth of field remains very deep regardless of the change, and the viewpoint image data changes depending on the Z position Zf of the Z stack image data to be focused, but the change is parallel movement in the XY directions. Represented by

次に、1つ目の特徴である、透過率が異なる物質の境界が明瞭に見える理由について説明する。
図6(a)は、直交座標系(XYZ)での光学系の3次元焦点ぼけを表す図である。600は3次元焦点ぼけ形状を示し、焦点位置(2つの円錐の頂点)では焦点ぼけは僅かだ
が、Z位置が焦点位置から離れるに従い、焦点ぼけが広がる様子を示している。MFI任意視点/焦点ぼけ画像生成法を用いれば、Zスタック画像データから円錐600の内部を通る任意の視線方向(例えば直線610)の光線で構成される視点画像データを生成することが出来る。
Next, the reason why the boundary between substances having different transmittances, which is the first feature, can be clearly seen will be described.
FIG. 6A is a diagram illustrating the three-dimensional defocus of the optical system in the orthogonal coordinate system (XYZ). Reference numeral 600 denotes a three-dimensional defocused shape. The defocus is slightly at the focal position (the apexes of the two cones), but the defocus increases as the Z position moves away from the focal position. Using the MFI arbitrary viewpoint / defocused image generation method, viewpoint image data composed of light rays in an arbitrary line-of-sight direction (for example, straight line 610) passing through the inside of the cone 600 can be generated from the Z stack image data.

図6(b)は、直交座標系(XYZ)での病理標本を異なる方向から見た様子を示す。図6(b)の標本620の内部には斜め方向の空洞630が存在している。
方向631から観察すると空洞630以外の部位が透けて見える為、空洞630の壁面のコントラストは明瞭ではない。また方向632から観察した場合も同様で空洞630のコントラストは不明瞭である。しかし空洞630の壁面に沿った方向633から観察する場合、他の部位の影響を受けないので、空洞630の壁面のコントラストは明瞭となる。なお、視線方向が多少空洞の壁面の方向と異なってもコントラストは比較的高い状態を維持できる。
FIG. 6B shows a pathological sample in the orthogonal coordinate system (XYZ) viewed from different directions. An oblique cavity 630 exists inside the specimen 620 in FIG.
When viewed from the direction 631, a portion other than the cavity 630 can be seen through, so the contrast of the wall surface of the cavity 630 is not clear. Similarly, when viewed from the direction 632, the contrast of the cavity 630 is unclear. However, when observing from the direction 633 along the wall surface of the cavity 630, the contrast of the wall surface of the cavity 630 becomes clear because it is not affected by other parts. Even if the line-of-sight direction is slightly different from the direction of the hollow wall surface, the contrast can be kept relatively high.

一方、標本620のZスタック画像データの3次元焦点ぼけは様々な視線方向の光線を統合したものである。そのため、いずれのZ位置(焦点位置)のレイヤー画像データにおいても、方向631〜633の光線を含む多方向の光束の影響で像がぼやけ、空洞の壁面のコントラストは方向633からの観察像に比べて明瞭にはならない。この現象は空洞に限らず、核や細胞膜、線維等においても同様である。
以上、視点画像データにおいて標本内の透過率が異なる物質の境界が明瞭に見える現象について説明した。
On the other hand, the three-dimensional defocus of the Z-stack image data of the sample 620 is obtained by integrating rays in various gaze directions. Therefore, in the layer image data at any Z position (focal position), the image is blurred due to the influence of multidirectional light beams including the light beams in the directions 631 to 633, and the contrast of the cavity wall surface is compared with the observation image from the direction 633. It will not be clear. This phenomenon is not limited to cavities, but also in nuclei, cell membranes, fibers, and the like.
In the above, the phenomenon has been described in which the boundary between substances having different transmittances in the specimen can be clearly seen in the viewpoint image data.

病理標本は半透明の物体であり、透過光以外にも散乱光が存在している。その散乱光の存在が視点画像データの2つ目の特徴を生んでいる。
次に、標本での散乱光により、視線の観察角φが大きくなるほど、標本表面の凹凸のコントラストが高くなる理由について説明する。
A pathological specimen is a translucent object, and scattered light is present in addition to transmitted light. The presence of the scattered light gives rise to the second feature of the viewpoint image data.
Next, the reason why the contrast of the unevenness on the sample surface increases as the viewing angle φ of the line of sight increases due to scattered light from the sample will be described.

図8(a)の800はプレパラート内の病理標本の表面に存在する凹凸を示す模式図である。図8(a)に示すxz平面の凹凸は奥行き方向であるy方向にも続いているとする。
組織診用の病理標本はパラフィンで固定された後、マイクロトームで均一な厚みにスライスされ、その後、染色が施されている。しかし、病理標本は完全に均一ではなく、細胞と管や腔の境界、核と細胞質の間の境界などでは組織の構造や物質の成分に起因する凹凸が存在し、病理標本の表面には図8(a)に示すような起伏のある構造が存在している。
図8(a)は簡易的なモデルであり、実際の標本の凹凸には図8(a)のようにとがった部分は少ない。また図8(a)のような凸の構造だけでなく標本内部に凹んだ構造も存在する。また表面が平らでも内部に屈折率が異なる物質が存在する場合は光学的な距離が変わるため、標本内部の屈折率の不連続は表面凹凸と見なすことができる。
なお、実際のプレパラートでは、カバーグラスと標本の間に透明な封入剤が存在している。しかし、封入剤の屈折率と標本の屈折率の差は僅かで影響は少ないため、以降、両者の屈折率は同一として説明する。
8A is a schematic diagram showing irregularities present on the surface of the pathological specimen in the preparation. It is assumed that the unevenness on the xz plane shown in FIG. 8A continues in the y direction which is the depth direction.
A pathological specimen for histological diagnosis is fixed with paraffin, sliced to a uniform thickness with a microtome, and then stained. However, pathological specimens are not completely uniform, and there are irregularities due to the structure of tissues and the composition of substances at the boundaries between cells and tubes and cavities, and between the nucleus and cytoplasm. There is an uneven structure as shown in FIG.
FIG. 8A is a simple model, and there are few sharp points as shown in FIG. In addition to the convex structure as shown in FIG. 8A, there is a concave structure inside the specimen. In addition, even if the surface is flat, if there is a substance with a different refractive index inside, the optical distance changes, so the discontinuity of the refractive index inside the sample can be regarded as surface irregularities.
In an actual preparation, a transparent encapsulant is present between the cover glass and the specimen. However, since the difference between the refractive index of the encapsulant and the refractive index of the sample is slight and has little influence, the following description will be made assuming that both refractive indexes are the same.

図8(a)の811は凹凸の無い面、812は右上がりの斜面、813は右下がりの斜面を示す。斜面812、斜面813がx軸となす傾斜角はそれぞれα(α>0)である。
図9(a)〜図9(c)は図8(a)の811〜813の面での観察角φにおける散乱光の強度を示す模式図である。図9(a)、図9(b)、図9(c)はそれぞれ平面811、斜面812、813での光の散乱を示している。それぞれの面に接する円は、標本表面での光の拡散特性を完全拡散透過面と仮定した場合の散乱方向による散乱光の強度を示す。円内の太い矢印の線の長さは光軸(z軸)からφだけ傾けた角度から観察した場合の散乱光の強度を示している。(実際には標本表面は完全拡散透過面ではなく、光の入射方
向・観察方向による強度依存性があるが、説明を簡略化するため、ここでは完全拡散透過面と仮定して説明する。)
In FIG. 8A, reference numeral 811 denotes a surface without unevenness, 812 denotes a slope that rises to the right, and 813 denotes a slope that falls to the right. The inclination angles formed by the inclined surfaces 812 and 813 and the x axis are α (α> 0), respectively.
FIGS. 9A to 9C are schematic diagrams showing the intensity of scattered light at the observation angle φ on the surfaces 811 to 813 in FIG. 8A. FIG. 9A, FIG. 9B, and FIG. 9C show light scattering on the plane 811 and the inclined surfaces 812 and 813, respectively. Circles in contact with the respective surfaces indicate the intensity of the scattered light depending on the scattering direction when the light diffusion characteristics on the sample surface are assumed to be a completely diffuse transmission surface. The length of the thick arrow line in the circle indicates the intensity of scattered light when observed from an angle inclined by φ from the optical axis (z-axis). (In actuality, the specimen surface is not a completely diffuse transmission surface, but has an intensity dependency depending on the incident direction and the observation direction of light. However, in order to simplify the explanation, the description will be made assuming that the sample surface is a complete diffuse transmission surface.)

完全拡散透過面では、面と直交する法線方向の光の強度をI、観察方向と面の法線のなす角をδとすると、δ方向の散乱光の強度I(δ)はI(δ)=Icosδで表せる。
図9(a)、図9(b)、図9(c)において、観察方向と面の法線のなす角δはそれぞれφ、φ+α、φ−αで表せるため、それぞれの散乱光の強度は、
cosφ、Icos(φ+α)、Icos(φ−α)
となる。
なお、観察方向から見てzの値が増加する斜面(上りの斜面)では傾斜角αを正とし、zの値が減少する斜面(下りの斜面)では傾斜角αを負とすれば、いずれの面でも散乱光の強度は、Icos(φ−α)で表せる。
In a perfectly diffusive transmission surface, if the intensity of light in the normal direction orthogonal to the surface is I 0 and the angle between the observation direction and the normal of the surface is δ, the intensity I (δ) of scattered light in the δ direction is I ( δ) = I 0 cos δ
In FIGS. 9A, 9B, and 9C, the angles δ formed by the normal direction of the observation direction and the surface can be expressed by φ, φ + α, and φ−α, respectively. ,
I 0 cosφ, I 0 cos (φ + α), I 0 cos (φ−α)
It becomes.
In addition, if the slope angle α is positive on the slope where the value of z increases from the observation direction (uphill slope) and the slope angle α is negative on the slope where the value of z decreases (downhill slope), either The intensity of scattered light can also be expressed as I 0 cos (φ−α).

斜面812、813の観察角φ方向の散乱光の強度を平面811の観察角φ方向の散乱光の強度で割った値をコントラストC(φ,α)として定義すると、コントラストは下記の式となる。

Figure 2015191362
When a value obtained by dividing the intensity of scattered light in the observation angle φ direction of the inclined surfaces 812 and 813 by the intensity of scattered light in the observation angle φ direction of the plane 811 is defined as contrast C (φ, α), the contrast is represented by the following expression. .
Figure 2015191362

表1にφおよびαを変えたコントラストC(φ,α)の値を示す。

Figure 2015191362
表1より、観察角φが小さいときは、傾斜角αが大きくても斜面812、813の間のコントラストは低いため観察しづらく、観察角φが大きくなるに従い、傾斜角αが小さくてもコントラストは大きくなり、観察しやすくなることが分かる。
以上、標本での散乱光により、視線の観察角φが大きくなるほど、標本表面の凹凸のコントラストが高くなる理由について説明した。 Table 1 shows the values of contrast C (φ, α) with φ and α changed.
Figure 2015191362
According to Table 1, when the observation angle φ is small, it is difficult to observe because the contrast between the inclined surfaces 812 and 813 is low even if the inclination angle α is large, and as the observation angle φ increases, the contrast becomes small. It becomes large and it becomes easy to observe.
As described above, the reason why the contrast of the unevenness on the sample surface increases as the viewing angle φ of the line of sight increases due to the scattered light in the sample has been described.

(視点を変えたときの散乱光強度の変化)
次に視点を変えたときの標本表面の散乱光強度の変化について説明する。
図8(a)は、xy面内において表面凹凸のエッジ方向がx軸に直交しており、表面凹凸の高低変化の方向(エッジに垂直な方向)が視点の偏角θ(θ=0)と一致した場合の図である。一方、図8(b)は表面凹凸の高低変化の方向がx軸と一致しない場合の図である。図8(b)に示すように表面凹凸(820)のエッジに垂直な方向(821)とx軸とのなす角を凹凸方向角βとすると、凹凸方向角βと偏角θが一致しない場合には、表面凹凸820を斜め方向から観察することになる。このとき、偏角θ−βの角度を持つ観察方向から見た、斜面813とその反対方向の斜面812の見かけ上の傾斜角α’は

Figure 2015191362
で求まる。数7から、見かけ上の傾斜角α’はαより小さくなり、凹凸方向角βと偏角θの差|θ−β|によって、コントラストCが低下することが分かる。
ここで、|θ−β|が90度を境に、傾斜角αおよびα’の符号は正から負、あるいは負から正に切り替わる点に注意する。これは、視点の偏角を変えた観察方向によって上りの斜面と下りの斜面が変わることに対応する。傾斜角α’は−α〜+αの範囲を取り、例えば、斜面813では視点の偏角が|θ−β|=0のときα’=α(観察方向から見て上りの斜面)、|θ−β|=πのときα’=−α(下りの斜面)となる。 (Changes in scattered light intensity when the viewpoint is changed)
Next, changes in the scattered light intensity on the sample surface when the viewpoint is changed will be described.
In FIG. 8A, the edge direction of the surface unevenness is perpendicular to the x-axis in the xy plane, and the direction of elevation of the surface unevenness (direction perpendicular to the edge) is the angle of deviation θ (θ = 0) of the viewpoint. FIG. On the other hand, FIG. 8B is a diagram in the case where the direction of elevation change of the surface unevenness does not coincide with the x-axis. As shown in FIG. 8B, when the angle between the direction (821) perpendicular to the edge of the surface unevenness (820) and the x-axis is the unevenness direction angle β, the unevenness direction angle β and the deviation angle θ do not match. In this case, the surface irregularities 820 are observed from an oblique direction. At this time, the apparent inclination angle α ′ of the inclined surface 813 and the inclined surface 812 in the opposite direction viewed from the observation direction having the angle of deviation θ−β is
Figure 2015191362
It is obtained by From Equation 7, it can be seen that the apparent inclination angle α ′ is smaller than α, and the contrast C decreases due to the difference | θ−β | between the concave / convex direction angle β and the deviation angle θ.
Note that the sign of the inclination angles α and α ′ is switched from positive to negative or from negative to positive with | θ−β | as 90 degrees. This corresponds to the fact that the ascending slope and the descending slope change according to the observation direction in which the deflection angle of the viewpoint is changed. The inclination angle α ′ takes a range of −α to + α. For example, on the inclined surface 813, when the angle of deviation of the viewpoint is | θ−β | = 0, α ′ = α (upward inclined surface when viewed from the observation direction), | θ When −β | = π, α ′ = − α (downhill slope).

次に、視点の偏角がθ−βの方向から観察した斜面813の散乱光強度を平面811で観察される光の強度で正規化した、散乱光正規化強度V(φ,α)について考える。平面811で観察される光の強度をIts(φ)で表し、透過光の強度および散乱光の強度の和で構成される観察角φの関数とする。前記より、散乱光正規化強度V(φ,α)は以下の式で表せる。

Figure 2015191362
病理標本では表面凹凸の傾斜角αは十分に小さいと推定できるため、cosα=1、sinα=αの近似式を用いて、数8は以下のように近似できる。
Figure 2015191362
Next, consider the scattered light normalized intensity V (φ, α) obtained by normalizing the scattered light intensity of the inclined surface 813 observed from the direction of the angle θ−β of the viewpoint with the intensity of light observed on the plane 811. . The intensity of light observed on the plane 811 is expressed as I ts (φ), and is a function of the observation angle φ that is constituted by the sum of the intensity of transmitted light and the intensity of scattered light. From the above, the scattered light normalized intensity V (φ, α) can be expressed by the following equation.
Figure 2015191362
Since it can be estimated that the inclination angle α of the surface irregularities is sufficiently small in the pathological specimen, Equation 8 can be approximated as follows using an approximate expression of cos α = 1 and sin α = α.
Figure 2015191362

続いて、A(φ)およびB(φ)のとる値について述べる。
光の強度Its(φ)は照明光学系の特性から一般に観察角φに従って減少する傾向があるため、Iを観察角φ=0のときの透過光強度とし、Its(φ)=Icosφとして近似した場合、A(φ)=I/Iとなる。散乱光が透過光に比べて小さい場合、A(φ)は比較的小さな定数とみなすことができる。一方、B(φ)は、φ=0のとき、sinφ=0よりB(φ)=0となる。観察角φの増加に従ってsinφは増加し、また光の強度Its(φ)は減少すると見なせることから、B(φ)は増加関数となる。Its(φ)=Icosφと仮定すれば、B(φ)=I/I×tanφとなる。
Next, the values taken by A (φ) and B (φ) will be described.
Since the intensity of light I ts (φ) have a tendency to decrease with general viewing angle phi from the characteristics of the illumination optical system, a transmitted light intensity when viewing angle phi = 0 and I 1, I ts (φ) = I When approximated as 1 cos φ, A (φ) = I 0 / I 1 is obtained. If the scattered light is smaller than the transmitted light, A (φ) can be regarded as a relatively small constant. On the other hand, B (φ) becomes B (φ) = 0 from sinφ = 0 when φ = 0. Since sin φ increases and the light intensity I ts (φ) decreases as the observation angle φ increases, B (φ) is an increasing function. Assuming I ts (φ) = I 1 cos φ, B (φ) = I 0 / I 1 × tan φ.

MFI任意視点/焦点ぼけ画像生成法で計算する視点画像データでは、平均を維持する周波数フィルタ処理により、視点にかかわらず画像データの平均輝度は変化しない。従っ
て、視点画像データでの斜面813の輝度から染色部位の透過率の影響を受けた透過光強度を除いた値は、正規化強度V(φ,α)にほぼ等しいと考えることができる。
In the viewpoint image data calculated by the MFI arbitrary viewpoint / defocused image generation method, the average luminance of the image data does not change regardless of the viewpoint by the frequency filter processing that maintains the average. Therefore, it can be considered that a value obtained by removing the transmitted light intensity affected by the transmittance of the stained region from the luminance of the slope 813 in the viewpoint image data is substantially equal to the normalized intensity V (φ, α).

(視点を変えたときの透過光強度の変化)
次に、視点が異なる視点画像データでの透過光強度の変化について考える。
観察する標本において、隣接する物質との輝度差が少ない領域(細胞質や細胞境界)では視線方向が違っても輝度差は少なく、透過光の強度には影響が少ない。また、組織診病理標本のように厚みが4μm程度の比較的薄い標本では、標本表面にピントを合わせて計算した視点画像データでは観察される標本内部の物体の位置は大きくは変わらない。(MFI任意視点/焦点ぼけ画像生成法で計算される視点画像データではピントを合わせたZスタック画像データのZ位置Zfの近傍に存在する物体は、視点によらずほぼ同一の視点画像データのXY位置に現れる。それは複数視点の視点画像データを統合した画像データにおいてXY位置に差がないため、ぼけが少なくなることからも理解できる。)
従って、視点の位置を変えて求めた視点画像データ間での透過光強度の差は僅かと見なすことができ、散乱光正規化強度間の差分と視点画像データ間の差分はほぼ等しいと考えることができる。
(Change in transmitted light intensity when the viewpoint is changed)
Next, a change in transmitted light intensity in viewpoint image data with different viewpoints will be considered.
In the specimen to be observed, in a region where the luminance difference with the adjacent substance is small (cytoplasm or cell boundary), the luminance difference is small even if the line-of-sight direction is different, and the intensity of transmitted light is small. In the case of a comparatively thin specimen having a thickness of about 4 μm, such as a histological pathological specimen, the position of the object inside the specimen is not greatly changed in the viewpoint image data calculated by focusing on the specimen surface. (In the viewpoint image data calculated by the MFI arbitrary viewpoint / in-focus image generation method, the object existing in the vicinity of the Z position Zf of the focused Z stack image data is the XY of substantially the same viewpoint image data regardless of the viewpoint. (It can be understood from the fact that there is no difference in the XY position in the image data obtained by integrating the viewpoint image data of a plurality of viewpoints, so that the blur is reduced.)
Therefore, the difference in transmitted light intensity between the viewpoint image data obtained by changing the viewpoint position can be regarded as slight, and the difference between the scattered light normalized intensity and the difference between the viewpoint image data should be considered to be almost equal. Can do.

(視点の偏角θを変えた視点画像データからの標本表面の散乱光の情報の抽出)
続いて、偏角θを変えた視点画像データ間の演算により、標本表面の散乱光の情報を抽出することを考える。
図8の813に示す傾斜角αの所定の表面凹凸において、数7より、凹凸方向角βと偏角θの差|θ−β|が0度の場合、傾斜角はαであり、散乱光正規化強度V(φ,α)は最大となる。一方、|θ−β|が180度の場合、見かけ上の傾斜角α’は−αとなり、散乱光正規化強度V(φ,α’)は最小となる。
従って、|θ−β|が0になる視点画像データと|θ−β|が180度となる視点画像データの間で減算をすれば、効率的に標本表面の散乱光の情報(の一部)が抽出できることが分かる。以下に式を示す。

Figure 2015191362
(ただし、|θ−β|=πのときα’=−α) (Extraction of scattered light information on specimen surface from viewpoint image data with different viewpoint angle θ)
Next, it is considered to extract information on scattered light on the sample surface by calculation between viewpoint image data in which the deflection angle θ is changed.
In the predetermined surface asperity indicated by 813 in FIG. 8, when the difference | θ−β | between the concavo-convex direction angle β and the declination angle θ is 0 degree from Equation 7, the inclination angle is α, and the scattered light The normalized strength V (φ, α) is maximized. On the other hand, when | θ−β | is 180 degrees, the apparent inclination angle α ′ is −α, and the scattered light normalized intensity V (φ, α ′) is minimum.
Therefore, if subtraction is performed between the viewpoint image data in which | θ−β | becomes 0 and the viewpoint image data in which | θ−β | ) Can be extracted. The formula is shown below.
Figure 2015191362
(However, when | θ−β | = π, α ′ = − α)

標本の表面凹凸の傾斜角α、凹凸方向角βは様々であるため、偏角θを変えた様々な視点において偏角θが180度異なる視点の視点画像データ間で差分を求め、その結果を集めれば、標本表面の散乱光の情報が抽出できることが分かる。
なお、数10より、偏角θが180度異なる視点の視点画像データ間以外の演算であっても、散乱光の情報の抽出は可能であることが分かる。例えば、|θ−β|=π/2(90度)のときα’=0であり、視点画像データ間の差分からα×B(φ)が抽出できる。
また、減算だけでなく除算でも標本表面の散乱光の情報が抽出できる。すなわち、V(φ,α)/V(φ,α’)の値も傾斜角αに応じて変化するので、散乱光の情報を表す指標といえる。
Since the inclination angle α and the concavo-convex direction angle β of the surface irregularity of the specimen are various, the difference is obtained between the viewpoint image data of the viewpoints where the deflection angle θ is different by 180 degrees at various viewpoints where the deflection angle θ is changed. If collected, it can be seen that information on scattered light on the sample surface can be extracted.
Note that it can be seen from Equation 10 that the scattered light information can be extracted even when the calculation is performed between the viewpoint image data of viewpoints with different deflection angles θ of 180 degrees. For example, when | θ−β | = π / 2 (90 degrees), α ′ = 0, and α × B (φ) can be extracted from the difference between the viewpoint image data.
In addition, not only subtraction but also division can extract information on scattered light on the sample surface. That is, since the value of V (φ, α) / V (φ, α ′) also changes according to the inclination angle α, it can be said that it is an index representing the information of scattered light.

(視点の観察角φを変えた視点画像データからの標本表面の散乱光の情報の抽出)
続いて、前述の偏角θの場合と同様に、観察角φを変えた視点画像データ間の演算により、標本表面の散乱光の情報を抽出することを考える。
観察角がφとφ’の2つの視点画像データ間の減算は下記の式で表現できる。(ただし、A(φ)=A(φ’)と近似)

Figure 2015191362
(Extraction of scattered light information on specimen surface from viewpoint image data with different observation angle φ)
Subsequently, as in the case of the above-described declination angle θ, it is considered that information on scattered light on the sample surface is extracted by calculation between viewpoint image data with different observation angles φ.
The subtraction between the two viewpoint image data whose observation angles are φ and φ ′ can be expressed by the following equation. (However, approximating A (φ) = A (φ ′))
Figure 2015191362

既に述べたように、B(φ)はφの増加に伴って増加する関数であることから、観察角φを変えた2枚の視点画像データ間の演算により、標本表面の散乱光の情報(の一部)が抽出できることが分かる。B(φ)はφ=0のとき0となるため、観察角φの視点画像データと観察角φ’が0になる視点の視点画像データとの減算が最も効果的である。
前述の偏角θの場合と同様、標本中の凹凸方向角βは様々であるため、観察角φだけでなく、偏角θを変えた様々な視点において視点画像データ間で差分を求め、その結果を集めれば、標本表面の散乱光の情報が抽出できることが分かる。
As already described, since B (φ) is a function that increases as φ increases, information on scattered light on the sample surface (by the calculation between two viewpoint image data with different observation angles φ) ( It can be seen that a part of () can be extracted. Since B (φ) is 0 when φ = 0, subtraction between the viewpoint image data at the observation angle φ and the viewpoint image data at the viewpoint at which the observation angle φ ′ is 0 is most effective.
As in the case of the above-mentioned declination angle θ, the uneven direction angle β in the sample is various, so not only the observation angle φ but also the difference between the viewpoint image data at various viewpoints with the declination angle θ changed. By collecting the results, it can be seen that the information on the scattered light on the sample surface can be extracted.

また、減算だけでなく除算でも標本表面の散乱光の情報が抽出できる。これまでの説明から、観察角φにおける視点画像データの輝度は、α×B(φ)+D(Dは定数)で近似できるため、観察角φを変えた視点画像データ間の輝度の除算は、

Figure 2015191362
で表現できる。
DIV(φ,φ’)は、αが0のとき1となり、αが0でないときはαの大きさに応じて強度が変わる。よって、除算DIV(φ,φ’)によっても、傾斜角αの情報が抽出できることになる。
減算の場合と同様に、観察角φだけでなく、偏角θを変えた様々な視点において視点画像データ間で除算をし、その結果を集めれば、標本表面の散乱光の情報が抽出できる。 In addition, not only subtraction but also division can extract information on scattered light on the sample surface. From the above description, since the luminance of the viewpoint image data at the observation angle φ can be approximated by α × B (φ) + D (D is a constant), the luminance division between the viewpoint image data with the observation angle φ changed is
Figure 2015191362
Can be expressed as
DIV (φ, φ ′) is 1 when α is 0, and when α is not 0, the intensity changes according to the magnitude of α. Therefore, the information of the inclination angle α can be extracted also by the division DIV (φ, φ ′).
As in the case of subtraction, by dividing the viewpoint image data from various viewpoints with different not only the observation angle φ but also the deflection angle θ, and collecting the results, information on the scattered light on the sample surface can be extracted.

本実施例のように透過型の顕微鏡により撮影した画像データ(顕微鏡画像データ)には、標本を透過した光による透過光成分と、標本の表面等で散乱した光による散乱光成分とが含まれる。透過光成分の強度は標本の光の透過率に依存するので、標本内の色の違いや屈折率の違いなどを表している。一方、散乱光成分の強度は、前述のように、主に標本表面の凹凸(表面形状)に依存する。元画像データとしての顕微鏡画像データでは透過光成分が支配的なため散乱光成分は殆ど認識できないが、上記のように観察方向の異なる複数の視点画像データの間の差異を抽出ないし強調することで、散乱光成分を抽出ないし強調できる。言い換えれば、観察方向の異なる2つの視点画像データの「差(差分)」および「比」は、元画像データに含まれる散乱光成分(散乱光の情報)を表している特徴量といえる。
なお、「強調」とは、ある部分を(元の状態よりも)目立たせる操作であり、「抽出」とは、ある部分のみを取り出す操作であるが、ある部分に注目するという点では同じ操作であるため、本明細書では二つの用語を特に区別せずに用いる場合もある。また、散乱光成分の強調という操作には、画像データ中の散乱光成分の強度を上げる操作だけでなく、画像データ中の透過光成分の強度を下げることで散乱光成分の強度を相対的に上げる操作も該当する。以降、画像データに含まれる散乱光成分(散乱光の情報)を抽出ないし強調して得られる画像データを散乱画像データ又は特徴画像データとよぶ。また、元画像データから散乱画像データを生成する操作を散乱画像データ生成(特徴画像データ生成)とよぶ。
また本発明では、散乱画像データのうち、被写体から散乱光を抽出した画像データを散乱光抽出画像データ、被写体の散乱光を強調した画像データを散乱光強調画像データとよぶこととする。
なお、視点画像データの差異を抽出ないし強調する演算として減算と除算を例示したが、画像データの差異を強調できればどのような演算を用いてもよい。
Image data (microscope image data) taken with a transmission microscope as in the present embodiment includes a transmitted light component due to light transmitted through the specimen and a scattered light component due to light scattered on the surface of the specimen. . Since the intensity of the transmitted light component depends on the light transmittance of the sample, it represents a color difference or a refractive index difference in the sample. On the other hand, as described above, the intensity of the scattered light component mainly depends on the unevenness (surface shape) of the sample surface. In the microscope image data as the original image data, the scattered light component is hardly recognized because the transmitted light component is dominant. However, as described above, by extracting or emphasizing the difference between the plurality of viewpoint image data with different observation directions. Scattered light components can be extracted or emphasized. In other words, the “difference (difference)” and “ratio” between two viewpoint image data with different observation directions can be said to be feature amounts representing scattered light components (scattered light information) included in the original image data.
Note that “emphasis” is an operation that makes a part stand out (than the original state), and “extraction” is an operation that takes out only a part, but the same operation in that it focuses on a part Therefore, in this specification, the two terms are sometimes used without distinction. In addition, the operation of enhancing the scattered light component includes not only an operation of increasing the intensity of the scattered light component in the image data, but also reducing the intensity of the scattered light component relatively by reducing the intensity of the transmitted light component in the image data. The operation to raise is also applicable. Hereinafter, image data obtained by extracting or enhancing scattered light components (scattered light information) included in image data is referred to as scattered image data or feature image data. An operation for generating scattered image data from original image data is referred to as scattered image data generation (feature image data generation).
In the present invention, among scattered image data, image data obtained by extracting scattered light from a subject is referred to as scattered light extracted image data, and image data obtained by enhancing scattered light from the subject is referred to as scattered light emphasized image data.
Note that subtraction and division are exemplified as operations for extracting or enhancing the difference in viewpoint image data, but any operation may be used as long as the difference in image data can be enhanced.

散乱画像データは、標本表面の凹凸(表面形状)の観察及びそれに基づく診断に適した観察用画像データとして利用価値があるものと期待される。例えば、標本内のある領域の
表面に凹凸があったとしても、その領域内の透過率がほぼ均一な場合には、元画像データではその領域の輝度又は色は一様になるため、目視では凹凸を認識できない。散乱画像データはこのような表面凹凸(輝度や色の変化として現れない表面凹凸)を可視化するのに特に有効である。また、細胞境界や細胞と類洞の境目なども凹凸があるので、散乱画像データはこれらの境界を明瞭化する効果もある。なお、画像特徴を抽出ないし強調する処理の一つにエッジ抽出(強調)処理があるが、画像の輝度や色の変化として現れない表面凹凸については、エッジ抽出(強調)では可視化できない。よって、標本のどのような構造ないし特徴を観察したいかに応じて、散乱画像データ抽出とエッジ抽出を使い分けるとよい。
The scattered image data is expected to be useful as observation image data suitable for observation of unevenness (surface shape) on the sample surface and diagnosis based thereon. For example, even if the surface of a certain area in the sample is uneven, if the transmittance in that area is almost uniform, the luminance or color of that area will be uniform in the original image data. Unevenness cannot be recognized. The scattered image data is particularly effective for visualizing such surface unevenness (surface unevenness that does not appear as a change in luminance or color). Further, since the cell boundary and the boundary between the cell and the sinusoid are also uneven, the scattered image data has an effect of clarifying these boundaries. Note that edge extraction (emphasis) is one of the processes for extracting or enhancing image features, but surface irregularities that do not appear as changes in image brightness or color cannot be visualized by edge extraction (emphasis). Therefore, the scattered image data extraction and the edge extraction may be used properly depending on what structure or feature of the specimen is desired to be observed.

なお、これまで主に散乱光が標本表面で発生する場合について説明したが、観察対象は必ずしも標本表面に限らない。フォーカスを合わせた位置(Z=Zf)に散乱の原因となる、周囲と屈折率が異なる物質などが存在する場合でも標本表面の散乱現象と同様に考えることができ、散乱画像データを用いて観察できる。   Although the case where scattered light is mainly generated on the sample surface has been described so far, the observation target is not necessarily limited to the sample surface. Even when there is a substance with a different refractive index from the surroundings that causes scattering at the focused position (Z = Zf), it can be considered in the same way as the scattering phenomenon on the sample surface, and observation is performed using scattered image data. it can.

(MFI任意視点/焦点ぼけ画像生成法における3次元的な結像関係)
ここまで被写体の表面(フォーカスを合わせた面)での散乱光が持つ特徴について述べた。しかし、被写体には散乱光だけでなく、透過光も存在する。視点画像データにおける透過光の影響について述べるにあたり、まず、MFI任意視点/焦点ぼけ画像生成法における3次元的な結像関係について説明する。
(Three-dimensional imaging relationship in MFI arbitrary viewpoint / focal image generation method)
So far, we have described the characteristics of scattered light on the surface of the subject (the focused surface). However, not only scattered light but also transmitted light exists in the subject. In describing the influence of transmitted light on viewpoint image data, first, the three-dimensional imaging relationship in the MFI arbitrary viewpoint / defocused image generation method will be described.

MFI任意視点/焦点ぼけ画像生成法では、座標変換を施した焦点ぼけ画像群(Zスタック画像データ)が3次元的な被写体と3次元焦点ぼけのコンボリューションによって表される関係が成立している。3次元被写体をf(X,Y,Z)、3次元焦点ぼけをh(X,Y,Z)、座標変換を施した焦点ぼけ画像群(Zスタック画像データ)をg(X,Y,Z)とすると以下の式が成立する。

Figure 2015191362
(ただし、***は3次元コンボリューションを表す。) In the MFI arbitrary viewpoint / defocused image generation method, a relationship in which a defocused image group (Z stack image data) subjected to coordinate transformation is represented by a convolution of a three-dimensional subject and three-dimensional defocus is established. . F (X, Y, Z) for a three-dimensional subject, h (X, Y, Z) for three-dimensional defocus, and g (X, Y, Z) for a defocused image group (Z stack image data) subjected to coordinate transformation ), The following formula is established.
Figure 2015191362
(However, *** represents a three-dimensional convolution.)

図10(a)〜図10(f)は3次元被写体の異なるZ位置に物体が存在する場合のZスタック画像データの違いを示す模式図である。3次元被写体1001はZ=Zfの位置に物体が存在し、3次元被写体1011ではZ=Zoの位置に物体が存在する。
3次元焦点ぼけ1002を持つ光学系を用いてZ方向の焦点位置を変えながら、3次元被写体1001、1011を撮影することで、それぞれZスタック画像データ1003、1013が得られる。(なお、3次元焦点ぼけh(X,Y,Z)は座標変換によってシフト不変に変換されるため、同一である。)自明だが、Zスタック画像データ1003ではZ=Zfの位置で、Zスタック画像データ1013ではZ=Zoの位置で最も焦点ぼけが少ない画像データが得られる。
FIG. 10A to FIG. 10F are schematic diagrams showing differences in Z stack image data when an object exists at a different Z position of a three-dimensional subject. The three-dimensional subject 1001 has an object at the position of Z = Zf, and the three-dimensional subject 1011 has an object at the position of Z = Zo.
The Z stack image data 1003 and 1013 are obtained by photographing the three-dimensional subjects 1001 and 1011 while changing the focal position in the Z direction using an optical system having a three-dimensional focal blur 1002, respectively. (Note that the three-dimensional defocus h (X, Y, Z) is the same because it is converted to shift invariant by coordinate conversion.) Obviously, in the Z stack image data 1003, the Z stack is at the position of Z = Zf. With the image data 1013, image data with the least defocus is obtained at the position of Z = Zo.

(MFI任意視点/焦点ぼけ画像生成法での任意視点画像データの計算)
MFI任意視点/焦点ぼけ画像生成法として特許文献1、非特許文献2,3,4の方法が知られている。一例として非特許文献2の方法による任意視点画像データ生成方法を説明する。
視点(s,t)に対応する視線方向から観察した視点画像データをas,t(X,Y,Zf)とする。as,t(X,Y,Zf)は、同一の視線方向のZスタック画像データの積算画像データbs,t(X,Y,Zf)を、同一の視線方向の撮像光学系の3次元焦点ぼけの積分値cs,t(X,Y,Zf)でデコンボリューションして得られる。(図10で説明される関係、即ち、f(X,Y,Z)とh(X,Y,Z)をコンボリューションす
ることでg(X,Y,Z)が得られる関係は視線方向への積分にかかわらず成立する。)
(Calculation of arbitrary viewpoint image data in the MFI arbitrary viewpoint / defocused image generation method)
As an MFI arbitrary viewpoint / defocused image generation method, methods disclosed in Patent Document 1 and Non-Patent Documents 2, 3, and 4 are known. As an example, an arbitrary viewpoint image data generation method according to the method of Non-Patent Document 2 will be described.
The viewpoint image data observed from the line-of-sight direction corresponding to the viewpoint (s, t) is assumed to be as , t (X, Y, Zf). a s, t (X, Y, Zf) is the integrated image data b s, t (X, Y, Zf) of the Z stack image data in the same line-of-sight direction, and the three-dimensional imaging optical system in the same line-of-sight direction. It is obtained by deconvolution with the integrated value c s, t (X, Y, Zf) of defocus. (The relationship described in FIG. 10, that is, the relationship in which g (X, Y, Z) is obtained by convolving f (X, Y, Z) and h (X, Y, Z) is in the direction of the line of sight. This is true regardless of the integral of.)

式で表現すると以下の関係が成立する。

Figure 2015191362
ただし、As,t(u,v),Bs,t(u,v),Cs,t(u,v)はそれぞれas,t(X,Y,Zf)、bs,t(X,Y,Zf)、cs,t(X,Y,Zf)のフーリエ変換である。u,vはそれぞれX,Y方向の変化に対応する周波数座標である。
s,t(X,Y,Zf)は以下の式で求められる。
Figure 2015191362
ただし、F−1{}はフーリエ逆変換を表す。 When expressed in terms of an expression, the following relationship holds.
Figure 2015191362
However, A s, t (u, v), B s, t (u, v), C s, t (u, v) are a s, t (X, Y, Zf), b s, t ( X, Y, Zf), cs , t (X, Y, Zf). u and v are frequency coordinates corresponding to changes in the X and Y directions, respectively.
a s, t (X, Y, Zf) is obtained by the following equation.
Figure 2015191362
However, F < -1 > {} represents a Fourier inverse transform.

次に、MFI任意視点/焦点ぼけ画像生成法における任意視点画像データと任意焦点ぼけ画像データの関係について説明する。
図11(a)〜図11(h)は、3次元被写体の異なるZ位置に物体が存在する場合のMFI任意視点/焦点ぼけ画像生成法で求める任意視点画像データと任意焦点ぼけ画像データの関係を示す模式図である。
図11(a)の1100、図11(e)の1110は3次元被写体であり、それぞれ図10(a)の1001、図10(d)の1011と等しい。3次元被写体1100および1110中の実線で表す光線は、被写体中の物体を通り、かつ光学系のレンズ面上のそれぞれに対応した所定の視点を通る光線を表す。なお、図11(e)中の破線は図11(a)中の実線に対応している。
光線1100aおよび1110aはレンズ面上のある視点aを通る光線であり、視点に対応する視線方向からZ=Zfの位置が焦点位置となるように観察した視点画像データはそれぞれ、図11(b)の1101、図11(f)の1111となる。また同様に光線1100bおよび1110bはレンズ面上のある視点bを通る光線であり、それぞれのZ=Zfの位置が焦点位置となるように観察した視点画像データは図11(c)の1102、図11(g)の1112となる。
Next, the relationship between arbitrary viewpoint image data and arbitrary defocus image data in the MFI arbitrary viewpoint / defocus image generation method will be described.
11A to 11H show the relationship between arbitrary viewpoint image data and arbitrary defocused image data obtained by the MFI arbitrary viewpoint / defocused image generation method when an object exists at a different Z position of a three-dimensional subject. It is a schematic diagram which shows.
Reference numeral 1100 in FIG. 11A and reference numeral 1110 in FIG. 11E denote three-dimensional objects, which are equal to 1001 in FIG. 10A and 1011 in FIG. Light rays represented by solid lines in the three-dimensional subjects 1100 and 1110 represent light rays that pass through an object in the subject and pass through a predetermined viewpoint corresponding to each on the lens surface of the optical system. In addition, the broken line in FIG.11 (e) respond | corresponds to the continuous line in Fig.11 (a).
Rays 1100a and 1110a are rays passing through a certain viewpoint a on the lens surface, and the viewpoint image data observed so that the position of Z = Zf is the focal position from the line-of-sight direction corresponding to the viewpoint is shown in FIG. 1101 of FIG. 11 and 1111 of FIG. Similarly, the light rays 1100b and 1110b are light rays passing through a certain viewpoint b on the lens surface, and the viewpoint image data observed so that the position of each Z = Zf becomes the focal position is 1102 in FIG. 11 (g) 1112.

視点画像データ1101、1102では物体の像は同一の位置に現れる。これに対し、視点画像データ1111、1112では物体の像の位置は同一の位置に現れず、それぞれ、ZfとZoの間の距離dZ(=Zo−Zf)と視線方向で決まる量だけシフトして現れる。
MFI任意視点/焦点ぼけ画像生成法では、Zスタック画像データのZ=Zfの位置のレイヤー画像データg(X,Y,Zf)は以下の式で表現できる。

Figure 2015191362
In the viewpoint image data 1101 and 1102, the image of the object appears at the same position. On the other hand, in the viewpoint image data 1111, 1112, the position of the object image does not appear at the same position, and is shifted by an amount determined by the distance dZ (= Zo−Zf) between Zf and Zo and the line-of-sight direction. appear.
In the MFI arbitrary viewpoint / defocus image generation method, the layer image data g (X, Y, Zf) at the position of Z = Zf in the Z stack image data can be expressed by the following expression.
Figure 2015191362

ここで、k(s,t)は撮像光学系の3次元焦点ぼけを間接的に表す関数で、レンズ面上の各視点(s,t)を通る光線の相対強度分布を表している。k(s,t)とh(X,Y,Z)の間には以下の関係が成立する。

Figure 2015191362
k(s,t)は以下の式に示すように、レンズ面上に存在する全ての視点(s,t)での総和が1になるように規格化されているものとする。
Figure 2015191362
Here, k (s, t) is a function that indirectly represents the three-dimensional defocus of the imaging optical system, and represents the relative intensity distribution of light rays passing through each viewpoint (s, t) on the lens surface. The following relationship is established between k (s, t) and h (X, Y, Z).
Figure 2015191362
It is assumed that k (s, t) is standardized so that the sum at all viewpoints (s, t) existing on the lens surface is 1, as shown in the following equation.
Figure 2015191362

また、数16のas,t(X,Y,Zf)はZ=Zfにおける視点画像データを表す。
数16から、あるZ位置(Z=Zf)における複数の視点画像データを重み付け合成することによって、そのZ位置(Z=Zf)における任意の焦点ぼけをもつ画像データ、すなわち、任意焦点ぼけ画像データを再構成できることが分かる。
Further, a s, t (X, Y, Zf) in Expression 16 represents viewpoint image data at Z = Zf.
From Expression 16, a plurality of viewpoint image data at a certain Z position (Z = Zf) is weighted and combined to obtain image data having an arbitrary defocus at the Z position (Z = Zf), that is, arbitrary defocus image data. Can be reconstructed.

以降の説明では、k(s,t)のように、複数の画像データを統合する際の視点(s,t)ごと(視線方向ごと)の重みを定義する関数を「視点重み関数」とよぶ。視点重み関数は、被写体上のある点から発し視点(s,t)を通る光線の相対強度分布を表しているともいえる。上記のk(s,t)は、被写体の撮影に用いた撮像光学系の3次元焦点ぼけに対応する特性をもつ視点重み関数である。なお、視点重み関数としては、どのような関数を用いてもよい。例えば、MFI任意視点/焦点ぼけ画像生成法で任意焦点ぼけ画像データを生成するための、任意の3次元焦点ぼけに対応するk(s,t)も視点重み関数として用いることができる。また、後述の実施例で例示する円柱形のような任意の形状の関数を視点重み関数として用いることもできる。
なお、数16の式は連続的な値の積分を意味するインテグラル∫で表記されているが、実際の画像処理では離散的な(有限個の)複数の視点(s,t)に対する演算であるためシグマΣで表記するのが正しい。しかし、インテグラル∫の方が一般化できるため、以降の説明でもインテグラル∫を用いて説明する。なお、視点が離散的(有限個)である場合では、数18は演算で用いる全ての視点重み関数k(s,t)あるいはk(s,t)の和が1となるように規格化することを表す。
In the following description, a function that defines a weight for each viewpoint (s, t) (for each line-of-sight direction) when integrating a plurality of image data, such as k (s, t), is referred to as a “viewpoint weight function”. . It can be said that the viewpoint weighting function represents the relative intensity distribution of light rays that originate from a certain point on the subject and pass through the viewpoint (s, t). The above k (s, t) is a viewpoint weighting function having characteristics corresponding to the three-dimensional defocusing of the imaging optical system used for photographing the subject. Any function may be used as the viewpoint weight function. For example, k a (s, t) corresponding to arbitrary three-dimensional defocusing for generating arbitrary defocused image data by the MFI arbitrary viewpoint / defocused defocus image generation method can also be used as the viewpoint weight function. In addition, a function having an arbitrary shape such as a cylindrical shape exemplified in an example described later can be used as the viewpoint weight function.
In addition, although the expression of Formula 16 is expressed by an integral 意味 which means integration of continuous values, in actual image processing, it is an operation for a plurality of discrete (finite) viewpoints (s, t). Because it is, it is correct to use Sigma Σ. However, since integral ∫ can be generalized, the following description will be made using integral ∫. In the case viewpoint are discrete (finite) number 18 normalized such that the sum of 1 of all viewpoints weighting function k (s, t) used in calculating or k a (s, t) Represents what to do.

(Z=Zfにおけるぼけ像)
次に、MFI任意視点/焦点ぼけ画像生成法を用いて、Z=Zfにおける視点画像データからZスタック画像データのZ=Zfの位置のレイヤー画像データを求める。
ここで、3次元被写体1001および1011において、点物体が光学系の光軸上に存在し、光軸を通る視点から見た視点画像データ(全焦点画像データ)が以下の式で表されるとする。

Figure 2015191362
ただし、関数δはディラックのデルタ関数である。aは点物体の強度(画素値)であり、bは背景の強度である。 (Blurred image at Z = Zf)
Next, layer image data at a position of Z = Zf in the Z stack image data is obtained from the viewpoint image data at Z = Zf by using the MFI arbitrary viewpoint / defocused image generation method.
Here, in the three-dimensional subjects 1001 and 1011, when a point object exists on the optical axis of the optical system and viewpoint image data (omnifocal image data) viewed from a viewpoint passing through the optical axis is expressed by the following expression. To do.
Figure 2015191362
However, the function δ is a Dirac delta function. a is the intensity (pixel value) of the point object, and b is the intensity of the background.

以下、数16を用いて、3次元被写体1001および1011を撮影したときの、Zスタック画像データのZ=Zfの位置のレイヤー画像データを求める。   Hereinafter, the layer image data at the position of Z = Zf in the Z stack image data when the three-dimensional subjects 1001 and 1011 are photographed is obtained using Equation 16.

(3次元被写体1001のZ=Zfにおけるレイヤー画像データ)
物体の厚みが無視できるとすると、数16の視点画像データas,t(X,Y,Zf)は視点の位置(s,t)にかかわらず、I(X,Y,Zf)で表せる。従って、数19を数16に代入し、変形すると以下の式で表されるレイヤー画像データが得られる。

Figure 2015191362
(Layer image data of Z = Zf of the three-dimensional subject 1001)
If the thickness of the object can be ignored, the viewpoint image data a s, t (X, Y, Zf) of Expression 16 can be expressed by I (X, Y, Zf) regardless of the position (s, t) of the viewpoint. Therefore, by substituting Equation 19 into Equation 16 and transforming it, layer image data represented by the following equation is obtained.
Figure 2015191362

(3次元被写体1011のZ=Zfにおけるレイヤー画像データ)
同様に、物体の厚みが無視できるとすると、数16の視点画像データas,t(X,Y
,Zf)はI(X,Y,Zf)の平行移動で表せる。従って、視点(s,t)と被写体と焦点位置の距離dZに応じて数19を平行移動した上で数16に代入し、数17、数18を用いて変形すると以下の式となる。

Figure 2015191362
Zスタック画像データg(X,Y,Zf)には被写体と焦点位置のずれdZによる焦点ぼけが含まれることがわかる。 (Layer image data of Z = Zf of the three-dimensional subject 1011)
Similarly, if the thickness of the object is negligible, the viewpoint image data a s, t (X, Y
, Zf) can be expressed by translation of I (X, Y, Zf). Accordingly, the following equation is obtained when Equation 19 is translated according to the distance dZ between the viewpoint (s, t), the subject and the focal position, and is substituted into Equation 16 and transformed using Equations 17 and 18.
Figure 2015191362
It can be seen that the Z stack image data g (X, Y, Zf) includes a defocus due to a deviation dZ between the subject and the focus position.

図11(d)および図11(h)の焦点ぼけ画像データ(レイヤー画像データ)1103、1113は、レンズ面上に設定した多数の視点に対応する複数の視点画像データから求めた、Z=Zfにおけるレイヤー画像データの模式図である。レイヤー画像データ1103は数20に対応する画像データを表し、1113は数21に対応する画像データを表している。
レイヤー画像データ1103では、物体の像の位置がシフトしていない視点画像データに視点重み関数を掛け算し、視点数分だけ統合されるため、ぼけの無い像が得られる。一方、レイヤー画像データ1113では、物体の像の位置がシフトした視点画像データに視点重み関数を掛け算し、視点数分だけ統合されるため、光学系のぼけを含んだ像が得られている。
被写体の焦点位置からのずれdZが存在する場合、各々の視点画像データには物体の像の位置のシフトが発生し、物体の周囲との輝度差は(a−b)となるため、dZと輝度差(a−b)が大きいほど、各視点画像データ間の差が大きくなることが分かる。
The defocused image data (layer image data) 1103 and 1113 in FIGS. 11D and 11H are obtained from a plurality of viewpoint image data corresponding to a large number of viewpoints set on the lens surface, Z = Zf. It is a schematic diagram of layer image data in. The layer image data 1103 represents image data corresponding to Expression 20, and 1113 represents image data corresponding to Expression 21.
In the layer image data 1103, the viewpoint image data whose position of the object image is not shifted is multiplied by the viewpoint weight function and integrated by the number of viewpoints, so that an image without blur is obtained. On the other hand, in the layer image data 1113, the viewpoint image data in which the position of the object image is shifted is multiplied by the viewpoint weight function and integrated by the number of viewpoints, so that an image including the blur of the optical system is obtained.
When there is a deviation dZ from the focal position of the subject, a shift in the position of the object image occurs in each viewpoint image data, and the luminance difference from the surroundings of the object becomes (ab), so that dZ and It can be seen that the larger the luminance difference (ab) is, the larger the difference between the viewpoint image data is.

(視点画像データを用いた散乱画像データの抽出方法)
続いて、視点画像データを用いた散乱画像データの抽出方法について説明する。
被写体の焦点位置からのずれdZが0であるとすると、既に数10で説明したように、所定の視点(s,t)の視点画像データと、同一の観察角φで偏角θが180度異なる視点の視点画像データとの間で減算すると、散乱画像データを抽出することが出来る。
以下、式を用いて説明する。
(Method of extracting scattered image data using viewpoint image data)
Next, a method for extracting scattered image data using viewpoint image data will be described.
Assuming that the deviation dZ from the focal position of the subject is 0, as already described in Equation 10, the angle θ is 180 degrees at the same observation angle φ as the viewpoint image data of the predetermined viewpoint (s, t). When subtraction is performed between the viewpoint image data of different viewpoints, the scattered image data can be extracted.
Hereinafter, description will be made using equations.

(偏角θの異なる視点画像データ間の演算)
図7(a)に示す座標系において、処理対象の視点P0の座標を(x,y)=(s,t)とすると、180度回転した視点P1の座標は(x,y)=(−s,−t)となる。(偏角の回転角が180度以外の角度でも散乱画像データの抽出は可能だが、ここでは最も効果の大きな180度の回転の場合について説明する。)
(Calculation between viewpoint image data with different declination θ)
In the coordinate system shown in FIG. 7A, when the coordinates of the viewpoint P0 to be processed are (x, y) = (s p , t p ), the coordinates of the viewpoint P1 rotated 180 degrees are (x, y) = (−s p , −t p ). (The scattered image data can be extracted even when the rotation angle of the declination is other than 180 degrees, but here, the case of the 180 degree rotation that is the most effective will be described.)

視点P0の視線方向からZ=Zfの位置が焦点位置となるように観察した視点画像データをIP0(X,Y,Zf)、偏角回転視点P1の視線方向からZ=Zfの位置が焦点位置となるように観察した視点画像データをIP1(X,Y,Zf)とする。また、視点P0の視点画像データから求めた散乱画像データである視点散乱画像データをSP0(X,Y,Zf)とする。
その場合、下記の数22または数23に示す演算により、標本表面の散乱光の情報を抽出することができる。

Figure 2015191362
Figure 2015191362
数22において1/2の係数を掛ける理由は、視点P0および視点P1のそれぞれに対応する視線方向から観察した場合に大きくなる散乱光が絶対値によって同時に抽出され、倍の強度となるのを防ぐためである。数23では視点P1と比較して視点P0の視点画像データの強度の大きな画素を散乱光が強く発生している画素とみなし、差分が正になる画素の値だけを用いる。 I P0 (X, Y, Zf) is the viewpoint image data observed so that the position of Z = Zf is the focal position from the viewing direction of the viewpoint P0, and the position of Z = Zf is focused from the viewing direction of the declination rotation viewpoint P1. Let the viewpoint image data observed so as to be in position be I P1 (X, Y, Zf). Further, let the viewpoint scattered image data, which is the scattered image data obtained from the viewpoint image data of the viewpoint P0, be S P0 (X, Y, Zf).
In that case, the scattered light information on the sample surface can be extracted by the calculation shown in the following Equation 22 or 23.
Figure 2015191362
Figure 2015191362
The reason for multiplying by a factor of 1/2 in Equation 22 is that scattered light that becomes large when observed from the line-of-sight direction corresponding to each of the viewpoints P0 and P1 is simultaneously extracted by the absolute value to prevent double intensity. Because. In Equation 23, a pixel whose intensity of the viewpoint image data of the viewpoint P0 is higher than that of the viewpoint P1 is regarded as a pixel in which scattered light is strongly generated, and only a pixel value having a positive difference is used.

以下、数22、数23の演算式により、標本表面の散乱光の情報が抽出できる理由を説明する。既に述べたように、視点を変えたときの視点画像データの透過光の強度変化は少ない一方、標本表面の散乱光による輝度変化は偏角θに従って大きく変化する。従って、視点を変えた視点画像データ間の減算により、画像データ中の透過光成分はキャンセルされ、散乱光成分(散乱光の情報)が抽出できる。透過光成分は完全にキャンセルできなくてもよい。画像データ中の透過光成分の強度が弱められ、相対的に画像データ中の散乱光成分が強調された画像データを得ることができれば、そのような操作も散乱画像データの生成ということができる。   Hereinafter, the reason why the information on the scattered light on the specimen surface can be extracted by the arithmetic expressions of Expressions 22 and 23 will be described. As described above, the intensity change of the transmitted light of the viewpoint image data when the viewpoint is changed is small, while the luminance change due to the scattered light on the sample surface changes greatly according to the deviation angle θ. Therefore, the transmitted light component in the image data is canceled by subtraction between the viewpoint image data with different viewpoints, and the scattered light component (scattered light information) can be extracted. The transmitted light component may not be completely cancelled. If the intensity of the transmitted light component in the image data is weakened and image data in which the scattered light component in the image data is relatively enhanced can be obtained, such an operation can also be referred to as generation of scattered image data.

偏角回転角が180度である場合、視点P0の偏角で散乱光が最大となる凹凸方向角を持つ表面凹凸の散乱光は、視点P1の偏角で最小となる。同様に、視点P1の偏角で散乱光が最大となる凹凸方向角を持つ表面凹凸の散乱光は視点P0の偏角で最小となる。
従って、視点P0の視点画像データと視点P1の視点画像データの差分D(X,Y,Zf)を求めれば、視点P0およびP1の偏角で散乱光が最大となる凹凸方向角を持つ表面凹凸の散乱光の情報を画像データとして抽出できる。
When the declination rotation angle is 180 degrees, the scattered light of the surface unevenness having the unevenness direction angle at which the scattered light is maximized at the declination angle of the viewpoint P0 is minimum at the declination angle of the viewpoint P1. Similarly, the scattered light of the surface unevenness having the unevenness direction angle at which the scattered light becomes the maximum at the deflection angle of the viewpoint P1 becomes the minimum at the deflection angle of the viewpoint P0.
Accordingly, if the difference D 1 (X, Y, Zf) between the viewpoint image data of the viewpoint P0 and the viewpoint image data of the viewpoint P1 is obtained, the surface having the concavo-convex direction angle that maximizes the scattered light at the deviation angles of the viewpoints P0 and P1. Information on uneven scattered light can be extracted as image data.

数22、数23において、視点散乱画像データSP0(X,Y,Zf)の計算に差分D(X,Y,Zf)の絶対値、あるいは正の値を用いる理由は、視点画像データから求めた視点散乱画像データを複数統合する過程で非線型性が必要となるためである。絶対値をとらない場合、様々な視点で視点画像データ間の差を求めた後に、その差分の和を取る操作は、様々な視点の視点画像データの和を取った後に差を取る操作と等しくなる。その場合、視点画像データ同士が互いに打ち消し合って、得られる統合像は実質的に0となる。従って、視点散乱画像データSP0(X,Y,Zf)では前記の打ち消し合いを防ぐため、非線型な関数を用いている。
なお、非線型な関数とは以下の式に示すように、所定の画像データ(視点画像データ)に関数を適用した後で複数加算した結果と、所定の画像データ(視点画像データ)を複数加算した後で関数を適用した結果とが、一致しない性質をもつ関数であるとする。

Figure 2015191362
ただし、Nは視点の数、D(i)は視点iにおける視点画像データと偏角回転視点画像データの差分画像データ、S()は関数であり、数22、数23のSP0(X,Y,Zf)を求める式に対応する。 In the equations 22 and 23, the reason why the absolute value or the positive value of the difference D 1 (X, Y, Zf) is used in the calculation of the viewpoint scattered image data S P0 (X, Y, Zf) is based on the viewpoint image data. This is because nonlinearity is required in the process of integrating a plurality of obtained viewpoint scattered image data. If the absolute value is not taken, the operation of calculating the difference between the viewpoint image data from various viewpoints and then calculating the sum of the differences is equivalent to the operation of calculating the difference after calculating the sum of the viewpoint image data of various viewpoints. Become. In that case, the viewpoint image data cancel each other, and the resultant integrated image is substantially zero. Therefore, in the scattered viewpoint image data S P0 (X, Y, Zf), a non-linear function is used to prevent the cancellation.
As shown in the following equation, a nonlinear function is a result of adding a plurality of functions after applying the function to predetermined image data (viewpoint image data) and a plurality of predetermined image data (viewpoint image data). After that, the result of applying the function is assumed to be a function having a property that does not match.
Figure 2015191362
Here, N is the number of viewpoints, D (i) is the difference image data of the viewpoint image data and the declination rotation viewpoint image data at the viewpoint i, S () is a function, and S P0 (X, This corresponds to the equation for obtaining Y, Zf).

続いて、様々な視点に対して、数22、数23の視点散乱画像データSP0(X,Y,Zf)を積分した画像データ、即ち、散乱画像データDS(X,Y,Zf)について考える。散乱画像データDS(X,Y,Zf)を求める式は以下で表現される。

Figure 2015191362
ただし、k(s,t)は任意の視点重み関数であるとする。 Subsequently, image data obtained by integrating the viewpoint scattered image data S P0 (X, Y, Zf) of Expressions 22 and 23, that is, scattered image data DS (X, Y, Zf) is considered for various viewpoints. . An expression for obtaining the scattered image data DS (X, Y, Zf) is expressed as follows.
Figure 2015191362
However, k (s, t) is an arbitrary viewpoint weight function.

様々な視点(s,t)に対して数25の積分を行えば、様々な方向の散乱光成分を集めることができる。
なお、数22の演算では、視点P0の視点散乱画像データIP0(X,Y,Zf)と視点P1の視点散乱画像データIP1(X,Y,Zf)が等しくなる。よって、積分すべき全視点(s,t)のうちの半分の視点について視点散乱画像データを求め、それらの重み付き積分を2倍することで、数25と同じ結果がえられる。つまり、数22の場合は積分の計算量が約1/2になるというメリットがある。一方、数23は散乱光が抽出される位置に観察方向の情報も含むため、観察方向と散乱光強度の関係を把握する場合に有効である。ただし、レンズ面上の可能な範囲で偏角θ、観察角φを変えた多数の視点に対して数23の演算を行う場合には、数22、数23のいずれを用いても結果は同一となる。
If integration of Formula 25 is performed for various viewpoints (s, t), scattered light components in various directions can be collected.
In the operation of equation 22, the viewpoint scatter image data I P0 viewpoint P0 (X, Y, Zf) and the viewpoint P1 viewpoint scatter image data I P1 (X, Y, Zf ) are equal. Accordingly, the viewpoint scattered image data is obtained for half of the viewpoints (s, t) to be integrated, and the weighted integration is doubled to obtain the same result as Expression 25. That is, in the case of Equation 22, there is a merit that the amount of calculation of integration is about ½. On the other hand, Equation 23 is effective in grasping the relationship between the observation direction and the scattered light intensity because the position where the scattered light is extracted also includes information on the observation direction. However, in the case where the calculation of Equation 23 is performed for a large number of viewpoints with different deflection angles θ and observation angles φ within the possible range on the lens surface, the result is the same regardless of which of Equations 22 and 23 is used. It becomes.

(観察角φの異なる視点画像データ間の演算)
既に数11で説明したように、ある視点(s,t)の視点画像データと、同一の偏角θで観察角φが異なる視点あるいは視点(0,0)の視点画像データとの間の減算によっても散乱画像データを抽出することができる。
観察角φが異なる視点画像データの間でも、視点P0から観察角変更視点P1を求め、数22または数23に示す演算を行った後、数25を実行することで散乱画像データが生成できる。しかし、観察角φを変更する場合、別の演算でも散乱画像データを生成することができる。以下に説明する。
(Calculation between viewpoint image data with different observation angles φ)
As already described in Equation 11, the subtraction between the viewpoint image data of a certain viewpoint (s, t) and the viewpoint image data of the viewpoint or the viewpoint (0, 0) having the same declination angle θ and different observation angles φ. Can also extract scattered image data.
Even between the viewpoint image data with different observation angles φ, the observation angle change viewpoint P1 is obtained from the viewpoint P0, and after performing the calculation shown in Expression 22 or 23, scattered image data can be generated by executing Expression 25. However, when the observation angle φ is changed, the scattered image data can be generated by another calculation. This will be described below.

図7(a)に示す座標系において、処理対象の視点P0の座標を(x,y)=(s,t)とすると、観察角φが0となる視点P1の座標は(x,y)=(0,0)となる。(観察角を変更した角度は0度以外でも散乱画像データの抽出は可能だが、ここでは最も効果の大きな観察角が0度となる視点P1を用いる場合について説明する。)
視点P0と視点P1が前記の関係にあるとき、下記の式で散乱光が抽出できる。SP0(X,Y,Zf)は視点P0の視点散乱画像データである。

Figure 2015191362
偏角θを回転する場合とは異なり、必ずしも非線型な演算を用いる必要はない。なぜなら、視点P0と視点P1の観察角φが異なる場合には、偏角θが異なる視点(すなわち、図7(a)で動径rが等しくなる視点)で積分を計算した結果は等しくならないため、数26の計算で0になることはないためである。 In the coordinate system shown in FIG. 7A, when the coordinates of the viewpoint P0 to be processed are (x, y) = (s p , t p ), the coordinates of the viewpoint P1 at which the observation angle φ is 0 are (x, y). y) = (0, 0). (The scattered image data can be extracted even if the angle of observation is changed to a value other than 0 degrees, but here, the case where the viewpoint P1 at which the most effective observation angle is 0 degrees is used will be described.)
When the viewpoint P0 and the viewpoint P1 are in the above relationship, scattered light can be extracted by the following formula. S P0 (X, Y, Zf) is the viewpoint scattered image data of the viewpoint P0.
Figure 2015191362
Unlike the case of rotating the deflection angle θ, it is not always necessary to use a non-linear calculation. This is because, when the viewing angle of the viewpoint P0 and the viewpoint P1 phi is different, viewpoints deflection angle θ are different (i.e., FIGS. 7 (a) viewpoint moving radius r p is equal with) not equal the result of calculating the integral in Therefore, the calculation of Equation 26 does not become 0.

視点P0の動径rをr1、視点P1の動径rをr2とすると、それぞれ偏角θだけを変えた積分を実行して得られる散乱画像データは以下の式で表わされる。

Figure 2015191362
動径がrとなる視点位置の積分は、動径がrの視点にのみ値を持つ視点重み関数で表現できる。そのため、数27を変形すると以下の式で変形できる。
Figure 2015191362
ただし、kex(s,t)は以下となる。
Figure 2015191362
なお、視点重み関数ka1(s,t)、ka2(s,t)の全視点に対する積分はそれぞれ1となることから、kex(s,t)の全視点に対する積分は0となる。
Figure 2015191362
Assuming that the radius r of the viewpoint P0 is r1 and the radius r of the viewpoint P1 is r2, scattered image data obtained by executing integration with only the deflection angle θ changed is expressed by the following equation.
Figure 2015191362
The integration of the viewpoint position where the radius is r can be expressed by a viewpoint weight function having a value only at the viewpoint where the radius is r. Therefore, if Equation 27 is transformed, it can be transformed by the following equation.
Figure 2015191362
However, k ex (s, t) is as follows.
Figure 2015191362
Note that the integrals for all viewpoints of the viewpoint weight functions k a1 (s, t) and k a2 (s, t) are 1, respectively, and the integral for all viewpoints of k ex (s, t) is 0.
Figure 2015191362

既に数11で述べたように、差分で散乱光の情報を抽出するためには、IP0(X,Y,Zf)の観察角φがIP1(X,Y,Zf)の観察角φよりも大きい必要がある。
従って、一般化すると、散乱光の情報を抽出するためのkex(s,t)の条件は、所定の動径rthを閾値として、rthよりも大きな動径を持つ領域(すなわち観察角φが大きな領域)では正の値を持ち、rth以下の領域では負の値を持つこととなる。ここで閾値rthが小さくなるほど生成される散乱画像データの強度は大きくなる。効果的な条件の一例としてrth=0が挙げられる。kex(s,t)の条件を以下の式で表現できる。

Figure 2015191362
ただし、rthは、rth≦rを満たす所定の値とする。rは、散乱画像データの計算に用いる視点のうちレンズ面上で最も外側の視点、の原点(0,0)からの距離である。
数30および数31の条件を満たせば、kex(s,t)は自由に設計できる。 As already mentioned several 11, in order to extract the information of the scattered light in difference, I P0 (X, Y, Zf) viewing angle φ is I P1 of (X, Y, Zf) from φ observation angle Also need to be big.
Therefore, when generalized, the condition of k ex (s, t) for extracting scattered light information is a region having a radius greater than r th (ie, an observation angle) with a predetermined radius r th as a threshold. In a region where φ is large), it has a positive value, and in a region below r th , it has a negative value. Here, the intensity of the scattered image data generated increases as the threshold value r th decreases. An example of an effective condition is r th = 0. The condition of k ex (s, t) can be expressed by the following equation.
Figure 2015191362
However, r th is a predetermined value satisfying r thr m. r m is the outermost point of view on the lens surface of the viewpoint used to calculate the scattering image data, which is the distance from the origin (0,0).
If the conditions of Equations 30 and 31 are satisfied, k ex (s, t) can be designed freely.

数28から、散乱画像データはka1(s,t)およびka2(s,t)を用いて生成される異なる焦点ぼけを持つ2つの任意焦点ぼけ画像データの差分で計算できることが分かる。また、数30および数31の条件を満たすkex(s,t)を用いて生成される任意焦点ぼけ画像データによっても計算できることが分かる。なお、以降、数29によって計算される視点重み関数、または数30および数31の条件を満たす視点重み関数kex(s,t)を、散乱光情報抽出用の視点重み関数と呼ぶこととする。 From Equation 28, it can be seen that the scattered image data can be calculated by the difference between two arbitrary defocus image data having different defocus generated using k a1 (s, t) and k a2 (s, t). Further, it can be seen that the calculation can be performed also with arbitrary defocus image data generated using k ex (s, t) that satisfies the conditions of Equations 30 and 31. Hereinafter, the viewpoint weight function calculated by Expression 29 or the viewpoint weight function k ex (s, t) satisfying the conditions of Expression 30 and Expression 31 is referred to as a viewpoint weight function for extracting scattered light information. .

(散乱画像データ中の散乱光の強調および焦点ぼけの低減)
既に述べたように図10(d)に示すように被写体が焦点位置から離れた位置にある場
合、視点画像データ中の被写体の位置が変化する。そのため、数25または数28の計算によって得られる散乱画像データ中にも焦点位置から離れた被写体の焦点ぼけの影響が含まれている。
(Enhancing scattered light in scattered image data and reducing defocus)
As already described, when the subject is located away from the focal position as shown in FIG. 10D, the position of the subject in the viewpoint image data changes. Therefore, the scattered image data obtained by the calculation of Equation 25 or Equation 28 also includes the influence of the defocus of the subject away from the focal position.

散乱画像データ中の散乱光を強調しながら、焦点ぼけの影響を低減する方法として、下記に述べる式がある。

Figure 2015191362
ただし、CP0(X,Y,Zf)は以下の式で表わされる画像データ、つまり、視点P0の視点画像データに同じ視点P0の散乱画像データを加算した画像データである。以降、CP0(X,Y,Zf)を視点P0の散乱光強調画像データと呼ぶ。
Figure 2015191362
なお、数33のSP0(X,Y,Zf)は数22または数23で表される視点散乱画像データである。 As a method for reducing the influence of defocus while enhancing the scattered light in the scattered image data, there is an equation described below.
Figure 2015191362
However, C P0 (X, Y, Zf) is image data represented by the following expression, that is, image data obtained by adding scattered image data of the same viewpoint P0 to viewpoint image data of the viewpoint P0. Hereinafter, C P0 (X, Y, Zf) is referred to as scattered light weighted image data of the viewpoint P0.
Figure 2015191362
Note that S P0 (X, Y, Zf) in Expression 33 is viewpoint scattered image data expressed by Expression 22 or Expression 23.

数32は変形すると以下の式で表現できる。

Figure 2015191362
即ち、数32は散乱光強調画像データの間の差分に相当する。 Equation 32 can be expressed by the following equation when transformed.
Figure 2015191362
That is, Equation 32 corresponds to the difference between the scattered light weighted image data.

続いて、図12を用いて、数34の散乱光強調画像データの間の差分によって散乱光の強調と焦点ぼけの低減ができる理由を説明する。
図12の(a)の段は、被写体が焦点位置から離れた位置にあり、周囲より輝度値が低い点像である場合の、(1)全焦点画像データ、(2)任意焦点ぼけ画像データ、(2)散乱光抽出画像データ、(4)散乱光強調画像データを示す。また、(b)の段は、被写体が焦点位置から離れた位置にあり、輝度差のあるエッジである場合の、(1)全焦点画像データ、(2)任意焦点ぼけ画像データ、(3)散乱光抽出画像データ、(4)散乱光強調画像データを示す。
なお、散乱光抽出画像データは数20を用いて計算したものであり、散乱光強調画像データは以下の式で表現する任意焦点ぼけ画像データと散乱光抽出画像データの加算値とする。ただし、図12においてb>a>0が成立するとする。

Figure 2015191362
Next, the reason why the scattered light can be enhanced and the defocus can be reduced by the difference between the scattered light weighted image data of Equation 34 will be described with reference to FIG.
The stage of FIG. 12A shows (1) omnifocal image data and (2) arbitrary defocused image data when the subject is a point image at a position away from the focal position and the luminance value is lower than the surroundings. , (2) scattered light extraction image data, and (4) scattered light weighted image data. The stage (b) shows (1) omnifocal image data, (2) arbitrary defocused image data, and (3) when the subject is at a position away from the focal position and has an edge with a luminance difference. The scattered light extraction image data and (4) scattered light weighted image data are shown.
Note that the scattered light extraction image data is calculated using Equation 20, and the scattered light weighted image data is an addition value of the arbitrary defocused image data and the scattered light extraction image data expressed by the following equation. However, it is assumed that b>a> 0 holds in FIG.
Figure 2015191362

図12の(a)の段にある画像データ(全焦点画像データ1201、任意焦点ぼけ画像データ1202、散乱光抽出画像データ1203、散乱光強調画像データ1204)を順に数式で表わすと下記のようになる。

Figure 2015191362
Figure 2015191362
ただし、h(X,dZ)はX方向とZ方向についてのみ考慮した2次元の焦点ぼけとする。
Figure 2015191362
Figure 2015191362
散乱光強調画像データ1204では、全焦点画像データ1201で高輝度領域(輝度がbの領域)において焦点ぼけが抑制できることが分かる。 The image data (omnifocal image data 1201, arbitrary defocused image data 1202, scattered light extraction image data 1203, scattered light weighted image data 1204) in the stage of FIG. Become.
Figure 2015191362
Figure 2015191362
However, h (X, dZ) is a two-dimensional defocus that takes into account only the X and Z directions.
Figure 2015191362
Figure 2015191362
In the scattered light weighted image data 1204, it can be seen that the omnifocal image data 1201 can suppress defocusing in a high-luminance region (a region where the luminance is b).

一方、図12の(b)の段にある画像データ(全焦点画像データ1211、任意焦点ぼけ画像データ1212、散乱光抽出画像データ1213、散乱光強調画像データ1214)を順に数式で表わすと下記のようになる。

Figure 2015191362
Figure 2015191362
Figure 2015191362
Figure 2015191362
On the other hand, the image data (omnifocal image data 1211, arbitrary defocused image data 1212, scattered light extraction image data 1213, scattered light weighted image data 1214) in the stage of FIG. It becomes like this.
Figure 2015191362
Figure 2015191362
Figure 2015191362
Figure 2015191362

同様に、散乱光強調画像データ1214、全焦点画像データ1211で輝度の高い領域(輝度がbの領域)において焦点ぼけが抑制できるが、輝度の低い領域では焦点ぼけが打ち消せていないことが分かる。しかし、任意焦点ぼけ画像データ1212中に存在する散乱光成分と散乱光抽出画像データ1213中に存在する散乱光成分は互いに加算されることで、より一層散乱光の情報を強めることが可能となる。なお図12には透過光成分だけを示しているため、散乱光成分は示されていない。
既に述べたように数34は、異なる視点重み関数ka1(s,t)、ka2(s,t)を持つ散乱光強調画像データの間の差を表しており、視点重み関数を変えて計算した散乱光強調画像データ間の差分によって散乱光を抽出できることを意味する。従って、数28と同様、ka1(s,t)の強度が観察角φの大きな位置で相対的に大きく、ka2(s,t)の強度が観察角φの小さな位置で相対的に大きい場合には、散乱光成分が効率よく抽出できることが分かる。
Similarly, the scattered light enhancement image data 1214 and the omnifocal image data 1211 can suppress defocusing in a high luminance region (a region where the luminance is b), but it is understood that the defocusing is not canceled in the low luminance region. . However, the scattered light component present in the arbitrary defocused image data 1212 and the scattered light component present in the scattered light extracted image data 1213 are added to each other, so that the information of the scattered light can be further enhanced. . Since only the transmitted light component is shown in FIG. 12, the scattered light component is not shown.
As already described, Expression 34 represents a difference between scattered light weighted image data having different viewpoint weight functions k a1 (s, t) and k a2 (s, t), and the viewpoint weight function is changed. This means that scattered light can be extracted by the difference between the calculated scattered light weighted image data. Accordingly, as in Equation 28, the intensity of k a1 (s, t) is relatively large at a position where the observation angle φ is large, and the intensity of k a2 (s, t) is relatively large at a position where the observation angle φ is small. In this case, it can be seen that the scattered light component can be extracted efficiently.

続いて、偏角の変更によって得られる散乱画像データ(数25)と散乱光を強調した散乱画像データ(数32)の関係を分析する。数25の視点重み関数k(s,t)を散乱光情報抽出用の視点重み関数kex(s,t)に変更した以下の式について考える。

Figure 2015191362
ただし、SP0(X,Y,Zf)は数22または数23で表わされる視点散乱画像データである。 Subsequently, the relationship between the scattered image data (Equation 25) obtained by changing the deflection angle and the scattered image data (Equation 32) in which scattered light is emphasized is analyzed. Consider the following equation in which the viewpoint weight function k (s, t) in Expression 25 is changed to the viewpoint weight function k ex (s, t) for extracting scattered light information.
Figure 2015191362
However, S P0 (X, Y, Zf) is the viewpoint scattered image data expressed by Equation 22 or Equation 23.

数10で説明したように観察角φが小さい場合には、数22または数23で計算される視点散乱画像データSP0(X,Y,Zf)に含まれる散乱光の情報は小さい。従って、kex(s,t)が小さな観察角φのみで負の強度を持つならば、数25で計算する散乱光抽出画像データと数44で計算する散乱光抽出画像データの差は小さい。観察角φが0のときのみ負の強度を持つ場合、数25と数44で計算する散乱光抽出画像データの差は0となる。
なお、数32は、観察角φを変えた散乱光抽出画像データを表す数28と偏角θを変えた場合の視点散乱画像データを表す数44の和となっていることが分かる。即ち、数32は偏角θおよび観察角φの変更によって得られる複合的な散乱光画像抽出データを意味していることが分かる。以上、偏角θと観察角φが異なる視点画像データを用いて散乱画像データが生成できることを述べた。
As described in Expression 10, when the observation angle φ is small, the scattered light information included in the viewpoint scattered image data S P0 (X, Y, Zf) calculated in Expression 22 or Expression 23 is small. Therefore, if k ex (s, t) has a negative intensity only at a small observation angle φ, the difference between the scattered light extracted image data calculated by Equation 25 and the scattered light extracted image data calculated by Equation 44 is small. In the case where the intensity is negative only when the observation angle φ is 0, the difference between the scattered light extracted image data calculated by Expression 25 and Expression 44 is 0.
It can be seen that Equation 32 is the sum of Equation 28 representing scattered light extracted image data with the observation angle φ changed and Equation 44 representing viewpoint scattered image data with the deflection angle θ changed. That is, it can be seen that Equation 32 means composite scattered light image extraction data obtained by changing the deflection angle θ and the observation angle φ. As described above, it has been described that scattered image data can be generated using viewpoint image data having a different deflection angle θ and observation angle φ.

(病理標本の画像データにおける被写体の焦点ぼけ影響)
次に、病理標本から生成した散乱画像データでの被写体の焦点ぼけの影響について述べる。
図12(b)の1213に示すように、被写体が焦点位置から離れた位置にあり、かつ、被写体に大きな輝度差が存在する場合(例えばエッジ)、散乱光抽出画像データには周囲よりも輝度の低い領域に焦点ぼけの滲みだしたような、散乱光成分とは異なるアーティファクト(焦点ぼけ成分)が発生する。数32を用いて焦点ぼけの異なる2つの散乱光強調画像データの差分から散乱光抽出画像データを求める場合にも、図12(b)の1214の低輝度領域(Xが負の領域)に現れる焦点ぼけが互いに異なるため、その差分には同様の現象が発生する。数28で焦点ぼけの異なる2つの焦点ぼけ画像データの間の差分を求めた場合でも同様に焦点ぼけの差分が残る。
(Influence of defocusing of subject in pathological specimen image data)
Next, the influence of the subject's defocus on the scattered image data generated from the pathological specimen will be described.
As shown at 1213 in FIG. 12B, when the subject is at a position away from the focal position and the subject has a large luminance difference (for example, an edge), the scattered light extracted image data has a luminance higher than that of the surroundings. Artifacts different from the scattered light component (defocus component), such as blurring blurring out in a low region, occur. Even when the scattered light extraction image data is obtained from the difference between the two scattered light weighted image data having different defocuss using Equation 32, it appears in the low luminance region 1214 (X is a negative region) in FIG. Since the defocus is different from each other, the same phenomenon occurs in the difference. Even when the difference between two out-of-focus image data with different defocus is obtained in Equation 28, the defocus difference remains in the same manner.

上記の現象は特に輝度差が大きなエッジの低輝度領域で顕著になる傾向がある。例えば、HE染色された病理標本の顕微鏡画像では、核や核の内部が濃青で染色され透過率が低く、細胞質の部分は薄いピンクで染色され透過率が高い。
そのため、細胞質の内部では透過率の差が比較的少ない(図12の場合、aとbの輝度差が小さい)ため、焦点ぼけの影響は僅かであり、低輝度領域の焦点ぼけの影響はほとんど問題にはならない。
しかし、核と細胞質の境界では透過率の差が大きい(図12の場合、aとbの輝度差が大きい)ため、被写体の焦点ぼけが低輝度領域(1214の場合、Xが負の領域)に滲みだし、アーティファクトが観察される場合がある。この現象は散乱光抽出画像データ、散
乱光強調画像データの双方で観察される。
The above phenomenon tends to be particularly prominent in the low-luminance region of the edge where the luminance difference is large. For example, in a microscopic image of a HE-stained pathological specimen, the nucleus and the inside of the nucleus are stained with dark blue and the transmittance is low, and the cytoplasm portion is stained with light pink and the transmittance is high.
Therefore, since the difference in transmittance is relatively small inside the cytoplasm (in FIG. 12, the difference in luminance between a and b is small), the influence of defocusing is small, and the influence of defocusing in the low-luminance region is little. It doesn't matter.
However, since the difference in transmittance is large at the boundary between the nucleus and the cytoplasm (in the case of FIG. 12, the luminance difference between a and b is large), the defocus of the subject is in a low luminance region (in the case of 1214, the region where X is negative) Bleeding and artifacts may be observed. This phenomenon is observed in both scattered light extraction image data and scattered light weighted image data.

以下に述べる実施例では、低輝度領域では散乱光が少なく、高輝度領域では散乱光が多い傾向にある現象に注目することで、低輝度領域に現れる被写体の焦点ぼけの影響を抑え、散乱画像データ中の散乱光の情報をより信頼できるものとする方法を提案する。   In the embodiment described below, by focusing on the phenomenon that the scattered light tends to be small in the low luminance region and the scattered light is likely to be large in the high luminance region, the influence of the defocus of the subject appearing in the low luminance region is suppressed, and the scattered image is displayed. We propose a method to make the scattered light information in the data more reliable.

[実施例1]
以下、画像データ生成装置100の具体的な実施例について説明する。
(散乱画像データ生成設定画面)
図13(a)、図13(b)は実施例1における散乱画像データ生成機能の設定画面の一例である。図2の画像表示アプリケーションで表示画像中の領域207をマウスで選択した後、マウスの右クリックで表示される機能拡張メニュー208から「散乱画像データ生成」(不図示)の項目を選択する。それに対応して散乱画像データ生成処理前後の画像を示す新規ウィンドウ1300(図13(a))および散乱画像データ生成機能の設定画面1303(図13(b))が表示される。ウィンドウ1300の左側領域1301には領域207内の画像データが表示され、右側領域1302には散乱画像データ生成結果の画像データが表示される。
[Example 1]
Hereinafter, a specific example of the image data generation device 100 will be described.
(Scattering image data generation setting screen)
FIGS. 13A and 13B are examples of a setting screen for the scattered image data generation function in the first embodiment. After the area 207 in the display image is selected with the mouse in the image display application of FIG. 2, the item “scattered image data generation” (not shown) is selected from the function expansion menu 208 displayed by right-clicking the mouse. Correspondingly, a new window 1300 (FIG. 13A) showing images before and after the scattered image data generation process and a scattered image data generation function setting screen 1303 (FIG. 13B) are displayed. In the left area 1301 of the window 1300, the image data in the area 207 is displayed, and in the right area 1302, the image data of the scattered image data generation result is displayed.

散乱画像データ生成機能の設定を変更する場合には、設定画面1303を操作する。ユーザがマウスにより視点設定ボタン1304を押下すると、散乱画像データ生成に用いる視線方向(3次元的な観察方向)を決める為の設定画面が表示される。なお、視点の数は1つでも複数でも良い。詳細は後述する。ユーザが散乱画像データ計算設定ボタン1305を押下すると、散乱画像データを計算する方法やパラメータを設定する散乱画像データ計算設定画面が表示される。散乱画像データを生成する方法としては既に述べた種々の方式が選択可能であり、詳細は後述する。また必要ならばオプションで散乱画像データに対するノイズ除去パラメータ等の設定を行うことも可能である。詳細は後述する。ユーザが透過光成分抑制設定ボタン1306を押下すると、散乱画像データ中の低輝度領域のアーティファクト(焦点ぼけ成分)を抑制するための設定画面が表示される。詳細は後述する。   When changing the setting of the scattered image data generation function, the setting screen 1303 is operated. When the user presses the viewpoint setting button 1304 with the mouse, a setting screen for determining the line-of-sight direction (three-dimensional observation direction) used for generating scattered image data is displayed. Note that the number of viewpoints may be one or more. Details will be described later. When the user presses the scattered image data calculation setting button 1305, a scattered image data calculation setting screen for setting a method and parameters for calculating scattered image data is displayed. Various methods described above can be selected as a method for generating scattered image data, and details will be described later. If necessary, it is also possible to optionally set a noise removal parameter for the scattered image data. Details will be described later. When the user presses the transmitted light component suppression setting button 1306, a setting screen for suppressing artifacts (defocus components) in the low luminance region in the scattered image data is displayed. Details will be described later.

オーバーレイ表示1307はチェックボックスであり、この設定を有効にすると右側領域1302には選択領域207内の画像データと散乱画像データが重ね合わせて表示される。ユーザが、必要に応じて上記設定を行い、実行ボタン1308を押すと、散乱画像データの生成が行われ、処理結果が表示される。詳細は後述する。   An overlay display 1307 is a check box, and when this setting is validated, the image data in the selection area 207 and the scattered image data are displayed in a superimposed manner in the right area 1302. When the user makes the above settings as necessary and presses the execute button 1308, the scattered image data is generated and the processing result is displayed. Details will be described later.

1310はウィンドウ1300内で右クリックすることで呼び出し可能な機能拡張メニューである。機能拡張メニュー1310の中にはN/C比算出(不図示)等の画像解析の項目が並んでいる。項目を選択すると、画像解析処理の設定画面(不図示)が表示され、ウィンドウ内の選択領域あるいは全体に対して解析処理を実行し、処理結果を表示する。詳細は後述する。   Reference numeral 1310 denotes a function expansion menu that can be called by right-clicking in the window 1300. In the function expansion menu 1310, items of image analysis such as N / C ratio calculation (not shown) are arranged. When an item is selected, an image analysis processing setting screen (not shown) is displayed, analysis processing is executed on the selected area or the entire window, and the processing result is displayed. Details will be described later.

(散乱画像データ生成処理)
図14(a)は前述の実行ボタン1308を押下した際に実行される散乱画像データ生成処理のフローを示す。この処理は、画像表示アプリケーションとそこから呼び出される画像データ生成プログラムによって実現されるものである。
(Scattered image data generation processing)
FIG. 14A shows a flow of scattered image data generation processing executed when the execution button 1308 is pressed. This process is realized by an image display application and an image data generation program called from the image display application.

Zスタック画像データ取得ステップS1501では、画像表示アプリケーションで表示中の画像の選択領域207の座標を元に、メインメモリ302または記憶装置130に格納されたZスタック画像データから必要な範囲のデータを取得する。なお、Zスタック画像データが他のコンピュータシステム140に存在する場合にはネットワークI/F30
4を通じてデータを取得し、メインメモリ302に格納する。
In the Z stack image data acquisition step S1501, the necessary range of data is acquired from the Z stack image data stored in the main memory 302 or the storage device 130 based on the coordinates of the selection area 207 of the image being displayed by the image display application. To do. When the Z stack image data exists in another computer system 140, the network I / F 30
4 is acquired and stored in the main memory 302.

続いて、散乱画像データ計算処理ステップS1502では、被写体に対する視線方向(観察方向)を決める視点の情報に基づき、Zスタック画像データから複数の視点に対する視点画像データを生成する。そして、各視点画像データを用いて散乱画像データを生成する。詳細は後述する。   Subsequently, in scattered image data calculation processing step S1502, viewpoint image data for a plurality of viewpoints is generated from the Z stack image data based on the viewpoint information for determining the viewing direction (observation direction) with respect to the subject. Then, scattered image data is generated using each viewpoint image data. Details will be described later.

続いて、輪郭抽出処理ステップS1503では、散乱画像データから輪郭を抽出した輪郭抽出画像データを生成する。なお、ステップS1503の処理は必須ではなく、不図示の設定に従って適用/不適用が変更できる。詳細は後述する。   Subsequently, in contour extraction processing step S1503, contour extracted image data obtained by extracting the contour from the scattered image data is generated. Note that the processing in step S1503 is not essential, and application / non-application can be changed according to a setting (not shown). Details will be described later.

画像表示処理ステップS1504では、輪郭抽出画像データ、視点散乱画像データ、又は散乱画像データ(散乱光強調画像データ又は散乱光抽出画像データ)を画像表示アプリケーションの表示倍率に合わせて拡大/縮小し、右側領域1302に表示する。オーバーレイ表示1307が有効である場合、選択領域207内の画像データに輪郭抽出画像データ、視点散乱画像データ、あるいは散乱画像データを重ね合わせて表示する。この際、選択領域207内の画像データに対し、対応する位置の視点散乱画像データあるいは散乱画像データを合成(加算や減算など)した画像を右側領域1302に表示しても良い。またさらに合成した画像データを、選択領域207内の画像データと明るさが近くなるように諧調補正した画像データを右側領域1302に表示しても良い。複数の視点散乱画像データを一定の時間間隔で切り替えるアニメーション表示を行ってもよい。このとき、輪郭抽出画像データ、視点散乱画像データ、あるいは散乱画像データはチャネル(RGB)毎に色を付けて表示しても良いし、標本の色と重ならない別の色に変更しても良い。ここで表示に用いられる画像データ(輪郭抽出画像データ、視点散乱画像データ、散乱画像データ、又は、それらを元画像データに合成した画像データ)は、いずれも画像観察や画像診断(自動診断を含む)に適した観察用画像データである。   In the image display processing step S1504, the contour extraction image data, the viewpoint scattered image data, or the scattered image data (scattered light weighted image data or scattered light extracted image data) is enlarged / reduced according to the display magnification of the image display application, and the right side. Displayed in area 1302. When the overlay display 1307 is valid, the contour extraction image data, the viewpoint scattered image data, or the scattered image data is displayed superimposed on the image data in the selection area 207. At this time, an image obtained by combining (adding or subtracting) the viewpoint scattered image data or scattered image data at the corresponding position with the image data in the selection region 207 may be displayed in the right region 1302. Further, image data obtained by tone-correcting the synthesized image data so that the brightness is close to that of the image data in the selection area 207 may be displayed in the right area 1302. You may perform the animation display which switches several viewpoint scattered image data by a fixed time interval. At this time, the contour extraction image data, the viewpoint scattered image data, or the scattered image data may be displayed with a color for each channel (RGB), or may be changed to a different color that does not overlap the sample color. . The image data used for display (contour extraction image data, viewpoint scattered image data, scattered image data, or image data obtained by synthesizing them with original image data) are all image observation and image diagnosis (including automatic diagnosis). For observation).

(散乱画像データ計算処理ステップS1502)
次に、実行ボタン1308を押下して実行される散乱画像データ生成処理のメインの処理にあたる散乱画像データ計算処理ステップS1502の内部処理について説明する。
図14(b)は本実施例の散乱画像データ計算処理ステップS1502の内部処理を表すフローチャートであり、図14(c)は散乱画像データ計算処理の機能を実現するブロック図である。図14(c)の透過光成分抑制マスク生成部1701、散乱光抽出画像データ生成部1702、透過光成分抑制処理部1703は、それぞれ図14(b)のステップS1601、S1602、S1603の機能を実現するブロックである。
(Scattering image data calculation processing step S1502)
Next, the internal processing of the scattered image data calculation processing step S1502 corresponding to the main processing of the scattered image data generation processing executed by pressing the execution button 1308 will be described.
FIG. 14B is a flowchart showing the internal processing of the scattered image data calculation processing step S1502 of this embodiment, and FIG. 14C is a block diagram for realizing the function of the scattered image data calculation processing. The transmitted light component suppression mask generation unit 1701, the scattered light extraction image data generation unit 1702, and the transmitted light component suppression processing unit 1703 in FIG. 14C realize the functions of steps S1601, S1602, and S1603 in FIG. 14B, respectively. It is a block to do.

以下、図14(b)および図14(c)を用いて、散乱画像データの生成方法を説明する。
まず、透過光成分抑制マスク生成ステップS1601では、透過光成分抑制マスク生成部1701が、入力されるZスタック画像データを用いて、透過光成分抑制マスクを生成し、後段の透過光成分抑制処理部1703に出力する。
透過光成分抑制マスクは焦点位置Z=Zfの画像データと同じXY方向のサイズを持ち、各画素に係数が割り当てられたマスクデータである。詳細は後述する。
続いて、散乱光抽出画像データ生成ステップS1602では、散乱光抽出画像データ生成部1702が、入力されるZスタック画像データを用いて、散乱光抽出画像データを生成し、後段の透過光成分抑制処理部1703に出力する。詳細は後述する。
最後に、透過光成分抑制処理ステップS1603では、透過光成分抑制処理部1703が、透過光成分抑制マスクと散乱光抽出画像データを用いて、透過光成分が抑制された補正散乱光抽出画像データを生成する。詳細は後述する。
Hereinafter, a method for generating scattered image data will be described with reference to FIGS. 14B and 14C.
First, in the transmitted light component suppression mask generation step S1601, the transmitted light component suppression mask generation unit 1701 generates a transmitted light component suppression mask using the input Z stack image data, and transmits the transmitted light component suppression processing unit in the subsequent stage. 1703 is output.
The transmitted light component suppression mask is mask data having the same size in the XY direction as the image data of the focal position Z = Zf, and a coefficient assigned to each pixel. Details will be described later.
Subsequently, in the scattered light extraction image data generation step S1602, the scattered light extraction image data generation unit 1702 generates scattered light extraction image data by using the input Z stack image data, and performs transmitted light component suppression processing in the subsequent stage. Output to the unit 1703. Details will be described later.
Finally, in the transmitted light component suppression processing step S1603, the transmitted light component suppression processing unit 1703 uses the transmitted light component suppression mask and the scattered light extracted image data to generate corrected scattered light extracted image data in which the transmitted light component is suppressed. Generate. Details will be described later.

(透過光成分抑制マスク生成ステップS1601)
続いて、透過光成分抑制マスク生成ステップS1601の内部処理について説明する。図15(a)はステップS1601の内部処理を示すフローチャートである。
透過光成分抑制マスク生成ステップS1601では、透過光成分抑制設定(1403)に基づき、透過光成分抑制マスクを生成する。設定も交えながら処理を説明する。
図13(e)の透過光成分抑制設定画面1403は、透過光成分抑制設定ボタン1306の押下時に表示される設定画面の一例である。ここでは前述の低輝度領域における被写体の焦点ぼけ成分を抑制するための情報を設定する。
設定画面1403では、透過光成分の抑制方法を指定する「方式」と透過光成分抑制マスクの生成時に参照する参照画像データを指定する「参照画像」、参照画像データに対して適用する諧調補正の種類を選ぶ「補正特性」がドロップダウンリストで選択できる。
ステップS1601ではこれらの設定情報に基づき、透過光成分抑制マスクを生成する。
(Transmission light component suppression mask generation step S1601)
Subsequently, an internal process of the transmitted light component suppression mask generation step S1601 will be described. FIG. 15A is a flowchart showing the internal processing of step S1601.
In the transmitted light component suppression mask generation step S1601, a transmitted light component suppression mask is generated based on the transmitted light component suppression setting (1403). The process will be described with settings.
A transmitted light component suppression setting screen 1403 in FIG. 13E is an example of a setting screen displayed when the transmitted light component suppression setting button 1306 is pressed. Here, information for suppressing the defocus component of the subject in the low luminance region is set.
On the setting screen 1403, a “method” for specifying a transmitted light component suppression method, a “reference image” for specifying reference image data to be referred to when generating a transmitted light component suppression mask, and a gradation correction to be applied to the reference image data. The “correction characteristics” for selecting the type can be selected from the drop-down list.
In step S1601, a transmitted light component suppression mask is generated based on the setting information.

まず参照画像データ生成ステップS1801では、入力されるZスタック画像データから、透過光成分抑制マスク生成用の参照画像データを生成する。参照画像データとしては、元画像データであるZスタック画像データの輝度特徴を表す画像データであれば、いろいろな種類又は特性の画像データを利用できる。設定画面1403の「参照画像」において所望の参照画像データの種類又は特性を設定できる。典型的には、Zスタック画像データから生成される、光軸を通る視点から見た視点画像データ、即ち全焦点画像データを参照画像データとして用いるとよい。あるいは、Zスタック画像データから生成される任意焦点ぼけ画像データ(つまり、元のレイヤー画像データとは異なる焦点ぼけをもつ画像データ)でもよい。例えば、元のレイヤー画像データよりも被写界深度を拡大した画像データなどを用いるとよい。あるいは、Zスタック画像データの中から選ばれたいずれかのレイヤー画像データを参照画像データとしてもよい。また、両側テレセントリックな光学系を持つ顕微鏡で取得したZスタック画像データの場合、全焦点画像データにセンサの固定パターンノイズが表れやすい。そのような場合には、全焦点画像データに対しメディアンフィルタ等のノイズ低減処理を行っても良い。また、全焦点画像データは、Zスタック画像データ内の複数のZ位置のレイヤー画像データの各々からXY方向のコントラストの高い領域を抽出し、それらを合成することで生成しても良い。なお、任意視点画像データや任意焦点ぼけ画像データの生成方法については既に述べているため、説明は省略する。   First, in reference image data generation step S1801, reference image data for generating a transmitted light component suppression mask is generated from input Z stack image data. As the reference image data, image data of various types or characteristics can be used as long as the image data represents the luminance characteristics of the Z stack image data that is the original image data. A desired type or characteristic of reference image data can be set in the “reference image” on the setting screen 1403. Typically, viewpoint image data generated from Z stack image data and viewed from a viewpoint passing through the optical axis, that is, omnifocal image data, may be used as reference image data. Alternatively, arbitrary defocused image data generated from the Z stack image data (that is, image data having a defocus different from the original layer image data) may be used. For example, image data with a larger depth of field than the original layer image data may be used. Alternatively, any one of the layer image data selected from the Z stack image data may be used as the reference image data. Further, in the case of Z stack image data acquired with a microscope having a bilateral telecentric optical system, sensor fixed pattern noise tends to appear in the omnifocal image data. In such a case, noise reduction processing such as a median filter may be performed on the omnifocal image data. Further, the omnifocal image data may be generated by extracting a region having high contrast in the XY directions from each of the plurality of layer image data at the Z position in the Z stack image data and combining them. Since the method for generating arbitrary viewpoint image data and arbitrary defocused image data has already been described, description thereof will be omitted.

次に輝度変換ステップS1802では、ステップ1801で生成した全焦点画像データを輝度に変換し、マスク参照用の参照画像データを生成する。なお、ステップS1801とステップS1802の順序を入れ替え、Zスタック画像データに対し先に輝度変換を実行してから、全焦点画像データを生成しても良い。ここで輝度の変換処理について述べる。Zスタック画像データがモノクロ画像データである場合には輝度値は画素値そのままとする。Zスタック画像データがRGBカラー画像である場合には、輝度値(Y)は各色の画素値(それぞれR,G,B)から数式によって求める。例えば、アナログテレビ放送で用いられるNTSC信号の場合、RGB値から輝度値(Y)への変換式は、
Y=0.299×R+0.587×G+0.114×B
となる。なお、RGB値から輝度値への変換式は信号を表現する色空間(sRGBやAdobeRGB等)によって異なるため、それぞれの色空間に対応した変換式を用いると良い。
Next, in luminance conversion step S1802, the omnifocal image data generated in step 1801 is converted into luminance, and reference image data for mask reference is generated. Note that the omnifocal image data may be generated after the order of steps S1801 and S1802 is changed and the luminance conversion is first performed on the Z stack image data. Here, luminance conversion processing will be described. When the Z stack image data is monochrome image data, the luminance value is left as it is. When the Z stack image data is an RGB color image, the luminance value (Y) is obtained from the pixel values (R, G, B, respectively) of each color by a mathematical formula. For example, in the case of an NTSC signal used in analog television broadcasting, the conversion formula from RGB values to luminance values (Y) is
Y = 0.299 × R + 0.587 × G + 0.114 × B
It becomes. Since the conversion formula from RGB values to luminance values differs depending on the color space (sRGB, AdobeRGB, etc.) representing the signal, it is preferable to use a conversion formula corresponding to each color space.

次に諧調補正ステップS1803では、参照画像データに対して諧調補正を行う。ここでは設定画面1403の「補正特性」で設定された諧調補正が適用される。諧調補正の例としては「トーンカーブを用いた補正」や「2値化」や「適応的2値化」などがある。2値化は所定(固定)の閾値による2値化であり、適応的2値化は画像データの輝度分布に応じて動的に適切な閾値を選ぶ2値化である。2値化の閾値はユーザが直接設定しても良
い。HE染色された病理標本に適用する場合、核と細胞質の領域を分離できる閾値を設定することが好ましい。色成分を用いて核と細胞質の領域を識別する閾値を決定する場合には、ステップS1802で輝度変換を行わず、ステップS1803ではRやBなどの特定の色成分を入力しても良い。2値化では閾値よりも輝度の高い領域は最大輝度(255)に、輝度の低い領域は最低輝度(0)に設定する。なお、諧調補正ステップS1803は必須の処理ではない(設定画面1403で「諧調補正なし」が選択された場合、ステップS1803はスキップされる)。
Next, in tone correction step S1803, tone correction is performed on the reference image data. Here, the gradation correction set in the “correction characteristics” on the setting screen 1403 is applied. Examples of tone correction include “correction using tone curve”, “binarization”, and “adaptive binarization”. Binarization is binarization using a predetermined (fixed) threshold, and adaptive binarization is binarization that dynamically selects an appropriate threshold according to the luminance distribution of image data. The threshold value for binarization may be set directly by the user. When applied to a HE-stained pathological specimen, it is preferable to set a threshold that can separate the nucleus and cytoplasm regions. When the threshold value for identifying the nucleus and cytoplasm region is determined using color components, luminance conversion may not be performed in step S1802, and specific color components such as R and B may be input in step S1803. In binarization, a region with a higher luminance than the threshold is set to the maximum luminance (255), and a region with a lower luminance is set to the lowest luminance (0). Note that gradation correction step S1803 is not an essential process (when “No gradation correction” is selected on the setting screen 1403, step S1803 is skipped).

最後にマスク係数算出処理ステップS1804では、諧調補正した参照画像データから以下の式を用いて透過光成分抑制マスクM(X,Y,Zf)を生成する。

Figure 2015191362
なお、Iref(X,Y,Zf)は参照画像データを表し、Imaxは最大輝度値(8ビット画像データの場合は255)を表す。すなわち、透過光成分抑制マスクは、参照画像データ(又は諧調補正した参照画像データ)の各画素の輝度値を最大輝度値で正規化した画像データである。 Finally, in mask coefficient calculation processing step S1804, a transmitted light component suppression mask M (X, Y, Zf) is generated from the reference image data subjected to gradation correction using the following equation.
Figure 2015191362
I ref (X, Y, Zf) represents reference image data, and I max represents a maximum luminance value (255 in the case of 8-bit image data). That is, the transmitted light component suppression mask is image data obtained by normalizing the luminance value of each pixel of the reference image data (or the reference image data subjected to gradation correction) with the maximum luminance value.

図15(b)は参照画像データの入力輝度(横軸)に対する透過光成分抑制マスクの出力係数(縦軸)の関係を表すグラフである。1901は諧調補正なしの場合、1902はトーンカーブで諧調補正した場合、1903は2値化処理を施した場合の関係を示す。いずれも透過光成分抑制マスクの各画素の係数は0〜1の値域を持ち、低輝度領域では低い係数を持ち、高輝度領域では高い係数を持つ。すなわち、透過光成分抑制マスクの各画素の係数の値は、参照画像データの各画素の輝度と正の相関をもつように設定されている。
図15(b)に示すような透過光成分抑制マスクを用いることで、ステップS1602で生成する散乱光抽出画像データの低輝度領域における被写体の焦点ぼけ成分を抑制することが可能となる。詳細は後述する。
FIG. 15B is a graph showing the relationship between the output coefficient (vertical axis) of the transmitted light component suppression mask and the input luminance (horizontal axis) of the reference image data. Reference numeral 1901 indicates a relationship when no gradation correction is performed, 1902 indicates a gradation correction by a tone curve, and 1903 indicates a relationship when binarization processing is performed. In any case, the coefficient of each pixel of the transmitted light component suppression mask has a value range of 0 to 1, a low coefficient in the low luminance region, and a high coefficient in the high luminance region. That is, the coefficient value of each pixel of the transmitted light component suppression mask is set to have a positive correlation with the luminance of each pixel of the reference image data.
By using the transmitted light component suppression mask as shown in FIG. 15B, it is possible to suppress the defocus component of the subject in the low luminance region of the scattered light extraction image data generated in step S1602. Details will be described later.

(散乱光抽出画像データ生成ステップS1602)
図16(a)は散乱光抽出画像データ生成ステップS1602の内部処理を表すフローチャートである。
まず散乱光抽出画像データ生成方式決定処理ステップS2001では、設定画面1402で選択した「方式」に基づき、散乱光抽出画像データ生成方式を決定する。前述のように方式が異なると後段の散乱画像データ生成実行処理ステップS2002での計算方法が異なる。なお、設定画面1402では方式として「偏角変更」、「観察角変更」、「複合変更」などが選べる。続いて、散乱画像データ生成実行処理ステップS2002では、設定画面1401および1402で設定されたパラメータに基づいて散乱画像データを生成する。
(Scattered light extraction image data generation step S1602)
FIG. 16A is a flowchart showing the internal processing of the scattered light extraction image data generation step S1602.
First, in the scattered light extraction image data generation method determination processing step S2001, the scattered light extraction image data generation method is determined based on the “method” selected on the setting screen 1402. As described above, if the method is different, the calculation method in the subsequent scattered image data generation execution processing step S2002 is different. In the setting screen 1402, “deflection angle change”, “observation angle change”, “composite change”, and the like can be selected. Subsequently, in scattered image data generation execution processing step S2002, scattered image data is generated based on the parameters set on the setting screens 1401 and 1402.

(散乱画像データ生成実行処理ステップS2002:偏角変更又は複合変更)
図16(b)は設定画面1402で「方式」として「偏角変更」あるいは「複合変更」を選択した場合の散乱画像データ生成実行処理ステップS2002の内部処理を示すフローチャートである。「偏角変更」を選択した場合には数44に相当する演算を行い、「複合変更」を選択した場合には数32に相当する演算を行う。
まず、視点取得処理ステップS2101では、後段のステップS2102において視点画像データの生成に必要な視点の位置情報を取得する。ステップS2101では予め定められた視点の位置情報を、メインメモリ302や記憶装置130、他のコンピュータシステム140から取得しても良い。またステップS2101では画像表示アプリケーション上で設定した情報に基づき視点の位置情報を計算して求めても良い。詳細は後述する。
(Scattering image data generation execution processing step S2002: declination change or compound change)
FIG. 16B is a flowchart showing the internal processing of the scattered image data generation execution processing step S2002 when “deflection change” or “composite change” is selected as the “method” on the setting screen 1402. When “change declination” is selected, an operation corresponding to Equation 44 is performed, and when “composite change” is selected, an operation corresponding to Equation 32 is performed.
First, in viewpoint acquisition processing step S2101, the position information of the viewpoint necessary for generating viewpoint image data is acquired in step S2102 in the subsequent stage. In step S2101, position information of a predetermined viewpoint may be acquired from the main memory 302, the storage device 130, or another computer system 140. In step S2101, the position information of the viewpoint may be calculated and obtained based on information set on the image display application. Details will be described later.

続いて、視点画像データ生成ステップS2102では、選択領域207のZスタック画像データを元に、ステップS2101で求めた視点に対応する視点画像データを生成する。画像データ生成装置100(CPU301)が実行するこの機能を視点画像データ生成手段とよぶ。なお、Zスタック画像データから任意の視点画像データを生成する手法(MFI任意視点/焦点ぼけ画像生成法)には、前述の特許文献1、非特許文献2、3、4等の方法をはじめとして、如何なる方法を用いてもよい。   Subsequently, in viewpoint image data generation step S2102, viewpoint image data corresponding to the viewpoint obtained in step S2101 is generated based on the Z stack image data in the selection area 207. This function executed by the image data generation device 100 (CPU 301) is referred to as viewpoint image data generation means. Note that methods for generating arbitrary viewpoint image data from the Z stack image data (MFI arbitrary viewpoint / in-focus image generation method) include the methods described in Patent Document 1, Non-Patent Documents 2, 3, 4, and the like. Any method may be used.

続いて、視点散乱画像データ生成処理ステップS2103では、生成した視点画像データに対し、散乱画像データ計算設定(1305)に基づき、散乱画像データ生成処理を行う。視点が複数存在する場合は、視点数分の視点散乱画像データ生成処理を実行する。続いて、視点散乱画像データ統合処理ステップS2104では、散乱画像データ計算設定(1305)に基づき、ステップS2103で生成した複数の視点散乱画像データを統合し、散乱画像データを生成する。画像生成装置100(CPU301)が実行するステップS2103−S2104の機能を散乱画像データ生成手段(特徴画像データ生成手段)とよぶ。ただし、被写体の散乱光を抽出する場合には散乱光抽出画像データ生成手段、被写体の散乱光を強調する場合には散乱光強調画像データ生成手段とよび、両者を区別しても良い。詳細は後述する。   Subsequently, in viewpoint scattered image data generation processing step S2103, scattered image data generation processing is performed on the generated viewpoint image data based on the scattered image data calculation setting (1305). When there are a plurality of viewpoints, viewpoint scattered image data generation processing is executed for the number of viewpoints. Subsequently, in the viewpoint scattered image data integration processing step S2104, based on the scattered image data calculation setting (1305), the plurality of viewpoint scattered image data generated in step S2103 are integrated to generate scattered image data. The function of steps S2103 to S2104 executed by the image generation apparatus 100 (CPU 301) is called scattered image data generation means (feature image data generation means). However, when the scattered light of the subject is extracted, the scattered light extraction image data generation unit is called, and when the scattered light of the subject is emphasized, it is called the scattered light weighted image data generation unit. Details will be described later.

以下、視点取得処理ステップS2101、視点散乱画像データ生成処理ステップS2103、視点散乱画像データ統合処理ステップS2104の詳細を説明する。   Details of the viewpoint acquisition processing step S2101, the viewpoint scattered image data generation processing step S2103, and the viewpoint scattered image data integration processing step S2104 will be described below.

(視点取得処理ステップS2101)
以下、視点設定(1304)に基づき、視点取得処理ステップS2101で視点の位置情報を計算する処理について説明する。
図13(c)の視点設定画面1401は、図13(b)の視点設定ボタン1304の押下時に表示される設定画面の一例である。ここでは散乱画像データの生成に用いる視点画像データの視点位置を設定する。
視点設定画面1401では視点の設定方法として「直接設定」と「メッシュ設定」の2つが選択できる。直接設定では、視点数と視点の位置(s,t)をユーザに直接指定させる。一方、メッシュ設定では、外径、内径(中心遮蔽)、離散化ステップをユーザに指定させ、これらの指定値から各視点の位置を計算する。
(Viewpoint acquisition processing step S2101)
Hereinafter, based on the viewpoint setting (1304), the process of calculating the position information of the viewpoint in the viewpoint acquisition process step S2101 will be described.
A viewpoint setting screen 1401 in FIG. 13C is an example of a setting screen displayed when the viewpoint setting button 1304 in FIG. 13B is pressed. Here, the viewpoint position of the viewpoint image data used to generate the scattered image data is set.
On the viewpoint setting screen 1401, “direct setting” and “mesh setting” can be selected as viewpoint setting methods. In the direct setting, the number of viewpoints and the position (s, t) of viewpoints are directly specified by the user. On the other hand, in the mesh setting, the user is allowed to specify the outer diameter, inner diameter (center shielding), and discretization step, and the position of each viewpoint is calculated from these specified values.

「外径」には、計算する視点の最大のズレ量(光軸とレンズ面が交わる位置を原点とした場合の視点の原点からの距離)を指定し、「内径(中心遮蔽)」には、計算する視点の最小のズレ量(つまり計算しない視点の最大のズレ量)を指定する。ここでは、レンズ面上の原点を中心とする距離(半径)によって、外径および内径(中心遮蔽)の値を設定する。なお、外径にはレンズ面上での光学系の半径rを越える値は設定できない。「離散化ステップ」は、「外径」で規定される円から「内径」で規定される円を除いたドーナツ状の領域内に、視点画像データを生成する視点の位置を離散的に設定するための刻み間隔である。離散化ステップが細かい程、計算する視点数は増加する。 Specify the maximum deviation of the viewpoint to be calculated (the distance from the origin of the viewpoint when the position where the optical axis and the lens surface intersect) as the origin, and the "inner diameter (center shielding)" The minimum deviation amount of the viewpoint to be calculated (that is, the maximum deviation amount of the viewpoint that is not calculated) is designated. Here, the values of the outer diameter and inner diameter (center shielding) are set according to the distance (radius) centered on the origin on the lens surface. It should be noted that the outer diameter value exceeding the radius r m of the optical system on the lens surface can not be set. In the “discretization step”, the position of the viewpoint for generating the viewpoint image data is discretely set in a donut-shaped region obtained by removing the circle specified by the “inner diameter” from the circle specified by the “outer diameter”. It is a step interval for. The finer the discretization step, the more viewpoints to calculate.

なお上述の円以外にも様々な形状の設定が可能である。例えば、半径の異なる複数の同心円や中心から放射線上に伸びる直線が設定できる。同心円設定の場合、各々の円の半径、各々の円上の視点の密度を決める離散化ステップ(例えば、角度間隔の設定)が設定できる。また中心から放射線上に伸びる直線の場合、線の間隔(例えば、角度間隔の設定)や放射線上の視点の密度を決める離散化ステップが設定できる。   Various shapes can be set in addition to the circles described above. For example, a plurality of concentric circles having different radii and straight lines extending from the center to the radiation can be set. In the case of concentric circle setting, a discretization step (for example, setting of angular intervals) for determining the radius of each circle and the density of viewpoints on each circle can be set. Further, in the case of a straight line extending from the center to the radiation, a discretization step for determining the line spacing (for example, setting of the angular spacing) and the density of the viewpoint on the radiation can be set.

(視点散乱画像データ生成処理ステップS2103)
図13(d)の散乱画像データ計算設定画面1402は、図13(b)の散乱画像データ計算設定ボタン1305押下時に表示する設定画面の一例である。ここでは、散乱光強
調画像データまたは散乱光抽出画像データの生成の種別、その計算方式や視点重み関数などのパラメータを設定する。
設定画面1402の「種別」では、ユーザの使用目的に応じて「種別」の下にあるグループボックスから「散乱光強調画像」または「散乱光抽出画像」のいずれかを選択する。
「方式」の下のドロップダウンリストからは視点散乱画像データ生成処理ステップS2103で用いる散乱画像データの計算方法が選択できる。前述のように本実施例では「偏角変更」、「観察角変更」、「複合変更」の中から計算方法が選択できる。
(Viewpoint scattered image data generation processing step S2103)
A scattered image data calculation setting screen 1402 in FIG. 13D is an example of a setting screen displayed when the scattered image data calculation setting button 1305 in FIG. 13B is pressed. Here, parameters such as the type of generation of scattered light enhanced image data or scattered light extracted image data, its calculation method, and viewpoint weight function are set.
In the “type” of the setting screen 1402, either “scattered light emphasized image” or “scattered light extracted image” is selected from the group box under “type” according to the purpose of use of the user.
From the drop-down list under “Method”, the calculation method of the scattered image data used in the viewpoint scattered image data generation processing step S2103 can be selected. As described above, in this embodiment, the calculation method can be selected from “change of declination”, “change of observation angle”, and “composite change”.

「視点重み関数1」および「視点重み関数2」の下にあるドロップダウンリストからは、視点散乱画像データ統合処理ステップS2104で用いる視点重み関数を選択することができる。ドロップダウンリストには、ガウス関数で表わされるガウスぼけや円柱形で表わされる円柱ぼけ等の焦点ぼけの形状とその半径が組み合わされたパラメータ設定が複数表示され、ユーザはその中から選ぶことができる。なお、視点散乱画像データ生成処理ステップS2103では「視点重み関数1」と「視点重み関数2」のドロップダウンリストで選択した視点重み関数を用いて、散乱光情報抽出用の視点重み関数を生成する。(「視点重み関数1」は数29のka1(s,t)に対応し、「視点重み関数2」は数29のka2(s,t)に対応する。そのため、散乱光情報抽出用の視点重み関数kex(s,t)は両者の差分で計算できる。) From the drop-down list below “viewpoint weight function 1” and “viewpoint weight function 2”, the viewpoint weight function used in the viewpoint scattered image data integration processing step S2104 can be selected. The drop-down list displays multiple parameter settings that combine the shape of the focus blur, such as a Gaussian blur expressed by a Gaussian function or a cylindrical blur expressed by a cylinder, and its radius, and the user can select from these parameter settings. . In the viewpoint scattered image data generation processing step S2103, a viewpoint weight function for extracting scattered light information is generated using the viewpoint weight functions selected from the drop-down lists of “viewpoint weight function 1” and “viewpoint weight function 2”. . ("Viewpoint weight function 1" corresponds to k a1 (s, t) in formula 29, and "view weight function 2" corresponds to k a2 (s, t) in formula 29. Therefore, for extracting scattered light information The viewpoint weight function k ex (s, t) can be calculated by the difference between the two.)

また、視点散乱画像データ計算設定画面1402ではノイズ除去設定が可能である。ノイズ除去設定としては、閾値による2値化や、メディアンフィルタ、エッジを保ったノイズ除去が可能なバイラテラルフィルタなどが適用できる。この処理により明瞭なコントラストを持つ散乱画像データを生成し、よりN/C比を検出しやすくすることができる。   Also, noise removal setting can be made on the viewpoint scattered image data calculation setting screen 1402. As the noise removal setting, binarization using a threshold, a median filter, a bilateral filter capable of removing noise while maintaining an edge, or the like can be applied. By this process, scattered image data having a clear contrast can be generated, and the N / C ratio can be detected more easily.

(設定できる視点重み関数の例)
図25(a)および図25(c)は視点重み関数の例、図25(c)は散乱光情報抽出用の視点重み関数の例を示す模式図である。図25(a)は円柱形で表される視点重み関数、図25(b)はガウス関数で表される視点重み関数である。rは任意焦点ぼけ画像の生成に用いる視点のうち、レンズ面上で最も外側の視点の原点(0,0)からの距離を表す。
図25(a)の視点重み関数k(s,t)は以下の式で表現できる。

Figure 2015191362
また、図25(b)の視点重み関数k(s,t)は以下の式で表現できる。
Figure 2015191362
σはガウス関数の標準偏差を表す。σによりぼけの広がりを制御できる。
数46および数47に示すk(s,t)の積分は1であり、数18の条件を満たす。 (Example of viewpoint weight functions that can be set)
FIG. 25A and FIG. 25C are schematic diagrams illustrating examples of viewpoint weight functions, and FIG. 25C is a schematic diagram illustrating examples of viewpoint weight functions for extracting scattered light information. FIG. 25A shows a viewpoint weight function represented by a cylindrical shape, and FIG. 25B shows a viewpoint weight function represented by a Gaussian function. r m is the distance from the origin (0,0) of any focal among viewpoint used to generate blurred image, the outermost point of view on the lens surface.
The viewpoint weight function k a (s, t) in FIG. 25A can be expressed by the following equation.
Figure 2015191362
Further, the viewpoint weight function k a (s, t) in FIG. 25B can be expressed by the following expression.
Figure 2015191362
σ represents the standard deviation of the Gaussian function. The spread of blur can be controlled by σ.
Integration of k a (s, t) shown in the equation 46 and the number 47 is 1, the number 18 satisfy the.

撮像光学系の3次元焦点ぼけは、波動光学的なぼけや各種収差の影響により、厳密に視点重み関数で表現できる訳ではないが、数47に示すガウス関数の視点重み関数により比較的良く近似できる。図25(c)の視点重み関数は、図25(a)の視点重み関数から図25(b)の視点重み関数を減算したものであり、数30および数31の条件を満たしている。即ち、図25(c)の視点重み関数は、すべての視点の積分は0となるとともに、視点の動径rが所定の閾値rth以下の領域の積分は負となり、所定の閾値rthより
大きな領域の積分は正となっている。
The three-dimensional focal blur of the imaging optical system cannot be expressed strictly by the viewpoint weight function due to the influence of wave optical blur and various aberrations, but it is relatively well approximated by the Gaussian viewpoint weight function shown in Equation 47. it can. The viewpoint weight function in FIG. 25 (c) is obtained by subtracting the viewpoint weight function in FIG. 25 (b) from the viewpoint weight function in FIG. 25 (a), and satisfies the conditions of Expressions 30 and 31. That is, in the viewpoint weight function of FIG. 25 (c), the integral of all viewpoints is 0, and the integral of the area where the viewpoint radius r is equal to or smaller than the predetermined threshold value r th is negative, and from the predetermined threshold value r th The integration in the large area is positive.

次に、視点散乱画像データ生成処理ステップS2103における視点散乱画像データの生成方法を説明する。
既に数10で説明したように、所定の視点(s,t)の視点画像データと、同一の観察角φで偏角θが180度異なる視点の視点画像データとの間で減算すると、標本の透過率の違いによる濃淡の情報は打ち消され、効率的に散乱画像データを生成できる。
Next, a method for generating viewpoint scattered image data in the viewpoint scattered image data generation processing step S2103 will be described.
As already described in Equation 10, subtraction between the viewpoint image data of the predetermined viewpoint (s, t) and the viewpoint image data of the viewpoint with the same observation angle φ and the deviation angle θ different by 180 degrees gives The shading information due to the difference in transmittance is canceled out, and scattered image data can be generated efficiently.

図16(c)は本実施例における視点散乱画像データ生成処理S2103の内部処理を示すフローチャートである。以下、図16(c)を用いて視点毎の散乱画像データの生成方法を説明する。
まず偏角回転視点算出ステップS2301では、処理対象の視点に対し、偏角θが所定の角度だけ回転した位置にある、偏角回転視点を算出する。なお、回転角度としては180度が最も好ましいため、以降は180度の場合について説明する。
図7(a)に示す座標系において、処理対象の視点P0の座標を(x,y)=(s,t)とすると、180度回転した偏角回転視点P1の座標は(x,y)=(−s,−t)となる。
FIG. 16C is a flowchart showing the internal processing of the viewpoint scattered image data generation processing S2103 in the present embodiment. Hereinafter, a method for generating scattered image data for each viewpoint will be described with reference to FIG.
First, in a declination rotation viewpoint calculation step S2301, a declination rotation viewpoint in which the declination angle θ is at a position rotated by a predetermined angle with respect to the viewpoint to be processed is calculated. Since the rotation angle is most preferably 180 degrees, the case of 180 degrees will be described below.
In the coordinate system shown in FIG. 7A, when the coordinates of the viewpoint P0 to be processed are (x, y) = (s p , t p ), the coordinates of the declination rotating viewpoint P1 rotated by 180 degrees are (x, y). y) = (− s p , −t p ).

次に、偏角回転視点画像データ生成ステップS2302ではステップS2301で計算した偏角回転視点P1から観察した視点画像データを生成する。視点画像データの生成方法は視点画像データ生成ステップS2102で既に説明したため、省略する。なお、視点画像データ生成ステップS2102で既に、偏角回転視点P1の視点画像データを計算済みの場合には、改めて計算せずに、画像データ生成装置100の記憶装置130やメインメモリ303に存在するデータを読み出して利用する。
次に視点散乱画像データ生成演算ステップS2303では、処理対象の視点P0の視点画像データIP0(X,Y,Zf)と偏角回転視点P1の視点画像データIP1(X,Y,Zf)とから、視点散乱画像データを生成し、出力する。具体的には、設定画面1402で方式として「偏角変更」が選択された場合は数22または数23に示す演算が行われ、「複合変更」が選択された場合は数33の演算が行われる。
Next, in a declination rotation viewpoint image data generation step S2302, viewpoint image data observed from the declination rotation viewpoint P1 calculated in step S2301 is generated. Since the viewpoint image data generation method has already been described in the viewpoint image data generation step S2102, it will be omitted. If the viewpoint image data of the declination rotation viewpoint P1 has already been calculated in the viewpoint image data generation step S2102, it is not calculated again and exists in the storage device 130 and the main memory 303 of the image data generation apparatus 100. Read and use data.
Then the viewpoint scatter image data generating operation step S2303, the viewpoint image data I P0 of the processing target viewpoint P0 (X, Y, Zf) and viewpoint image data I P1 of the polarization angle spinning viewpoint P1 (X, Y, Zf) and From this, viewpoint scattered image data is generated and output. Specifically, when “change declination” is selected as the method on the setting screen 1402, the calculation shown in Expression 22 or 23 is performed, and when “Compound change” is selected, the calculation of Expression 33 is performed. Is called.

(視点散乱画像データ統合処理ステップS2104)
視点散乱画像データ統合処理ステップS2104では、複数の視点散乱画像データを統合し、散乱画像データ(散乱光強調画像データあるいは散乱光抽出画像データ)を生成する。
具体的には、設定画面1402で方式として「偏角変更」が選択された場合には数44の演算が行われ、「複合変更」が選択された場合には数32の演算が行われる。
このとき、数44、数32のkex(s,t)は、設定画面1402の「視点重み関数1」および「視点重み関数2」で設定されたパラメータからka1(s,t)、ka2(s,t)を計算した後、数29を用いて計算する。
(Viewpoint scattered image data integration processing step S2104)
In the viewpoint scattered image data integration processing step S2104, the plurality of viewpoint scattered image data are integrated to generate scattered image data (scattered light weighted image data or scattered light extracted image data).
Specifically, when “changing declination” is selected as the method on the setting screen 1402, the calculation of Formula 44 is performed, and when “composite change” is selected, the calculation of Formula 32 is performed.
At this time, k ex (s, t) in Expression 44 and Expression 32 is obtained from the parameters set in “Viewpoint Weight Function 1” and “Viewpoint Weight Function 2” on the setting screen 1402, k a1 (s, t), k After calculating a2 (s, t), calculation is performed using Equation 29.

なお、図16(b)のフローチャートでは、視点ループの処理に入る前に散乱画像データの格納用バッファを0で初期化し、ステップS2103で数44または数32の積分内の演算を実行し、その結果を散乱画像データの格納用バッファに加算しても良い。その場合には、ステップS2104の演算は不要となる。
また、数44の代わりに数25を用い、散乱光情報抽出用の視点重み関数kex(s,t)の代わりに任意の視点重み関数k(s,t)を用いて散乱光抽出画像データを生成することも可能であり、本発明の範疇とする。
また、視点散乱画像データ統合処理ステップS2104では、視点散乱画像データ生成処理ステップS2103同様に散乱画像データに含まれるノイズを除去する処理を行っても良い。その場合、散乱画像データ計算設定画面1402でノイズ除去設定を行う。生成
した散乱画像データの0未満の数値は0とする。0未満の領域には散乱光成分はほとんどなく、焦点ぼけ成分が多いためである(この処理もノイズ除去の効果がある)。
In the flowchart of FIG. 16B, the scattered image data storage buffer is initialized with 0 before entering the viewpoint loop processing, and the calculation in the integration of Equation 44 or Equation 32 is executed in Step S2103. The result may be added to the scattered image data storage buffer. In that case, the calculation in step S2104 is not necessary.
Further, the scattered light extraction image data is obtained by using the expression 25 instead of the expression 44 and using an arbitrary viewpoint weight function k (s, t) instead of the viewpoint weight function k ex (s, t) for extracting scattered light information. Can also be generated and is within the scope of the present invention.
In the viewpoint scattered image data integration processing step S2104, a process for removing noise included in the scattered image data may be performed as in the viewpoint scattered image data generation processing step S2103. In that case, noise removal setting is performed on the scattered image data calculation setting screen 1402. A numerical value less than 0 in the generated scattered image data is set to 0. This is because there is almost no scattered light component in the region less than 0, and there are many defocus components (this process also has an effect of noise removal).

(散乱画像データ生成実行処理ステップS2002:観察角変更)
図16(d)は設定画面1402で「方式」として「観察角変更」を選択した場合の散乱画像データ生成実行処理ステップS2002の内部処理を示すフローチャートである。
視点取得処理ステップS2201の処理は図16(b)のステップS2101と同一であるため説明は省略する。
次に視点画像データ生成ステップS2202では、Zスタック画像データを元に、ステップS2201で求めた視点に対応する視点画像データを生成する。画像データ生成装置100(CPU301)が実行するこの機能を視点画像データ生成手段とよぶ。Zスタック画像データから任意の視点画像データを生成する手法(MFI任意視点/焦点ぼけ画像生成法)には、前述の特許文献1、非特許文献2、3、4等の方法をはじめとして、如何なる方法を用いてもよい。
(Scattering image data generation execution processing step S2002: change of observation angle)
FIG. 16D is a flowchart showing the internal processing of the scattered image data generation execution processing step S2002 when “change observation angle” is selected as the “method” on the setting screen 1402.
The processing of the viewpoint acquisition processing step S2201 is the same as that of step S2101 in FIG.
Next, in viewpoint image data generation step S2202, viewpoint image data corresponding to the viewpoint obtained in step S2201 is generated based on the Z stack image data. This function executed by the image data generation device 100 (CPU 301) is referred to as viewpoint image data generation means. As a method for generating arbitrary viewpoint image data from the Z stack image data (MFI arbitrary viewpoint / in-focus image generation method), any method including the method described in Patent Document 1, Non-Patent Document 2, 3, 4 and the like described above is applicable. A method may be used.

ステップS2201で求めた全ての視点に対してステップS2202の処理を終えたら、視点画像データ統合処理ステップS2203に進む。
視点画像データ統合処理では、設定画面1402で選択した「視点重み関数1」と「視点重み関数2」に基づき、数29を用いて計算した散乱光情報抽出用の視点重み関数を用いてステップS2202で求めた視点画像データを統合する。視点画像データの統合においては数28に相当する計算を行う。これにより、散乱画像データが得られる。
視点画像データ統合処理ステップS2203においても、図16(b)のステップS2104と同様に設定画面1402のノイズ除去設定に従って、ノイズ除去を行っても良い。また生成した散乱画像データの0未満の数値は0とする。
When the process of step S2202 is completed for all viewpoints obtained in step S2201, the process advances to viewpoint image data integration process step S2203.
In the viewpoint image data integration processing, step S2202 is performed using the viewpoint weight function for extracting scattered light information calculated using Equation 29 based on “viewpoint weight function 1” and “viewpoint weight function 2” selected on the setting screen 1402. Integrate the viewpoint image data obtained in step 1. In the integration of the viewpoint image data, a calculation corresponding to Equation 28 is performed. Thereby, scattered image data is obtained.
In the viewpoint image data integration processing step S2203 as well, noise removal may be performed according to the noise removal setting on the setting screen 1402 as in step S2104 of FIG. In addition, a numerical value less than 0 in the generated scattered image data is set to 0.

(透過光成分抑制処理ステップS1603)
続いて、図14(b)の透過光成分抑制処理ステップS1603の処理について説明する。
ステップS1603では、ステップS1602で生成した散乱画像データの中に含まれるアーティファクト(焦点ぼけ成分)を抑制する処理を行う。前述のように、ここで問題とするアーティファクトは、散乱画像データ(特徴画像データ)のうち、Zスタック画像データ(撮影して得られた元画像データ)において低輝度な領域に顕著に現れる。そこで本実施例では、散乱画像データのうち少なくとも元画像データにおける低輝度領域に対応する画素に対して、輝度を低下させる補正処理を行う、という操作により、上記アーティファクトを低減する。輝度補正後の散乱画像データ(特徴画像データ)を補正画像データと呼ぶ。図17(a)はステップS1603の内部処理を表すフローチャートである。設定も交えながら処理を説明する。
まず、抑制方式決定処理ステップS2401では、図13(e)の透過光成分抑制設定画面1403の「方式」で選択した透過光成分抑制処理の方式(例えば「掛け算」など)に基づき、後段のステップS2402で実行する方式を決定する。
次に、抑制実行処理ステップS2402では、ステップS2401で決定した方式に基づき、散乱光抽出画像データ内のアーティファクト(焦点ぼけ成分)を抑制する。
(Transmission light component suppression processing step S1603)
Then, the process of the transmitted light component suppression process step S1603 of FIG.14 (b) is demonstrated.
In step S1603, processing is performed to suppress artifacts (defocus components) included in the scattered image data generated in step S1602. As described above, the artifact which is a problem in this case appears remarkably in a low-luminance region in the Z stack image data (original image data obtained by photographing) in the scattered image data (feature image data). Therefore, in the present embodiment, the artifact is reduced by an operation of performing a correction process for reducing the luminance on pixels corresponding to at least the low luminance region in the original image data in the scattered image data. The scattered image data (feature image data) after luminance correction is referred to as corrected image data. FIG. 17A is a flowchart showing the internal processing of step S1603. The process will be described with settings.
First, in the suppression method determination processing step S2401, a subsequent step is performed based on the transmitted light component suppression processing method (eg, “multiplication”) selected in the “method” of the transmitted light component suppression setting screen 1403 in FIG. In S2402, the method to be executed is determined.
Next, in the suppression execution processing step S2402, artifacts (defocus components) in the scattered light extracted image data are suppressed based on the method determined in step S2401.

本実施例の透過光成分抑制処理部1703では、設定画面1403で選択された「方式」である「掛け算」に基づき、透過光成分抑制マスクM(X,Y,Zf)と散乱光抽出画像データDS(X,Y,Zf)の間で掛け算を実行する。これにより、低輝度領域のアーティファクト(焦点ぼけ成分)を抑制した補正散乱光抽出画像データ(補正画像データ)MDS(X,Y,Zf)を生成する。透過光成分抑制マスクM(X,Y,Zf)と散乱光抽出画像データDS(X,Y,Zf)の間の掛け算とは、散乱光抽出画像データの各画素の画素値に対し、透過光成分抑制マスクの対応画素の係数を乗じる操作である。式では下
記で表わされる。

Figure 2015191362
In the transmitted light component suppression processing unit 1703 of this embodiment, the transmitted light component suppression mask M (X, Y, Zf) and scattered light extraction image data are based on “multiplication” which is the “method” selected on the setting screen 1403. Multiply between DS (X, Y, Zf). Thereby, corrected scattered light extraction image data (corrected image data) MDS (X, Y, Zf) in which artifacts (defocus components) in the low luminance region are suppressed is generated. The multiplication between the transmitted light component suppression mask M (X, Y, Zf) and the scattered light extracted image data DS (X, Y, Zf) is the transmitted light with respect to the pixel value of each pixel of the scattered light extracted image data. This is an operation of multiplying the coefficient of the corresponding pixel of the component suppression mask. In the formula:
Figure 2015191362

図17(b)は方式として「掛け算」を選択した場合の、抑制実行処理ステップS2402内の処理および効果を示す1次元の模式図である。図17(b)を用いて詳細を説明する。
図17(b)の2501は、輝度差の大きなエッジを持つ、焦点位置から離れた位置に存在する被写体の参照画像データを表し、2502は透過光成分抑制マスク生成部1701で計算した透過光成分抑制マスクM(X,Y,Zf)を表す。マスク2502では低輝度領域(Xが負の領域)での係数は小さくなっている。マスク2502の係数は0〜1の値をもつ。なお、参照画像データ2501としては、前述のとおり、全焦点画像データや、任意の焦点ぼけを持つ任意焦点ぼけ画像データなどを用いることができる。
FIG. 17B is a one-dimensional schematic diagram showing processing and effects in the suppression execution processing step S2402 when “multiplication” is selected as the method. Details will be described with reference to FIG.
Reference numeral 2501 in FIG. 17B represents reference image data of a subject that has an edge with a large luminance difference and is located away from the focal position. Reference numeral 2502 denotes a transmitted light component calculated by the transmitted light component suppression mask generation unit 1701. The suppression mask M (X, Y, Zf) is represented. In the mask 2502, the coefficient in the low luminance region (region where X is negative) is small. The coefficient of the mask 2502 has a value of 0-1. Note that as the reference image data 2501, as described above, omnifocal image data, arbitrary defocused image data having arbitrary defocusing, or the like can be used.

2503は散乱光抽出画像データ生成部1702で計算した散乱光抽出画像データDS(X,Y,Zf)を表す。エッジの低輝度領域(Xが負の領域)ではアーティファクト(焦点ぼけ成分)が発生している。なお、2503には散乱光成分も同時に含まれているが、図には表示していない。
2504は数48の演算結果である。透過光成分抑制マスク2502は低輝度領域(Xが負の領域)の係数は、高輝度領域(Xが正の領域)の係数よりも相対的に小さい値になっている。そのため、散乱光抽出画像データ2503に係数を掛けた結果の画像データ2504では、低輝度領域(Xが負の領域)のアーティファクト(焦点ぼけ成分)が低減されている。
Reference numeral 2503 denotes scattered light extraction image data DS (X, Y, Zf) calculated by the scattered light extraction image data generation unit 1702. Artifacts (defocus components) occur in the low luminance region (region where X is negative) of the edge. Note that although the scattered light component is also included in 2503, it is not shown in the figure.
2504 is the calculation result of Formula 48. In the transmitted light component suppression mask 2502, the coefficient of the low luminance region (X is a negative region) is relatively smaller than the coefficient of the high luminance region (X is a positive region). Therefore, in the image data 2504 obtained by multiplying the scattered light extracted image data 2503 by a coefficient, artifacts (defocus components) in the low luminance region (region where X is negative) are reduced.

なお、図13(c)〜図13(e)に示す設定画面はあくまで一例である。ユーザである病理医が設定に煩わされずに素早く観察・診断できるよう、デフォルトの設定や自動的に最適値が設定される機能を備えることが望ましい。
以上、本実施例における散乱画像データ計算処理(図14(a)のS1502)について述べた。
Note that the setting screens shown in FIGS. 13C to 13E are merely examples. It is desirable to provide a default setting or a function for automatically setting an optimum value so that a pathologist as a user can quickly observe and diagnose without being troubled by the setting.
The scattering image data calculation process (S1502 in FIG. 14A) in the present embodiment has been described above.

(輪郭抽出処理)
続いて輪郭抽出処理(図14(a)のS1503)の一例について述べる。
散乱画像データでは被写体中の散乱光成分が強調されているものの、ノイズや信号の強弱が存在する。そこで、より輪郭を見やすくするために、輪郭抽出処理を行う。例えば、散乱画像データを2値化し(2値化の閾値は予め決められた値を用いても良いし、動的に決めても良い)、その後、膨張・縮小処理を繰り返すことにより、輪郭を抽出できる。他にも輪郭抽出方法には様々な公知の技術があり、ここではいずれの方法も適用できる。またさらに細線化処理を追加することで輪郭が存在する位置精度を高めることができる。処理の結果、散乱画像データから輪郭抽出像データが得られる。
(Outline extraction processing)
Next, an example of the contour extraction process (S1503 in FIG. 14A) will be described.
In the scattered image data, although the scattered light component in the subject is emphasized, there are noise and signal strength. Therefore, contour extraction processing is performed to make the contour easier to see. For example, the scattered image data is binarized (the threshold value for binarization may be a predetermined value or may be dynamically determined), and then the expansion / reduction process is repeated to thereby define the contour. Can be extracted. In addition, there are various known techniques for the contour extraction method, and any method can be applied here. Further, by adding a thinning process, it is possible to improve the position accuracy where the contour exists. As a result of the processing, contour extraction image data is obtained from the scattered image data.

(画像データの表示・解析)
続いて画像表示処理S1504を経て、画像表示アプリケーション上に視点散乱画像データ、散乱画像データ、あるいは輪郭抽出像データを示すことで、細胞と細胞の間の細胞境界、細胞と類洞の境目などを分かりやすくできる。それによって病理医は患部組織の3次元構造をイメージしやすくなる。
さらに、ウィンドウ1300内でマウスを右クリックすることにより機能拡張メニュー1310を呼び出し、N/C比(核/細胞質比)算出等の項目を選択することで、画像解析を行うことが出来る。
(Display and analysis of image data)
Subsequently, through the image display processing S1504, the viewpoint scattered image data, scattered image data, or contour extraction image data is displayed on the image display application, so that the cell boundary between cells, the boundary between cells and sinusoids, etc. Easy to understand. This makes it easier for the pathologist to image the three-dimensional structure of the affected tissue.
Further, by right-clicking the mouse in the window 1300, the function expansion menu 1310 is called, and an image analysis can be performed by selecting an item such as N / C ratio (nucleus / cytoplasm ratio) calculation.

図18はN/C比算出の処理フローの一例である。
N/C比算出にあたっては左側領域1301内の選択領域207の画像データと輪郭抽出像データの2枚の画像データを用いることを前提とする。以下、画像データ中の核の部分を核領域、核を取り巻く細胞質の部分を細胞質領域、核領域と細胞質領域を合わせた全体を細胞領域と呼ぶ。
FIG. 18 is an example of a processing flow for calculating the N / C ratio.
In calculating the N / C ratio, it is assumed that the image data of the selection area 207 in the left area 1301 and the image data of the contour extraction image data are used. Hereinafter, the nucleus portion in the image data is called a nucleus region, the cytoplasm portion surrounding the nucleus is called a cytoplasm region, and the whole of the nucleus region and the cytoplasm region is called a cell region.

まず、核領域決定処理ステップS2601では核領域の決定を行う。例としては以下の方法がある。HE染色では核内は濃青に染色される為、輪郭抽出像内の該当閉領域内に位置する選択領域207内の画素が一定以上の比率で所定の範囲の色域に属すか否かで、核領域か否かを判別できる。判別に用いる比率及び色域は、予め複数のサンプルを用いて学習すれば良い。   First, in the nuclear region determination processing step S2601, the nuclear region is determined. Examples include the following methods. In HE staining, the inside of the nucleus is dyed dark blue, so whether or not the pixels in the selection area 207 located in the corresponding closed area in the contour extraction image belong to a predetermined range of color gamut at a certain ratio or more. It can be determined whether or not it is a nuclear region. The ratio and color gamut used for discrimination may be learned in advance using a plurality of samples.

続いて、細胞質領域決定処理ステップS2602では細胞質領域の決定を行う。HE染色では細胞質はピンク色に染色される。従って、核領域決定処理と同様、輪郭抽出像データ内の該当閉領域内に位置する選択領域207内の画素が一定以上の比率で所定の範囲の色域に属すか否かで、細胞領域か否かを判別できる。その後、細胞領域から、ステップS2601で核領域と見なされた閉領域を除外することにより、細胞質領域を特定する。ここでの判別に用いる比率及び色域も、予め複数のサンプルを用いて学習すれば良い。   Subsequently, in the cytoplasm region determination processing step S2602, the cytoplasm region is determined. In HE staining, the cytoplasm is stained pink. Therefore, as in the nuclear region determination process, whether or not the pixels in the selection region 207 located in the corresponding closed region in the contour extraction image data belong to a predetermined range of color gamut at a certain ratio or more, It can be determined whether or not. Thereafter, the cytoplasm region is specified by excluding the closed region regarded as the nucleus region in step S2601 from the cell region. The ratio and color gamut used for the discrimination here may be learned using a plurality of samples in advance.

自動処理では十分な精度が出ない場合には、ユーザが介在(補助)して領域決定を行っても良い。その場合、ステップS2602の後、GUIでユーザに輪郭、核領域、細胞領域を修正できる設定画面を表示する。
最後にN/C比算出処理ステップS2603では、上記で求めた核領域の面積を細胞質領域の面積で割り、N/C比を求める。
上記で述べたN/C比算出フローはあくまで一例であり、その他、様々な変形や改良が可能である。
If automatic processing does not provide sufficient accuracy, the user may intervene (help) to determine the area. In that case, after step S2602, a setting screen that allows the user to modify the contour, nucleus region, and cell region is displayed on the GUI.
Finally, in the N / C ratio calculation processing step S2603, the area of the nucleus region obtained as described above is divided by the area of the cytoplasm region to obtain the N / C ratio.
The N / C ratio calculation flow described above is merely an example, and various other modifications and improvements are possible.

(本実施例の利点)
以上述べたように、本実施例では、低輝度領域では散乱光が少ない性質を利用し、散乱光抽出画像データに被写体から計算したマスクを掛け算することで低輝度領域のアーティファクト(焦点ぼけ成分)を低減させることが可能となる。これにより、病理標本の核などに存在する低輝度領域のアーティファクト(焦点ぼけ成分)の影響を気にすることなく、細胞質や細胞境界での表面凹凸(散乱光)を観察したいというユーザの要望にも応えることができる。
なお、本実施例で述べる手法はいずれも、Zスタック画像データから標本の散乱画像データを抽出することができる。そのため、画像処理(コンピュータによる後処理)だけで(つまり、撮影時の光学系や露出条件の変更を行うことなく)、標本を観察する上で有用な細胞膜や細胞境界、細胞と管や腔との境界を明瞭にすることができる。さらに、輝度や色の変化としてほとんど現れない表面凹凸についても、コントラストを高めて可視化することができるという効果もある。
それにより診断に有用な画像の提示、N/C比の算出等の診断支援機能が実現できる。
(Advantages of this embodiment)
As described above, in the present embodiment, the low-luminance region artifacts (defocusing component) are obtained by using the property of low scattered light in the low-luminance region and multiplying the scattered light extraction image data by the mask calculated from the subject. Can be reduced. This enables users to observe surface irregularities (scattered light) at the cytoplasm and cell boundaries without worrying about the effects of low-luminance artifacts (focal components) present in the nucleus of pathological specimens. Can also respond.
Note that any of the methods described in the present embodiment can extract sample scattered image data from Z stack image data. Therefore, only by image processing (post-processing by a computer) (that is, without changing the optical system and exposure conditions at the time of imaging), cell membranes and cell boundaries, cells and tubes and cavities that are useful for observing specimens The boundary can be made clear. Furthermore, surface unevenness that hardly appears as a change in luminance or color can be visualized with an increased contrast.
Thereby, diagnosis support functions such as presentation of images useful for diagnosis and calculation of N / C ratio can be realized.

なお、本実施例では実行ボタン1308が押されたときに散乱画像データ生成処理を実行するようにしたが、図13(b)、図13(c)〜図13(e)に示す設定パラメータが変更される度に散乱画像データ生成処理を実行するようにしても良い。そうすると、設定パラメータの変更に同期してリアルタイムに処理結果が表示されることとなる。この構成の場合には、図13(b)、図13(c)〜図13(e)に示す設定項目を1つの設定画面内に展開して配置すると良い。このような実装形態も本発明の範疇となる。   In this embodiment, the scattered image data generation process is executed when the execution button 1308 is pressed. However, the setting parameters shown in FIGS. 13B and 13C to 13E are changed. You may make it perform a scattered image data generation process, whenever it changes. If it does so, a processing result will be displayed in real time synchronizing with the change of a setting parameter. In the case of this configuration, the setting items shown in FIGS. 13B and 13C to 13E may be deployed and arranged in one setting screen. Such mounting forms are also within the scope of the present invention.

[実施例2]
上述した実施例1では、散乱画像データの一例として散乱光抽出画像データに対する処理について述べた。それに対し、実施例2では、散乱光強調画像データの低輝度領域のアーティファクト(焦点ぼけ成分)を抑える方法について述べる。なお、既に述べたが、散乱光強調画像データとは、任意焦点ぼけ画像データに散乱光抽出画像データを加算した画像データである。
[Example 2]
In the first embodiment described above, the processing for the scattered light extracted image data is described as an example of the scattered image data. On the other hand, in the second embodiment, a method for suppressing artifacts (focal blur components) in the low luminance region of the scattered light weighted image data will be described. As already described, the scattered light weighted image data is image data obtained by adding scattered light extracted image data to arbitrary defocused image data.

(散乱画像データ計算設定画面1402)
本実施例では、散乱画像データ計算設定画面1402では「種別」の設定として「散乱光強調画像」を選択する。「方式」は実施例1と同様に、「偏角変更」「観察角変更」「複合変更」の中から選択できる。また「視点重み関数1」および「視点重み関数2」としは実施例1と同様、ドロップダウンリストからガウス関数で表わされるガウスぼけや円柱形で表わされる円柱ぼけ等の焦点ぼけの形状とその半径が組み合わされたパラメータ設定が選択できる。なお、視点設定画面1401および透過光成分抑制設定画面1403に関しては実施例1と同じであるため、説明を省略する。
(Scattering image data calculation setting screen 1402)
In this embodiment, “scattered light weighted image” is selected as the “type” setting on the scattered image data calculation setting screen 1402. As in the first embodiment, the “method” can be selected from “change in declination”, “change in observation angle”, and “combined change”. The “viewpoint weighting function 1” and “viewpoint weighting function 2” are the same as in the first embodiment. From the drop-down list, the shape of the focal blur such as a Gaussian blur represented by a Gaussian function or a cylindrical blur represented by a cylindrical shape and its radius. Parameter settings combined with can be selected. Note that the viewpoint setting screen 1401 and the transmitted light component suppression setting screen 1403 are the same as those in the first embodiment, and thus description thereof is omitted.

図19(a)は本実施例における散乱画像データ計算処理ステップS1502の内部処理を示すフローチャートである。また図19(b)は散乱画像データ計算処理の機能を実現するブロック図である。以下、図19(a)、図19(b)を用いて、散乱画像データ(散乱光強調画像データ)の生成方法を説明する。
本実施例のフローチャート(図19(a))と実施例1のフローチャート(図14(b))の違いは、散乱光強調画像データ生成処理ステップS2704が存在する点である。また本実施例の機能ブロック(図19(b))と実施例1の機能ブロック(図14(c))の違いは、散乱光強調画像データ生成部2804が存在する点である。図19(a)のステップS2701〜S2703は図14(b)のステップS1601〜S1603と同じ処理のため、詳細説明は省略する。また図19(b)のブロック2801〜2803は図14(c)のブロック1701〜1703と同じ機能を有するため、詳細説明は省略する。以降、散乱光強調画像データ生成処理ステップS2704および散乱光強調画像データ生成部2804について詳しく説明する。
FIG. 19A is a flowchart showing the internal processing of scattered image data calculation processing step S1502 in this embodiment. FIG. 19B is a block diagram for realizing the scattered image data calculation processing function. Hereinafter, a method of generating scattered image data (scattered light weighted image data) will be described with reference to FIGS. 19A and 19B.
The difference between the flowchart of this embodiment (FIG. 19A) and the flowchart of FIG. 1 (FIG. 14B) is that scattered light weighted image data generation processing step S2704 exists. The difference between the functional block of this embodiment (FIG. 19B) and the functional block of Embodiment 1 (FIG. 14C) is that a scattered light weighted image data generation unit 2804 exists. Steps S2701 to S2703 in FIG. 19A are the same as steps S1601 to S1603 in FIG. Further, blocks 2801 to 2803 in FIG. 19B have the same functions as blocks 1701 to 1703 in FIG. Hereinafter, the scattered light weighted image data generation processing step S2704 and the scattered light weighted image data generation unit 2804 will be described in detail.

(散乱光強調画像データ生成部2804)
図19(b)の散乱光強調画像データ生成部2804の入出力について説明する。散乱光強調画像データ生成部2804には、Zスタック画像データおよび、設定画面1401〜1403の情報から計算された補正散乱光抽出画像データMDS(X,Y,Zf)が入力される。補正散乱光抽出画像データMDS(X,Y,Zf)は例えば数48の演算により得られる。
散乱光強調画像データ生成部2804は、散乱光強調画像データ生成処理ステップS2704の処理を実行する。Zスタック画像データと補正散乱光抽出画像データMDS(X,Y,Zf)とから、低輝度領域のアーティファクト(焦点ぼけ成分)を抑制した補正散乱光強調画像データMComp(X,Y,Zf)が生成され出力される。
(Scattered light weighted image data generation unit 2804)
Input / output of the scattered light weighted image data generation unit 2804 in FIG. 19B will be described. The scattered light weighted image data generation unit 2804 receives the Z stack image data and the corrected scattered light extraction image data MDS (X, Y, Zf) calculated from the information on the setting screens 1401 to 1403. The corrected scattered light extraction image data MDS (X, Y, Zf) is obtained by, for example, the calculation of Formula 48.
The scattered light weighted image data generation unit 2804 executes the process of the scattered light weighted image data generation processing step S2704. From the Z stack image data and the corrected scattered light extraction image data MDS (X, Y, Zf), corrected scattered light weighted image data MComp (X, Y, Zf) in which artifacts (defocus components) in the low luminance region are suppressed is obtained. Generated and output.

図20は散乱光強調画像データ生成処理ステップS2704の内部処理を示すフローチャートである。以下、図20の処理を説明する。
任意焦点ぼけ画像データ生成処理ステップS2901では、まずZスタック画像データから任意焦点ぼけ画像データa(X,Y,Zf)を生成する。Zスタック画像データからの任意焦点ぼけ画像データa(X,Y,Zf)の生成には前述の特許文献1、非特許文献2、3、4等の方法をはじめとして、如何なる方法を用いてもよい。任意焦点ぼけ画像データには、Zスタック画像データを構成するレイヤー画像データと異なる焦点ぼけをもつ画像データと、レイヤー画像データと同じ焦点ぼけをもつ画像データとが含まれる。いずれの画像データも特許文献1、非特許文献2、3、4等の方法で生成できるが、後者の画像データについてはZスタック画像データの中から選択したいずれかのレイヤー画像デー
タをそのまま用いてもよい。
次に、補正散乱光強調画像データ生成処理ステップS2902では、ステップS2703で生成した補正散乱光抽出画像データMDS(X,Y,Zf)を係数αで変倍し、任意焦点ぼけ画像データa(X,Y,Zf)に加算する。これにより、補正散乱光強調画像データMComp(X,Y,Zf)が生成される。式で表現すると下記となる。

Figure 2015191362
なお、αは散乱光の強調の度合いを決める合成係数であり、正の値を持つ。αの設定は設定画面1403でユーザにより変更可能である(不図示)。以降の説明ではα=1の場合について説明する。 FIG. 20 is a flowchart showing internal processing of scattered light weighted image data generation processing step S2704. Hereinafter, the process of FIG. 20 will be described.
In the arbitrary defocus image data generation processing step S2901, first, arbitrary defocus image data a (X, Y, Zf) is generated from the Z stack image data. Any method can be used to generate the arbitrary defocused image data a (X, Y, Zf) from the Z stack image data, including the methods described in Patent Document 1, Non-Patent Documents 2, 3, 4, and the like. Good. The arbitrary defocus image data includes image data having a defocus different from the layer image data constituting the Z stack image data, and image data having the same defocus as the layer image data. Any image data can be generated by the method of Patent Document 1, Non-Patent Document 2, 3, 4 or the like. For the latter image data, any one of the layer image data selected from the Z stack image data is used as it is. Also good.
Next, in the corrected scattered light enhanced image data generation processing step S2902, the corrected scattered light extracted image data MDS (X, Y, Zf) generated in step S2703 is scaled by the coefficient α, and the arbitrary defocused image data a (X , Y, Zf). Thereby, corrected scattered light weighted image data MComp (X, Y, Zf) is generated. Expressed as a formula,
Figure 2015191362
Α is a synthesis coefficient that determines the degree of enhancement of scattered light, and has a positive value. α can be changed by the user on the setting screen 1403 (not shown). In the following description, the case of α = 1 will be described.

設定画面1402の「方式」で「偏角変更」を設定した場合、設定画面1402で設定した「視点重み関数1」が任意焦点ぼけ画像データおよび散乱光強調画像データの生成で用いられる。ステップS2902で生成される補正散乱光強調画像データは以下で表現される。

Figure 2015191362
When “deflection change” is set in the “method” on the setting screen 1402, the “viewpoint weighting function 1” set on the setting screen 1402 is used for generating arbitrary defocused image data and scattered light weighted image data. The corrected scattered light weighted image data generated in step S2902 is expressed as follows.
Figure 2015191362

続いて、図21(a)、図21(b)を用いて散乱光強調画像データ生成処理ステップS2704の処理および効果について説明する。
図21(a)は透過光成分抑制処理部2803で行う処理を1次元で表した模式図である。図21(b)は散乱光強調画像データ生成部2804で行う処理を1次元で表した模式図である。
図21(a)の3001は散乱光抽出画像データDS(X,Y,Zf)を表し、3002は透過光成分抑制マスクM(X,Y,Zf)を表し、3003は補正散乱光抽出画像データMDS(X,Y,Zf)を表す。既に実施例1で説明したように、補正散乱光抽出画像データMDS(X,Y,Zf)では、エッジの低輝度領域(Xが負の領域)のアーティファクト(焦点ぼけ成分)は抑制されている。
図21(b)の3004はZスタック画像データから計算した任意焦点ぼけ画像データa(X,Y,Zf)を表す。任意焦点ぼけ画像データ3004に補正散乱光抽出画像データ3003を加算すると、3005に示す補正散乱光強調画像データMComp(X,Y,Zf)が生成できる。
Next, the processing and effects of the scattered light weighted image data generation processing step S2704 will be described with reference to FIGS. 21A and 21B.
FIG. 21A is a schematic diagram showing the process performed by the transmitted light component suppression processing unit 2803 in one dimension. FIG. 21B is a schematic diagram showing the process performed by the scattered light weighted image data generation unit 2804 in one dimension.
In FIG. 21A, 3001 represents scattered light extraction image data DS (X, Y, Zf), 3002 represents transmitted light component suppression mask M (X, Y, Zf), and 3003 represents corrected scattered light extraction image data. MDS (X, Y, Zf) is represented. As already described in the first embodiment, in the corrected scattered light extraction image data MDS (X, Y, Zf), artifacts (defocus components) in the low luminance region (region where X is negative) of the edge are suppressed. .
Reference numeral 3004 in FIG. 21B represents arbitrary defocus image data a (X, Y, Zf) calculated from the Z stack image data. When the corrected scattered light extraction image data 3003 is added to the arbitrary defocused image data 3004, corrected scattered light weighted image data MComp (X, Y, Zf) indicated by 3005 can be generated.

補正散乱光強調画像データ3005では、図12に示した散乱光強調画像データ1214と比べ、低輝度領域(Xが負の領域)のアーティファクト(焦点ぼけ成分)が抑制される。一方で、高輝度領域(Xが正の領域)では散乱光強調画像データ1214と同様に焦点ぼけが抑制される。また散乱光抽出画像データ3003の高輝度領域には散乱光成分(不図示)が多く含まれるため、補正散乱光強調画像データ3005では散乱光成分が強調されている。   In the corrected scattered light weighted image data 3005, compared to the scattered light weighted image data 1214 shown in FIG. 12, artifacts (defocus components) in the low luminance region (region where X is negative) are suppressed. On the other hand, in the high-luminance region (region where X is positive), the defocus is suppressed similarly to the scattered light weighted image data 1214. In addition, since the scattered light component (not shown) is included in the high luminance region of the scattered light extraction image data 3003, the scattered light component is emphasized in the corrected scattered light weighted image data 3005.

なお、図19(a)に示すフローチャートではステップS2702〜S2704のそれぞれで複数視点の積分を実行している。しかし、数50に示すように、視点毎にステップS2702〜S2704の計算を行った後に積分を行うことも可能であり、その方法も本発明の範疇とする。
なお、設定画面1402の「方式」で「観察角変更」や「複合変更」を設定する場合には、任意焦点ぼけ画像データの生成では設定画面1402で設定した「視点重み関数1」を用いる。また、散乱光強調画像データの生成では設定画面1402で設定した「視点重み関数1」および「視点重み関数2」の設定情報から計算した散乱光情報抽出用の視点重み関数を用いる。その場合でも補正散乱光抽出画像データMDS(X,Y,Zf)を用いるため、低輝度領域のアーティファクト(焦点ぼけ成分)を抑えつつ、散乱光を強調することができる。
In the flowchart shown in FIG. 19A, the integration of a plurality of viewpoints is executed in each of steps S2702 to S2704. However, as shown in Formula 50, it is also possible to perform integration after performing the calculations in steps S2702 to S2704 for each viewpoint, and this method is also included in the scope of the present invention.
When “observation angle change” or “composite change” is set in the “method” on the setting screen 1402, “viewpoint weighting function 1” set on the setting screen 1402 is used to generate arbitrary defocused image data. Further, in the generation of scattered light weighted image data, the viewpoint weight function for extracting scattered light information calculated from the setting information of “viewpoint weight function 1” and “viewpoint weight function 2” set on the setting screen 1402 is used. Even in such a case, since the corrected scattered light extraction image data MDS (X, Y, Zf) is used, the scattered light can be enhanced while suppressing artifacts (defocus components) in the low luminance region.

(本実施例の利点)
本実施例の方法によれば、散乱光強調画像データにおいて低輝度領域の焦点ぼけの影響を低減させることが可能となる。これにより、病理標本の核などの低輝度領域におけるアーティファクト(焦点ぼけ成分)の影響を気にすることなく、細胞質や細胞境界における表面凹凸や標本内の散乱光を観察したいというユーザの要望にも応えることができる。
(Advantages of this embodiment)
According to the method of the present embodiment, it is possible to reduce the influence of defocusing in the low luminance region in the scattered light weighted image data. This allows users to observe surface irregularities at the cytoplasm and cell boundaries and scattered light in the specimen without worrying about the effects of artifacts (defocusing components) in low-luminance areas such as the nucleus of pathological specimens. I can respond.

[実施例3]
本実施例では透過光成分抑制マスクM(X,Y,Zf)の値域を変更することにより、低輝度領域のアーティファクト(焦点ぼけ成分)をより抑える方法について説明する。
[Example 3]
In this embodiment, a description will be given of a method for further suppressing artifacts (defocus components) in a low luminance region by changing the value range of the transmitted light component suppression mask M (X, Y, Zf).

本実施例では図15(a)のステップS1803において閾値処理を行い、輝度の高い領域は最大輝度(255)に、輝度の低い領域は0ではなく負の最大輝度(−255)に設定する。それによりステップS1804では−1〜+1の値域を持つ透過光成分抑制マスクM(X,Y,Zf)が生成できる。
このマスクを用いることで、低輝度領域では焦点ぼけをより一層低減することができ、高輝度領域では散乱光を強調することができる。なお、本実施例では散乱画像データ計算設定1402の「種別」では「散乱光画像強調」を選択し、「方式」では「観察角変更」を選択する。また透過光成分抑制設定画面1403の「方式」において「掛け算」を選択する。
In this embodiment, threshold processing is performed in step S1803 in FIG. 15A, and the high luminance region is set to the maximum luminance (255), and the low luminance region is set to the negative maximum luminance (−255) instead of 0. Thereby, in step S1804, a transmitted light component suppression mask M (X, Y, Zf) having a range of −1 to +1 can be generated.
By using this mask, it is possible to further reduce the defocus in the low luminance region, and to enhance the scattered light in the high luminance region. In this embodiment, “scattered light image enhancement” is selected for “type” of the scattered image data calculation setting 1402, and “change observation angle” is selected for “method”. In addition, “Multiply” is selected in “Method” on the transmitted light component suppression setting screen 1403.

次に上記の透過光成分抑制マスクM(X,Y,Zf)を用いる場合の効果について説明する。散乱画像データの生成処理の流れは実施例2と同様のため、以降の説明では、図19(b)のブロック図も参照する。
図22(a)〜図22(d)はそれぞれ、透過光成分抑制マスク生成部2801、散乱光抽出画像データ生成部2802、透過光成分抑制処理部2803、散乱光強調画像データ生成部2804の内部処理を1次元で説明した模式図である。
Next, the effect when using the transmitted light component suppression mask M (X, Y, Zf) will be described. Since the flow of the scattered image data generation process is the same as that of the second embodiment, the block diagram of FIG. 19B is also referred to in the following description.
22A to 22D show the insides of the transmitted light component suppression mask generation unit 2801, the scattered light extraction image data generation unit 2802, the transmitted light component suppression processing unit 2803, and the scattered light weighted image data generation unit 2804, respectively. It is the schematic diagram which demonstrated the process in one dimension.

図22(a)では、輝度差のある被写体のエッジの全焦点画像データ(参照画像データ)3101から、−1〜+1の値域を持つ透過光成分抑制マスク3102が生成される。
図22(b)では、設定画面1402で選択した「視点重み関数1」および「視点重み関数2」のパラメータを用いて散乱光情報抽出用の視点重み関数を求め、数28に相当する処理を実行する。3111は「視点重み関数1」で選択したパラメータを設定した場合の任意焦点ぼけ画像データを表す。3101は「視点重み関数2」で選択したパラメータから生成される全焦点画像データを表す。3112は、任意焦点ぼけ画像データ3111と全焦点画像データ3101の差をとり、正の値のみを取った散乱光抽出画像データを表す。
In FIG. 22A, a transmitted light component suppression mask 3102 having a value range of −1 to +1 is generated from omnifocal image data (reference image data) 3101 of the edge of a subject having a luminance difference.
In FIG. 22B, a viewpoint weight function for extracting scattered light information is obtained using the parameters of “viewpoint weight function 1” and “viewpoint weight function 2” selected on the setting screen 1402, and processing corresponding to Equation 28 is performed. Run. Reference numeral 3111 denotes arbitrary defocused image data when the parameter selected by the “viewpoint weight function 1” is set. Reference numeral 3101 denotes omnifocal image data generated from the parameter selected by “viewpoint weighting function 2”. Reference numeral 3112 denotes scattered light extraction image data obtained by taking the difference between the arbitrary defocus image data 3111 and the omnifocal image data 3101 and taking only a positive value.

図22(c)は散乱光抽出画像データ3112と透過光成分抑制マスク3102の掛け算によって低輝度領域で符号が反転した補正散乱光抽出画像データ3121が生成される様子を表している。
図22(d)は、任意焦点ぼけ画像データ3111と補正散乱光抽出画像データ3121の加算によって、低輝度領域のアーティファクト(焦点ぼけ成分)が抑えられた補正散
乱光強調画像データ3131が生成される様子を表している。
FIG. 22C shows a state in which corrected scattered light extraction image data 3121 whose sign is inverted in the low luminance region is generated by multiplying the scattered light extraction image data 3112 and the transmitted light component suppression mask 3102.
In FIG. 22D, corrected scattered light weighted image data 3131 in which artifacts (focal blur components) in the low luminance region are suppressed is generated by adding the arbitrary defocused image data 3111 and the corrected scattered light extracted image data 3121. It represents the situation.

補正散乱光強調画像データ3131では、実施例2の補正散乱光強調画像データ3005(図21参照)と比べて、低輝度領域(Xが負の領域)のアーティファクトがより一層抑制できている。補正散乱光強調画像データ3131の高輝度領域(Xが正の領域)では焦点ぼけは低減されてないが、加算によって散乱光成分(不図示)は強調されている。
本実施例の方法をHE染色された病理標本の撮影画像データに適用する場合には、核が存在する低輝度領域ではアーティファクト(焦点ぼけ成分)の影響を抑制することができ、細胞質などが存在する高輝度領域では散乱光を強調することが可能となる。
In the corrected scattered light weighted image data 3131, compared with the corrected scattered light weighted image data 3005 of the second embodiment (see FIG. 21), artifacts in the low luminance region (region where X is negative) can be further suppressed. In the high brightness region (region where X is positive) of the corrected scattered light weighted image data 3131, the defocus is not reduced, but the scattered light component (not shown) is enhanced by addition.
When the method of the present embodiment is applied to HE-stained pathological specimen image data, the influence of artifacts (defocus components) can be suppressed in the low-luminance region where the nucleus is present, and the cytoplasm is present. It is possible to enhance the scattered light in the high luminance region.

(本実施例の利点)
本実施例の方法によれば、実施例2に比べて低輝度領域のアーティファクト(焦点ぼけ成分)をより低減させた散乱光強調画像データが生成できる。これにより、病理標本の核などの低輝度領域におけるアーティファクト(焦点ぼけ成分)の影響を気にすることなく、細胞質や細胞境界における表面凹凸や標本内の散乱光を観察したいというユーザの要望にも応えることができる。
(Advantages of this embodiment)
According to the method of the present embodiment, it is possible to generate scattered light weighted image data in which artifacts (focal blur components) in the low luminance region are further reduced as compared with the second embodiment. This allows users to observe surface irregularities at the cytoplasm and cell boundaries and scattered light in the specimen without worrying about the effects of artifacts (defocusing components) in low-luminance areas such as the nucleus of pathological specimens. I can respond.

[実施例4]
実施例4では、実施例1の設定画面1402で方式として「観察角変更」を選択した場合の散乱光抽出画像データ生成ステップS1602の処理を高速化する手法について述べる。
実施例1の図16(d)のステップS2203に示すフローチャートで計算する数28の演算式は、Zスタック画像データから、視点重み関数kex(s,t)に対応する焦点ぼけを持った任意焦点ぼけ画像データを生成する処理とみなすことができる。
非特許文献2に基づく方法では、視点画像データの計算ごとに数14に示すフーリエ変換上での掛け算と数15に示すフーリエ逆変換が必要になる。そのため、計算精度を上げるために視点数を増やすと、視点数に比例して計算時間がかかる課題がある。
そのため、視点毎のフーリエ変換、フーリエ逆変換を必要としない、特許文献1あるいは非特許文献3,4の手法を用いることで高速化が可能となる。
[Example 4]
In the fourth embodiment, a technique for speeding up the processing of the scattered light extraction image data generation step S1602 when “change observation angle” is selected as the method on the setting screen 1402 of the first embodiment will be described.
The arithmetic expression of Expression 28 calculated in the flowchart shown in step S2203 in FIG. 16D of the first embodiment is an arbitrary expression having a defocus corresponding to the viewpoint weight function k ex (s, t) from the Z stack image data. This can be regarded as a process for generating defocused image data.
In the method based on Non-Patent Document 2, multiplication on the Fourier transform shown in Equation 14 and inverse Fourier transform shown in Equation 15 are required for each calculation of viewpoint image data. Therefore, when the number of viewpoints is increased in order to increase the calculation accuracy, there is a problem that it takes a calculation time in proportion to the number of viewpoints.
Therefore, it is possible to increase the speed by using the method of Patent Document 1 or Non-Patent Documents 3 and 4 that does not require Fourier transform and Fourier inverse transform for each viewpoint.

(特許文献1の手法による計算)
まず、MFI任意視点/焦点ぼけ画像生成法の一つである特許文献1に記載の方法の計算の概要について説明する。
3次元被写体f(X,Y,Z)、3次元焦点ぼけh(X,Y,Z)、Zスタック画像データg(X,Y,Z)の間に数13の関係が成立するとき、空間上でのコンボリューションは周波数上での積で表わされるため、以下の関係が成立する。(撮像光学系が両側テレセントリックではない場合にはZスタック画像データに対して座標変換処理が必要になるが、既に述べたため説明は省略する。)

Figure 2015191362
F(u,v,w)、H(u,v,w)、G(u,v,w)はそれぞれ3次元被写体f(X,Y,Z)、撮像光学系の3次元焦点ぼけh(X,Y,Z)、Zスタック画像データg(X,Y,Z)の3次元フーリエ変換を表す。 (Calculation by the method of Patent Document 1)
First, an outline of the calculation of the method described in Patent Document 1, which is one of the MFI arbitrary viewpoint / defocused image generation methods, will be described.
When the relationship of Equation 13 is established between the three-dimensional subject f (X, Y, Z), the three-dimensional defocus h (X, Y, Z), and the Z stack image data g (X, Y, Z), the space Since the above convolution is represented by a product over frequency, the following relationship holds. (When the imaging optical system is not bilateral telecentric, coordinate conversion processing is required for the Z stack image data, but the description is omitted because it has already been described.)
Figure 2015191362
F (u, v, w), H (u, v, w), and G (u, v, w) are a three-dimensional subject f (X, Y, Z), respectively, and a three-dimensional defocus h (( X, Y, Z) and three-dimensional Fourier transform of the Z stack image data g (X, Y, Z).

所望の3次元焦点ぼけh(X,Y,Z)の3次元フーリエ変換をH(u,v,w)とする。h(X,Y,Z)で表わされる焦点ぼけを持つZスタック画像データg(X,Y,Z)の3次元フーリエ変換G(u,v,w)は以下で求められる。

Figure 2015191362
ただし、C(u,v,w)は3次元周波数フィルタ(単に「3次元フィルタ」とも呼ぶ)であり、以下で表わされる。
Figure 2015191362
Let H a (u, v, w) be the three-dimensional Fourier transform of the desired three-dimensional defocus h a (X, Y, Z). A three-dimensional Fourier transform G a (u, v, w) of the Z stack image data g a (X, Y, Z) having a defocus expressed by h a (X, Y, Z) is obtained as follows.
Figure 2015191362
However, C (u, v, w) is a three-dimensional frequency filter (also simply referred to as “three-dimensional filter”), and is expressed below.
Figure 2015191362

数52より所望の3次元焦点ぼけh(X,Y,Z)を持つZスタック画像データは以下の式で計算できる。

Figure 2015191362
即ち、3次元被写体f(X,Y,Z)の情報を用いずに、Zスタック画像データg(X,Y,Z)と撮像光学系の3次元焦点ぼけh(X,Y,Z)と所望の3次元焦点ぼけh(X,Y,Z)の情報から、所望の焦点ぼけ画像データを生成できる。
(X,Y,Z)を安定的に求めるためには、数53で表わされる3次元周波数フィルタが安定である必要があり、3次元焦点ぼけh(X,Y,Z)は撮像光学系内を通る光束の範囲内の光線によって表現される焦点ぼけである必要がある。 From Equation 52, Z stack image data having a desired three-dimensional defocus h a (X, Y, Z) can be calculated by the following equation.
Figure 2015191362
That is, without using the information of the three-dimensional subject f (X, Y, Z), the Z stack image data g (X, Y, Z) and the three-dimensional defocus h (X, Y, Z) of the imaging optical system. Desired defocus image data can be generated from information on the desired three-dimensional defocus h a (X, Y, Z).
In order to stably obtain g a (X, Y, Z), the three-dimensional frequency filter expressed by Formula 53 needs to be stable, and the three-dimensional defocus h a (X, Y, Z) is imaged. The defocus needs to be expressed by rays in the range of the light beam passing through the optical system.

既に数17で説明したように、撮像光学系の3次元焦点ぼけh(X,Y,Z)は撮像光学系に対応する視点重み関数k(s,t)から生成される。図10(b)や図10(e)に示すように理想的な3次元焦点ぼけは焦点位置からの距離が離れるほど拡大される。従って、視点重み関数k(s,t)が関数や画像データで表わされる場合、3次元焦点ぼけh(X,Y,Z)の各Z位置における2次元の焦点ぼけは、関数または画像データを焦点位置からの距離に応じて拡縮することで求められる。   As already described in Expression 17, the three-dimensional defocus h (X, Y, Z) of the imaging optical system is generated from the viewpoint weight function k (s, t) corresponding to the imaging optical system. As shown in FIGS. 10B and 10E, the ideal three-dimensional defocus is enlarged as the distance from the focal position increases. Therefore, when the viewpoint weighting function k (s, t) is represented by a function or image data, the two-dimensional defocusing at each Z position of the three-dimensional defocusing h (X, Y, Z) is a function or image data. It is obtained by scaling according to the distance from the focal position.

撮像光学系の3次元焦点ぼけh(X,Y,Z)および任意の3次元焦点ぼけh(X,Y,Z)は被写体の撮影像に依存しないため、予め計算することが可能である。本実施例では「視点重み関数1」および「視点重み関数2」で選択可能な視点重み関数に対応するha1(X,Y,Z)およびha2(X,Y,Z)のそれぞれのフーリエ変換であるHa1(u,v,w)、Ha2(u,v,w)を事前に計算する。そして、それらのフーリエ変換を、画像データ生成装置100内の記憶装置130やメインメモリ302に予め格納しておく。また撮像光学系の3次元焦点ぼけh(X,Y,Z)のフーリエ変換H(u,v,w)も同様に事前に計算し、記憶装置130やメインメモリ302に格納しておく。 Since the three-dimensional defocus h (X, Y, Z) and the arbitrary three-dimensional defocus h a (X, Y, Z) of the imaging optical system do not depend on the photographed image of the subject, they can be calculated in advance. . In this embodiment, each Fourier of h a1 (X, Y, Z) and h a2 (X, Y, Z) corresponding to the viewpoint weight functions that can be selected by “viewpoint weight function 1” and “viewpoint weight function 2”. The transformations H a1 (u, v, w) and H a2 (u, v, w) are calculated in advance. These Fourier transforms are stored in advance in the storage device 130 or the main memory 302 in the image data generation device 100. Similarly, the Fourier transform H (u, v, w) of the three-dimensional defocus h (X, Y, Z) of the imaging optical system is similarly calculated in advance and stored in the storage device 130 or the main memory 302.

(特許文献1の方法を用いた散乱光抽出画像データ生成ステップS1602)
図23は特許文献1に記載の方式を用いる場合の、散乱光抽出画像データ生成ステップS1602の内部処理を表すフローチャートである。以下、処理を順に説明する。
まず、3次元周波数フィルタ生成処理ステップS3201では3次元周波数フィルタC(u,v,w)を生成する。以下に3次元周波数フィルタC(u,v,w)の生成方法を説明する。
撮像系の3次元焦点ぼけのフーリエ変換H(u,v,w)を記憶装置130等から読み出す。また、設定画面1402での設定情報をインデックスとして「視点重み関数1」と「視点重み関数2」で選択した視点重み関数に対応する3次元焦点ぼけのフーリエ変換Ha1(u,v,w)、Ha2(u,v,w)を記憶装置130等から読み出す。
「視点重み関数1」および「視点重み関数2」から求まる散乱光情報抽出用の視点重み関数kex(s,t)に対応する3次元焦点ぼけのフーリエ変換は、フーリエ変換の線型
性の性質を用いて、以下の式で求められる。

Figure 2015191362
H(u,v,w)と数55で得られるH(u,v,w)を数53に代入することで、散乱光情報抽出用の視点重み関数kex(s,t)に対応する3次元周波数フィルタC(u,v,w)が生成できる。 (Scattered light extraction image data generation step S1602 using the method of Patent Document 1)
FIG. 23 is a flowchart showing internal processing of scattered light extraction image data generation step S1602 when the method described in Patent Document 1 is used. Hereinafter, the processing will be described in order.
First, in the three-dimensional frequency filter generation processing step S3201, a three-dimensional frequency filter C (u, v, w) is generated. A method for generating the three-dimensional frequency filter C (u, v, w) will be described below.
The Fourier transform H (u, v, w) of the three-dimensional defocus of the imaging system is read from the storage device 130 or the like. Further, using the setting information on the setting screen 1402 as an index, the Fourier transform H a1 (u, v, w) of the three-dimensional defocus corresponding to the viewpoint weight function selected by “viewpoint weight function 1” and “viewpoint weight function 2”. , H a2 (u, v, w) are read from the storage device 130 or the like.
The Fourier transform of the three-dimensional defocus corresponding to the viewpoint weight function k ex (s, t) for extracting scattered light information obtained from the “viewpoint weight function 1” and “viewpoint weight function 2” is a property of the linearity of the Fourier transform. Is obtained by the following equation.
Figure 2015191362
By substituting H (u, v, w) and H a (u, v, w) obtained in Equation 55 into Equation 53, it corresponds to the viewpoint weight function k ex (s, t) for extracting scattered light information. A three-dimensional frequency filter C (u, v, w) can be generated.

なお、数29の演算でkex(s,t)を求めてから、焦点位置からの距離に応じた関数または画像データの拡縮によりh(X,Y,Z)を求め、最後にh(X,Y,Z)をフーリエ変換することでH(u,v,w)を求めても良い。
なお、実施例1と同様、kex(s,t)は数30および数31の条件を満たす視点重み関数である。
In addition, after obtaining k ex (s, t) by the calculation of Equation 29, h a (X, Y, Z) is obtained by scaling the function or image data according to the distance from the focal position, and finally, h a H a (u, v, w) may be obtained by Fourier transform of (X, Y, Z).
As in the first embodiment, k ex (s, t) is a viewpoint weight function that satisfies the conditions of Equations 30 and 31.

次に、3次元フーリエ変換処理ステップS3202ではZスタック画像データg(X,Y,Z)を3次元フーリエ変換し、Zスタック画像データの3次元フーリエ変換G(u,v,w)を生成する。
次に、3次元フィルタ適用処理ステップS3203では、ステップS3201で計算したC(u,v,w)とステップS3202で計算したG(u,v,w)を数52に代入し、G(u,v,w)を求める。
次に、3次元フーリエ逆変換処理ステップS3204では、G(u,v,w)に対して3次元フーリエ逆変換を適用し、所望の3次元焦点ぼけh(X,Y,Z)を持つZスタック画像データg(X,Y,Z)を生成する。
Next, in the three-dimensional Fourier transform processing step S3202, the Z stack image data g (X, Y, Z) is three-dimensional Fourier transformed to generate a three-dimensional Fourier transform G (u, v, w) of the Z stack image data. .
Next, in the three-dimensional filter application processing step S3203, C (u, v, w) calculated in step S3201 and G (u, v, w) calculated in step S3202 are substituted into Equation 52, and G a (u , V, w).
Next, in a three-dimensional inverse Fourier transform processing step S3204, a three-dimensional inverse Fourier transform is applied to G a (u, v, w) to obtain a desired three-dimensional defocus h a (X, Y, Z). The generated Z stack image data g a (X, Y, Z) is generated.

最後に、レイヤー画像データ取得処理ステップS3205では、計算したg(X,Y,Z)から、焦点位置(Z=Zf)のレイヤー画像データg(X,Y,Zf)を取得し、散乱光抽出画像データDS(X,Y,Zf)として出力する。
以上の処理により、視点画像データを個別に求めることなく、散乱光情報抽出用の視点重み関数kex(s,t)を用いて元のZスタック画像データから散乱光抽出画像データを生成することができる。
Finally, in layer image data acquisition processing step S3205, the layer image data g a (X, Y, Zf) at the focal position (Z = Zf) is acquired from the calculated g a (X, Y, Z), and scattered. Output as light extraction image data DS (X, Y, Zf).
Through the above processing, the scattered light extraction image data is generated from the original Z stack image data using the viewpoint weight function k ex (s, t) for extracting scattered light information without obtaining the viewpoint image data individually. Can do.

(非特許文献3,4の方法による計算)
続いて、MFI任意視点/焦点ぼけ画像生成法の一つである非特許文献3,4に記載の方法の計算の概要について説明する。
非特許文献3,4に記載の方法では、以下の式により、Z位置Z=Zfにおける任意焦点ぼけ画像データa(X,Y,Zf)のフーリエ変換A(u,v)が生成できる。

Figure 2015191362
数56のnはレイヤー画像データの番号であり0から始まりN−1で終わる。nはZ=Zfに対応する位置のレイヤー画像データの番号を表す。またG(n)(u,v)はZスタック画像データのn枚目のレイヤー画像データg(n)(X,Y)のフーリエ変換であり、以下の式で表わされる。
Figure 2015191362
なお、F{}はフーリエ変換を表す。 (Calculation by the method of Non-Patent Documents 3 and 4)
Next, an outline of the calculation of the methods described in Non-Patent Documents 3 and 4, which is one of the MFI arbitrary viewpoint / defocused image generation methods, will be described.
In the methods described in Non-Patent Documents 3 and 4, the Fourier transform A (u, v) of the arbitrary defocus image data a (X, Y, Zf) at the Z position Z = Zf can be generated by the following equation.
Figure 2015191362
N in Expression 56 is the number of the layer image data, which starts from 0 and ends with N-1. n f represents the number of layer image data at a position corresponding to Z = Zf. G (n) (u, v) is a Fourier transform of the nth layer image data g (n) (X, Y) of the Z stack image data, and is expressed by the following equation.
Figure 2015191362
F {} represents a Fourier transform.

また、数56のH(n)(u,v)はレイヤー画像データごとの2次元周波数フィルタ
(単に「2次元フィルタ」とも呼ぶ)を表し、以下の式で表わされる。

Figure 2015191362
なお、k(s,t)は所望の3次元焦点ぼけを生成するための視点重み関数を表わす。また、Cs,t(u,v)は撮像光学系の3次元焦点ぼけh(X,Y,Z)の視線方向への積分値cs,t(X,Y,Zf)のフーリエ変換であり、Cs,t(u,v)−1はその逆数である。またe−2πi(su+tv)nは周波数領域で平行移動を行うフィルタである。 Further, H (n) (u, v) in Expression 56 represents a two-dimensional frequency filter (also simply referred to as “two-dimensional filter”) for each layer image data, and is represented by the following expression.
Figure 2015191362
Note that k a (s, t) represents a viewpoint weight function for generating a desired three-dimensional defocus. C s, t (u, v) is the Fourier transform of the integral value c s, t (X, Y, Zf) in the line-of-sight direction of the three-dimensional defocus h (X, Y, Z) of the imaging optical system. Yes, C s, t (u, v) −1 is its reciprocal. Further, e −2πi (su + tv) n is a filter that performs translation in the frequency domain.

数58は被写体の撮影像G(n)(u,v)に依存しない。そのため、H(n)(u,v)を事前に計算し、画像データ生成装置100内の記憶装置130やメインメモリ302に予め格納しておくことで、数56の演算を大幅に高速化することが可能になる。
本実施例の場合、設定画面1402の「視点重み関数1」および「視点重み関数2」で選択可能な視点重み関数に対しては、事前に数58を用いてH(n)(u,v)を求めておき、記憶装置130又はメインメモリ302に予め格納しておく。
Equation 58 does not depend on the photographed image G (n) (u, v) of the subject. Therefore, by calculating H (n) (u, v) in advance and storing it in advance in the storage device 130 or the main memory 302 in the image data generation device 100, the operation of Formula 56 is greatly speeded up. It becomes possible.
In the case of the present embodiment, for the viewpoint weight functions that can be selected by “viewpoint weight function 1” and “viewpoint weight function 2” on the setting screen 1402, H (n) (u, v ) And stored in the storage device 130 or the main memory 302 in advance.

(非特許文献3,4の方法を用いた散乱光抽出画像データ生成ステップS1602)
図24は非特許文献3,4に記載の方法を用いる場合の、散乱光抽出画像データ生成ステップS1602の内部処理を表すフローチャートである。以下、処理を順に説明する。
ステップS3301〜ステップS3303はZスタック画像データのレイヤーの枚数分のループの中に存在し、レイヤー画像データごとに処理を行う。なお、レイヤー番号ループでは0からN−1まで順に変更していく。
(Scattered light extraction image data generation step S1602 using the methods of Non-Patent Documents 3 and 4)
FIG. 24 is a flowchart showing the internal processing of scattered light extraction image data generation step S1602 when the methods described in Non-Patent Documents 3 and 4 are used. Hereinafter, the processing will be described in order.
Steps S3301 to S3303 exist in a loop of the number of layers of Z stack image data, and processing is performed for each layer image data. Note that the layer number loop is changed in order from 0 to N-1.

レイヤー画像データフーリエ変換処理ステップS3301では、Zスタック画像データから処理対象であるレイヤー番号nのレイヤー画像データg(n)(X,Y)を取得し、数57に示すようにフーリエ変換を実行し、G(n)(u,v)を生成する。 In layer image data Fourier transform processing step S3301, layer image data g (n) (X, Y) of the layer number n to be processed is acquired from the Z stack image data, and Fourier transform is performed as shown in Equation 57. , G (n) (u, v).

レイヤーフィルタ読み出し処理ステップS3302では、「視点重み関数1」と「視点重み関数2」の選択情報に基づき、記憶装置130又はメインメモリ302からそれぞれの視点重み関数に対応するレイヤー画像データごとの周波数フィルタを読み出す。
続いて、視点重み関数1および視点重み関数2のそれぞれに対応するレイヤー画像データごとの周波数フィルタを用いて散乱光情報抽出用の視点重み関数に相当するレイヤー画像データごとの周波数フィルタを生成する。
In the layer filter read processing step S3302, the frequency filter for each layer image data corresponding to each viewpoint weight function from the storage device 130 or the main memory 302 based on the selection information of “viewpoint weight function 1” and “viewpoint weight function 2”. Is read.
Subsequently, a frequency filter for each layer image data corresponding to a viewpoint weight function for extracting scattered light information is generated using a frequency filter for each layer image data corresponding to each of the viewpoint weight function 1 and the viewpoint weight function 2.

例えば、視点重み関数1をka1(s,t)、視点重み関数2をka2(s,t)とし、それぞれのレイヤー画像データごとの周波数フィルタをHa1 (n)(u,v)、Ha2 (n)(u,v)とする。その場合、散乱光情報抽出用の視点重み関数kex(s,t)(=ka1(s,t)−ka2(s,t))に対応する周波数フィルタH(n)(u,v)は以下の式で計算できる。

Figure 2015191362
散乱光情報抽出用の視点重み関数kex(s,t)は実施例1と同様、数30および数31の条件を満たす視点重み関数である。
なお、予め、視点重み関数1および視点重み関数2が選択された場合の散乱光情報抽出用の視点重み関数に相当するレイヤー画像データごとの周波数フィルタを生成し、記憶装置130やメインメモリ302に格納しても良い。その場合、レイヤーフィルタ読み出し処理ステップS3302では視点重み関数1および視点重み関数2の情報に基づき、散乱光情報抽出用の視点重み関数kex(s,t)に対応するH(n)(u,v)を読み出す
。 For example, the viewpoint weight function 1 is k a1 (s, t), the viewpoint weight function 2 is k a2 (s, t), and the frequency filter for each layer image data is H a1 (n) (u, v), Let H a2 (n) (u, v). In this case, the frequency filter H (n) (u, v ) corresponding to the viewpoint weight function k ex (s, t) (= k a1 (s, t) −k a2 (s, t)) for extracting scattered light information. ) Can be calculated by the following formula.
Figure 2015191362
The viewpoint weight function k ex (s, t) for extracting scattered light information is a viewpoint weight function that satisfies the conditions of Equations 30 and 31 as in the first embodiment.
A frequency filter for each layer image data corresponding to the viewpoint weight function for extracting scattered light information when the viewpoint weight function 1 and the viewpoint weight function 2 are selected is generated in advance and stored in the storage device 130 or the main memory 302. It may be stored. In that case, in layer filter readout processing step S3302, H (n) (u, u, corresponding to the viewpoint weight function k ex (s, t) for extracting scattered light information is based on the information of the viewpoint weight function 1 and the viewpoint weight function 2. v) is read.

次にレイヤーフィルタ適用処理ステップS3303では、読みだしたレイヤー画像データ毎の周波数フィルタH(n−nf)(u,v)とG(n)(u,v)の間で掛け算を実行する。これにより、レイヤー画像データ毎の周波数フィルタ適用結果H(n−nf)(u,v)×G(n)(u,v)を生成する。
未処理のレイヤー画像データがある場合には、レイヤー番号を増加させてステップS3301に戻る。一方、0〜N−1までの全てのレイヤー画像データに対し、上記のステップS3301〜S3303の処理が終了した場合には、ステップS3304に進む。
Next, in layer filter application processing step S3303, multiplication is executed between the frequency filters H (n−nf) (u, v) and G (n) (u, v) for each read layer image data. As a result, the frequency filter application result H (n−nf) (u, v) × G (n) (u, v) is generated for each layer image data.
If there is unprocessed layer image data, the layer number is incremented and the process returns to step S3301. On the other hand, when the processing of steps S3301 to S3303 is completed for all layer image data from 0 to N-1, the process proceeds to step S3304.

フィルタ結果統合処理ステップS3304では、すべてのレイヤー画像データに対する周波数フィルタ適用結果を統合する。具体的には数56に相当する処理を行い、A(u,v)を求める。
最後にステップS3305では、A(u,v)にフーリエ逆変換を行い、任意焦点ぼけ画像データa(X,Y,Zf)を生成する。数28で説明したように散乱光情報抽出用の視点重み関数kex(s,t)を用いて生成した任意焦点ぼけ画像データa(X,Y,Zf)は散乱画像データ(散乱光抽出画像データ)DS(X,Y,Zf)となる。そのため、ステップS3305では計算した画像データを散乱光抽出画像データDS(X,Y,Zf)として出力する。
以上のように、非特許文献3,4の方法を用いる場合でも、視点毎の視点画像データを求めることなく、散乱光情報抽出用の視点重み関数kex(s,t)を用いて元のZスタック画像データから散乱光抽出画像データを生成することができる。
In the filter result integration processing step S3304, the frequency filter application results for all the layer image data are integrated. Specifically, processing corresponding to Formula 56 is performed to obtain A (u, v).
Finally, in step S3305, inverse Fourier transform is performed on A (u, v) to generate arbitrary defocus image data a (X, Y, Zf). As described in Expression 28, the arbitrary defocus image data a (X, Y, Zf) generated using the viewpoint weight function k ex (s, t) for extracting scattered light information is scattered image data (scattered light extracted image). Data) DS (X, Y, Zf). Therefore, in step S3305, the calculated image data is output as scattered light extraction image data DS (X, Y, Zf).
As described above, even when the methods of Non-Patent Documents 3 and 4 are used, the original viewpoint weight function k ex (s, t) for extracting scattered light information is used without obtaining viewpoint image data for each viewpoint. Scattered light extraction image data can be generated from the Z stack image data.

(本実施例の利点)
本実施例の方法によれば、実施例1の図16(d)で説明した処理フローに比べ、計算負荷の大きな視点数分の視点画像データの生成を必要としないため、高速に散乱画像データ(散乱光抽出画像データ)の生成が可能となる。これにより、迅速に細胞質や細胞境界における表面凹凸や標本内の散乱光を観察したいというユーザの要望にも応えることができる。
(Advantages of this embodiment)
According to the method of this embodiment, it is not necessary to generate viewpoint image data corresponding to the number of viewpoints with a large calculation load as compared with the processing flow described in FIG. (Scattered light extraction image data) can be generated. As a result, it is possible to respond to the user's desire to quickly observe the surface irregularities in the cytoplasm and cell boundaries and the scattered light in the specimen.

[実施例5]
実施例5では、散乱画像データ計算設定1402の「方式」において「観察角変更」を選択する場合における、より散乱光を強調した散乱光強調画像データの生成方法について述べる。
本実施例では、散乱光強調画像データも散乱光抽出画像データと同様、図16(d)、図23または図24に示すフローチャートを用いて計算することができる。ただし、適用する周波数フィルタが前述の実施例とは異なる。
[Example 5]
In the fifth embodiment, a method of generating scattered light weighted image data in which scattered light is more emphasized when “change observation angle” is selected in the “method” of the scattered image data calculation setting 1402 will be described.
In this embodiment, the scattered light weighted image data can be calculated using the flowchart shown in FIG. 16D, FIG. 23, or FIG. However, the applied frequency filter is different from that of the above-described embodiment.

散乱光強調画像データに対応する視点重み関数は、所望の任意焦点ぼけ画像データの視点重み関数k(s,t)と散乱光情報抽出用の視点重み関数kex(s,t)の和で求められる。従って、図23のステップS3201または図24のステップ3302において、散乱光情報抽出用の視点重み関数kex(s,t)の代わりに、下記式の関数k(s,t)を用いて周波数フィルタを生成又は読み出せばよい。k(s,t)を、散乱光情報強調用の視点重み関数とよぶ。

Figure 2015191362
なお、k(s,t)の積分値は数18より1であり、kex(s,t)の積分値は数30より0であることから、k(s,t)の積分値は1となる。
Figure 2015191362
The viewpoint weight function corresponding to the scattered light weighted image data is the sum of the viewpoint weight function k a (s, t) of desired arbitrary defocused image data and the viewpoint weight function k ex (s, t) for extracting scattered light information. Is required. Accordingly, in step S3201 of FIG. 23 or step 3302 of FIG. 24, the function k b (s, t) of the following equation is used instead of the viewpoint weight function k ex (s, t) for extracting scattered light information. A filter may be generated or read out. k b (s, t) is referred to as a viewpoint weight function for enhancing scattered light information.
Figure 2015191362
Since the integral value of k a (s, t) is 1 from Equation 18, and the integral value of k ex (s, t) is 0 from Equation 30, the integral value of k b (s, t). Becomes 1.
Figure 2015191362

また、k(s,t)が以下の関係を満たす場合に、より散乱光の情報が強調される散乱強調画像データが生成できる。

Figure 2015191362
In addition, when k b (s, t) satisfies the following relationship, it is possible to generate scattering-weighted image data in which the scattered light information is more emphasized.
Figure 2015191362

数62において所定の閾値rth以下の視点重み関数の積分が負の値となることは、kex(s,t)を用いた散乱光情報の抽出効果を打ち消さないことを意味する。また閾値rthよりも大きな視点重み関数の積分が1よりも大きいことは、所定の閾値よりも大きな観察角φを持つ、散乱光成分のコントラストが大きな視点画像データを利用することを意味する。
数61および数62の条件を満たす視点重み関数で生成した任意焦点ぼけ画像データは、数61の条件のみを満たす視点重み関数で生成した任意焦点ぼけ画像データに比べ、より散乱光の情報が強調されることとなる。
In Expression 62, the integration of the viewpoint weight function equal to or smaller than the predetermined threshold value r th has a negative value means that the effect of extracting scattered light information using k ex (s, t) is not canceled. Further, that the integral of the viewpoint weight function larger than the threshold r th is larger than 1 means that viewpoint image data having an observation angle φ larger than the predetermined threshold and having a large contrast of the scattered light component is used.
The arbitrary-focus-blurred image data generated by the viewpoint weight function that satisfies the conditions of Equations 61 and 62 is more emphasized in the scattered light information than the arbitrary-focus-blurred image data generated by the viewpoint weight function that satisfies only the condition of Equation 61. Will be.

本実施例において、散乱光強調画像データを生成する場合には、散乱画像データ計算設定1402で「種別」として「散乱光抽出画像」を選択し、「方式」として「観察角変更」を選択する。また、透過光成分抑制設定1403の「方式」で「抑制処理なし」を選択する。「抑制処理なし」を選択する場合には、実施例2の図19(a)ではステップS2701、ステップS2703およびステップS2704の処理は実行されずに、ステップS2702の処理のみ実行されるとする。また図19(b)では2801、2803および2804の各ブロックで処理は実行されず、散乱光抽出画像データ生成部2802のみ実行し結果を出力するとする。   In this embodiment, when the scattered light weighted image data is generated, “scattered light extraction image” is selected as the “type” in the scattered image data calculation setting 1402 and “observation angle change” is selected as the “method”. . In addition, “no suppression processing” is selected in “method” of the transmitted light component suppression setting 1403. When “no suppression processing” is selected, it is assumed that only the processing of step S2702 is executed without executing the processing of step S2701, step S2703, and step S2704 in FIG. 19A of the second embodiment. In FIG. 19B, it is assumed that processing is not executed in the blocks 2801, 2803, and 2804, and only the scattered light extraction image data generation unit 2802 is executed and the result is output.

本実施例では、散乱光抽出画像データ生成処理ステップS2702では、以下の式を用いて、散乱光情報強調用の視点重み関数k(s,t)を生成する。

Figure 2015191362
In the present embodiment, in the scattered light extraction image data generation processing step S2702, a viewpoint weight function k b (s, t) for enhancing scattered light information is generated using the following equation.
Figure 2015191362

より散乱光の情報を強調するには、散乱光情報強調用の視点重み関数が数61と数62の条件を満たすことが好ましい。そのため、数61と数62の条件を満たす散乱光情報強調用の視点重み関数を生成可能な「視点重み関数1」と「視点重み関数2」の組み合わせを表示するユーザ補助設定が存在しても良い。例えば、「視点重み関数1」として動径rm以下の全ての視点で等しい重みを持つ「半径rmの円柱ぼけ」を選択し、「視点重み関数2」として視点(0,0)にのみ重みを持つピンホールを表す、「ピンホール(0,0
)」を選択する。その場合、数63で計算する散乱光情報強調用の視点重み関数k(s,t)は数61および数62の条件を満たすため、ドロップダウンリストの「ピンホール(0,0)」では色を変えて表示しても良い。
In order to enhance the scattered light information, it is preferable that the viewpoint weight function for enhancing the scattered light information satisfies the conditions of Equations 61 and 62. Therefore, even if there is an auxiliary setting for displaying a combination of “viewpoint weight function 1” and “viewpoint weight function 2” that can generate a viewpoint weight function for enhancing scattered light information that satisfies the conditions of Equations 61 and 62, good. For example, as “viewpoint weight function 1”, “cylindrical blur with radius rm” having the same weight is selected for all viewpoints of radius rm or less, and as “viewpoint weight function 2”, only the viewpoint (0, 0) is weighted. "Pinhole (0, 0
) ”. In this case, since the viewpoint weight function k b (s, t) for enhancing scattered light information calculated in Expression 63 satisfies the conditions of Expression 61 and Expression 62, “Pinhole (0, 0)” in the drop-down list The color may be changed and displayed.

ステップS2702の内部処理は実施例1で述べた図16(d)、図23および図24のいずれを用いても良い。
図16(d)の処理を用いる場合には、ステップS2203において、「視点重み関数1」と「視点重み関数2」に基づき数63の式を用いて計算した散乱光情報強調用の視点重み関数を用いて、ステップS2202で求めた視点画像データを統合する。この処理は、非特許文献2の方式に対応する。
For the internal processing in step S2702, any of FIGS. 16D, 23, and 24 described in the first embodiment may be used.
When the processing of FIG. 16D is used, in step S2203, the viewpoint weight function for enhancing scattered light information calculated using the formula 63 based on “viewpoint weight function 1” and “viewpoint weight function 2”. Is used to integrate the viewpoint image data obtained in step S2202. This processing corresponds to the method of Non-Patent Document 2.

次に、特許文献1の方式に対応する図23のフローチャートを用いる場合について説明する。
散乱光情報強調用の視点重み関数に対応する3次元焦点ぼけのフーリエ変換H(u,v)は、ステップS3201において、以下の式で計算できる。Ha1(u,v,w)およびHa2(u,v,w)は、設定画面1402で選択した「視点重み関数1」と「視点重み関数2」の情報に基づいて読み出したそれぞれの3次元焦点ぼけのフーリエ変換である。

Figure 2015191362
そして、数53を用いて、散乱光情報強調用の視点重み関数k(s,t)に対応する3次元周波数フィルタC(u,v,w)が生成できる。 Next, the case where the flowchart of FIG. 23 corresponding to the system of Patent Document 1 is used will be described.
In step S3201, the three-dimensional defocused Fourier transform H a (u, v) corresponding to the viewpoint weight function for enhancing scattered light information can be calculated by the following equation. H a1 (u, v, w) and H a2 (u, v, w) are respectively read based on the information of “viewpoint weight function 1” and “viewpoint weight function 2” selected on the setting screen 1402. It is a Fourier transform with dimensional defocus.
Figure 2015191362
Then, using Equation 53, a three-dimensional frequency filter C (u, v, w) corresponding to the viewpoint weight function k b (s, t) for enhancing scattered light information can be generated.

次に、非特許文献3,4の方式に対応する図24のフローチャートを用いる場合について説明する。
散乱光情報強調用の視点重み関数に対応するレイヤー画像ごとの周波数フィルタH(n)(u,v)は、以下の式で計算できる。Ha1 (n)(u,v)およびHa2 (n)(u,v)は、設定画面1402で選択した「視点重み関数1」と「視点重み関数2」の情報に基づいて読み出したそれぞれのレイヤー画像ごとの周波数フィルタである。

Figure 2015191362
Next, the case where the flowchart of FIG. 24 corresponding to the system of nonpatent literatures 3 and 4 is used is demonstrated.
The frequency filter H (n) (u, v) for each layer image corresponding to the viewpoint weight function for enhancing scattered light information can be calculated by the following equation. H a1 (n) (u, v) and H a2 (n) (u, v) are read based on the information of “viewpoint weight function 1” and “viewpoint weight function 2” selected on the setting screen 1402, respectively. This is a frequency filter for each layer image.
Figure 2015191362

以上、散乱画像データ計算設定1402の「方式」において「観察角変更」を選択する場合における、より散乱光を強調するための条件(数61および数62)およびその散乱光強調画像データの生成方法について述べた。
なお、本実施例では、図19(a)では透過光成分抑制マスク生成処理ステップS2701、透過光成分抑制処理ステップS2703および散乱光強調画像データ生成処理ステップS2704の処理を実行しない場合について説明した。しかし、実施例2と同様に、実行することも可能であり、その場合も本発明の範疇とする。
As described above, in the case where “observation angle change” is selected in “method” of the scattered image data calculation setting 1402, the conditions (Equation 61 and Equation 62) for further enhancing scattered light and the method of generating the scattered light enhanced image data Said.
In this embodiment, the case where the processes of the transmitted light component suppression mask generation processing step S2701, the transmitted light component suppression processing step S2703, and the scattered light weighted image data generation processing step S2704 are not executed has been described with reference to FIG. However, similar to the second embodiment, it can be executed, and that case also falls within the scope of the present invention.

(本実施例の利点)
本実施例の方法を用いることにより、散乱光の情報をより強調した、散乱光強調画像データを生成することができる。また、図23および図24の処理フローを用いれば、高速に散乱画像データ(散乱光強調画像データ)の生成が可能となる。これにより、迅速に細胞質や細胞境界における表面凹凸や標本内の散乱光を観察したいというユーザの要望にも応えることができる。
(Advantages of this embodiment)
By using the method of the present embodiment, it is possible to generate scattered light weighted image data in which the scattered light information is more emphasized. Further, by using the processing flows of FIGS. 23 and 24, it is possible to generate scattered image data (scattered light weighted image data) at high speed. As a result, it is possible to respond to the user's desire to quickly observe the surface irregularities in the cytoplasm and cell boundaries and the scattered light in the specimen.

[実施例6]
実施例6では、散乱画像データ計算設定1402の「方式」で「偏角変更」または「複合変更」を選択する場合の散乱光抽出画像データまたは散乱光強調画像データの高速な生成方法について述べる。
実施例4では観察角φが異なる視点画像データを計算してから散乱画像データを求めるのではなく、フィルタを用いてまとめて計算する方法を述べた。本実施例では偏角θが異なる場合でもフィルタを用いてまとめて計算する方法を述べる。
[Example 6]
In the sixth embodiment, a high-speed generation method of scattered light extraction image data or scattered light weighted image data when “changing declination” or “composite change” is selected in the “method” of the scattered image data calculation setting 1402 will be described.
In the fourth embodiment, a method is described in which the scattered image data is not calculated after calculating the viewpoint image data having different observation angles φ but using the filter. In the present embodiment, a method of calculating collectively using a filter even when the deflection angle θ is different will be described.

図26は図8に示す標本の表面凹凸の斜面813を、同一の観察角φで偏角θが180度異なる視点から観察する様子を示す模式図である。直線3501は光軸と平行な直線であり、観察角φは0となる。直線3511と直線3512の偏角θはそれぞれθおよびθ+π([rad])であり、観察角φはいずれもφである。直線3521と直線3522の偏角θはそれぞれθおよびθ+π([rad])であり、観察角φはいずれもφである。 FIG. 26 is a schematic diagram showing a state in which the surface irregular slope 813 of the specimen shown in FIG. 8 is observed from the viewpoint where the deviation angle θ is 180 degrees different at the same observation angle φ. A straight line 3501 is a straight line parallel to the optical axis, and the observation angle φ is zero. The deflection angle theta of the straight line 3511 and the line 3512 are respectively theta i and θ i + π ([rad] ), observation angle phi is 1 both phi. The deflection angle theta of the straight line 3521 and the line 3522 are respectively theta i and θ i + π ([rad] ), observation angle phi is 2 both phi.

既に数10で述べたように、同一の観察角で偏角が異なる視点画像データ間の差分により、斜面が存在する所定の位置(X,Y,Zf)での散乱光の情報が抽出できる。数10で述べたように、視線方向が直線3511と平行な視点画像データと視線方向が直線3512と平行な視点画像データの差を求めると、斜面813の傾斜角αとB(φ)に比例する2α×B(φ)の散乱光の情報が抽出できる。同様に、視線方向が直線3521と平行な視点画像データと視線方向が直線3522と平行な視点画像データの差を求めると、2α×B(φ)の散乱光の情報が抽出できる。 As already described in Equation 10, the information on the scattered light at the predetermined position (X, Y, Zf) where the slope exists can be extracted by the difference between the viewpoint image data having the same observation angle and different declination angles. As described in Expression 10, when the difference between the viewpoint image data whose line-of-sight direction is parallel to the straight line 3511 and the viewpoint image data whose line-of-sight direction is parallel to the straight line 3512 is obtained, the inclination angles α and B (φ 1 ) of the inclined surface 813 are obtained. Information on proportionally scattered light of 2α × B (φ 1 ) can be extracted. Similarly, when the difference between the viewpoint image data whose line-of-sight direction is parallel to the straight line 3521 and the viewpoint image data whose line-of-sight direction is parallel to the straight line 3522 is obtained, information on scattered light of 2α × B (φ 2 ) can be extracted.

本実施例では以降、偏角θが互いに180度(π[rad])異なる視点に対応する視点画像データ間の差分で散乱光の情報を抽出する場合について説明するが、2つの視点の偏角の差は180度に限定しない。例えば、偏角の差が45度の場合でも、数7より見かけ上の傾斜角α’の変化は約1/2であり、数10ではα−α’=α/2となり、偏角の差が180度の場合の約1/4の強度で散乱画像が抽出できる。観察角φの大きさにも依存するが、2つの視点の偏角の差が45度以上ならば、散乱光の情報の抽出に十分な強度が得られるため、本発明の範疇とする。   In the present embodiment, a case where information of scattered light is extracted using a difference between viewpoint image data corresponding to viewpoints having different deflection angles θ of 180 degrees (π [rad]) from each other will be described. The difference is not limited to 180 degrees. For example, even when the difference in declination is 45 degrees, the apparent change of the inclination angle α ′ is about ½ from Equation 7, and α−α ′ = α / 2 in Equation 10, and the difference in declination A scattered image can be extracted with an intensity of about ¼ when the angle is 180 degrees. Although depending on the size of the observation angle φ, if the difference between the declination angles of the two viewpoints is 45 degrees or more, sufficient intensity can be obtained for extracting scattered light information.

撮像光学系が両側テレセントリックの場合、視線の観察角φと視点の動径r(=√(s+t))の間には数5の関係がある。(両側テレセントリックでない場合でも変換座標上で考えれば観察角φと動径rの間には数4の関係がある。)そのため、視線の観察角φの代わりに視点の動径rを用いて表現することもできる。
視点の動径がr(視線の観察角がφ)で偏角がθの視点画像データをIr,θ(X,Y,Zf)と表わす。同一の視点の動径r(視線の観察角φ)を持ち、それぞれ偏角がθとθ+π([rad])の視点画像データ間の差の絶対値を、M個の異なる動径rで加算する操作は以下の式で表わされる。

Figure 2015191362
When the imaging optical system is bilateral telecentric, there is a relationship of Equation 5 between the viewing angle φ of the line of sight and the moving radius r of the viewpoint (= √ (s 2 + t 2 )). (A relationship of Equation 4 is provided between the viewing angle phi T and radius r Given on the transformed coordinate even if it is not bilateral telecentric.) Therefore, by using the radius r of the viewpoint instead of the line of sight of the viewing angle phi It can also be expressed.
The viewpoint image data in which the radius of the viewpoint is r (the observation angle of the line of sight is φ) and the deflection angle is θ is represented as I r, θ (X, Y, Zf). The absolute value of the difference between the viewpoint image data having the same viewpoint radial radius r (gaze observation angle φ) and declination angles θ and θ + π ([rad]) is added at M different radial radius r. The operation to do is represented by the following equation.
Figure 2015191362

偏角θの方向から観察した標本のそれぞれの位置の見かけ上の傾斜角をαθ(X,Y,Zf)で表わすと、数66は以下のように変形できる。

Figure 2015191362
When the apparent inclination angle of each position of the sample observed from the direction of the declination angle θ is expressed by α θ (X, Y, Zf), the equation 66 can be modified as follows.
Figure 2015191362

偏角θを変えない限り、見かけ上の傾斜角は変化しないため、αθi(X,Y,Zf)は一定である。またB(φ)は、φ=0のとき0で、φの増加につれて増加する増加関数である。(数5よりB(φ)はrの関数とみなすことができるので、B(φ)は、r=0のとき0で、rの増加につれて増加する増加関数ともいえる。)
従って、偏角θを変更しない限り、動径rを変更しても数67の絶対値内の正と負の符号は変わることはない。そのため、数67の右辺の絶対値とΣの順序は入れ替えることができ、以下のように変形できる。

Figure 2015191362
Since the apparent tilt angle does not change unless the declination angle θ i is changed, α θi (X, Y, Zf) is constant. B (φ) is 0 when φ = 0, and is an increasing function that increases as φ increases. (From Equation 5, B (φ) can be regarded as a function of r, so B (φ) is 0 when r = 0, and can be said to be an increasing function that increases as r increases.)
Therefore, as long as the deflection angle θ i is not changed, the positive and negative signs in the absolute value of Expression 67 do not change even if the moving radius r j is changed. Therefore, the absolute value of the right side of Equation 67 and the order of Σ can be interchanged and can be modified as follows.
Figure 2015191362

よって数66の右辺は以下のように変形できる。

Figure 2015191362
即ち、同一の動径rで偏角θが異なる2つの視点画像データの差分の絶対値を、複数の動径について集めた散乱光の情報は、同一の動径rで偏角θが異なる2つの視点画像データの差分を複数の動径について集めた後で絶対値を取った結果と等しい。 Therefore, the right side of Formula 66 can be modified as follows.
Figure 2015191362
That is, the information on the scattered light obtained by collecting the absolute values of the differences between the two viewpoint image data having the same radius r j and different angles θ, with respect to the plurality of radiuses, has the angle θ of the same radius r j. This is equivalent to the result of taking the absolute value after collecting the differences between two different viewpoint image data for a plurality of radius vectors.

なお、数66の右辺に視点の動径r,偏角θの視点画像データに対応する、正の値を持つ視点重み関数k(r,θ)を掛け算した場合でも絶対値の内部の符号は変化しない。そのため、視点重み関数k(r,θ)も絶対値の中に入れることができ、以下の関係も成立する。

Figure 2015191362
(ただし、数70の視点重み関数は光軸対称であり、動径r,偏角θ+πの視点に対応する視点画像データの視点重み関数の値はk(r,θ)に等しい。) It should be noted that even when the right side of the equation 66 is multiplied by a viewpoint weight function k (r j , θ i ) having a positive value corresponding to the viewpoint image data of the viewpoint radius r j and the deflection angle θ i , the absolute value is obtained. The internal sign does not change. Therefore, the viewpoint weight function k (r j , θ i ) can also be included in the absolute value, and the following relationship is also established.
Figure 2015191362
(However, the viewpoint weight function of Formula 70 is symmetric with respect to the optical axis, and the value of the viewpoint weight function of the viewpoint image data corresponding to the viewpoint of the radius r j and the declination angle θ i + π is k (r j , θ i ). equal.)

続いて、数25のSP0(X,Y,Zf)の非線型性を持つ演算を変形し、高速化するために、数70と数25を比較する。以下に数25のSP0(X,Y,Zf)の計算に数22を用いた場合の式を表す。

Figure 2015191362
Subsequently, in order to modify and speed up the operation having nonlinearity of S P0 (X, Y, Zf) in Expression 25, Expression 70 is compared with Expression 25. In the following, an expression in the case where Expression 22 is used for calculating S P0 (X, Y, Zf) of Expression 25 is shown.
Figure 2015191362

sおよびtの積分が、視点P0の偏角がθ、視点P1の偏角がθ+πを満たし、視点P0とP1の動径r(観察角)が同一、という条件下でのみ行われるならば、数70と同様、数71の右辺の絶対値と積分の順序は変更できる。
即ち、数71における積分は以下の式で表現できる。

Figure 2015191362
なお、視点P0および視点P1の座標は極座標表現でP0(r,θ)、P1(r,θ+π)とする。 The integration of s and t is performed only under the condition that the argument P0 has a deflection angle θ i , the viewpoint P1 has a deflection angle θ i + π, and the viewpoints P0 and P1 have the same radius r j (observation angle). If this is the case, as in Equation 70, the absolute value of the right side of Equation 71 and the order of integration can be changed.
That is, the integral in Formula 71 can be expressed by the following equation.
Figure 2015191362
Note that the coordinates of the viewpoint P0 and the viewpoint P1 are P0 (r j , θ i ) and P1 (r j , θ i + π) in polar coordinate representation.

(絶対値と積分の順序を変更する効果)
続いて、絶対値と積分の順序を変更する効果について述べる。
数72のように積分順序を変更できる場合、実施例4と同様に、数72の絶対値の中の式はフィルタ処理で表わすことができる。そのため、多数の視点に対する視点画像データを求める必要がなく、計算を高速化することができる。詳細は後述する。
また、数72の左辺の式を用いて散乱光の情報を抽出する場合、各々の視点画像データにノイズがある場合、差の絶対値を取ることでノイズは正の値に変換され、積分で累積される。一方、数72の右辺の式を用いて散乱光の情報を抽出する場合、視点画像データにノイズがあっても複数の視点画像データの差の加算で平均化され、その後に絶対値をとるため、ノイズが累積されにくい。そのため、数72の右辺の式を用いる方が、ノイズが少なく高画質な散乱光の抽出情報が得られる。
(Effect of changing the order of absolute value and integration)
Next, the effect of changing the order of absolute values and integration will be described.
When the integration order can be changed as shown in Equation 72, the expression in the absolute value of Equation 72 can be expressed by filtering as in the fourth embodiment. Therefore, it is not necessary to obtain viewpoint image data for a large number of viewpoints, and the calculation can be speeded up. Details will be described later.
Also, when extracting scattered light information using the equation on the left side of Equation 72, if there is noise in each viewpoint image data, the noise is converted to a positive value by taking the absolute value of the difference. Accumulated. On the other hand, when the scattered light information is extracted using the expression on the right side of Formula 72, even if there is noise in the viewpoint image data, it is averaged by adding the differences between the plurality of viewpoint image data, and then takes an absolute value. , Noise is difficult to accumulate. Therefore, extraction of scattered light with less noise and higher image quality can be obtained by using the expression on the right side of Formula 72.

(極座標で表わされる視点を用いた高速な散乱画像データの生成方法)
図27(a)は本実施例における視点の位置の例を表す図である。各々の視点の位置は以下に示すようにM個の動径rおよび2N個の偏角θの要素を用いて極座標で表現される。

Figure 2015191362
なお、動径rおよび偏角θの存在する範囲はそれぞれ0≦r≦rおよび0≦θ<2πである。図27(a)では動径方向のサンプリング数はM=5、偏角方向のサンプリング数は2N=16(N=8)であり、動径rおよび偏角θは以下で表わされている。
Figure 2015191362
(High-speed scattered image data generation method using the viewpoint expressed in polar coordinates)
FIG. 27A is a diagram illustrating an example of a viewpoint position in the present embodiment. The position of each viewpoint is expressed in polar coordinates using elements of M radiuses r j and 2N declination angles θ i as shown below.
Figure 2015191362
Incidentally, the range of existence of the radius vector r j and deviation angle theta i respectively is 0 ≦ r jr m and 0 ≦ θ i <2π. In FIG. 27A, the sampling number in the radial direction is M = 5, the sampling number in the declination direction is 2N = 16 (N = 8), and the radial r j and the declination θ i are expressed as follows. ing.
Figure 2015191362

また図27(a)では、以下に示すように、全ての視点において偏角θに対して偏角を180度(π[rad])回転した視点が存在している。

Figure 2015191362
なお、図27(a)に示すような動径方向と偏角方向による視点位置の指定は視点設定1401の設定(不図示)で行うことができる。 In FIG. 27A, as shown below, there are viewpoints in which the deflection angle is rotated by 180 degrees (π [rad]) with respect to the deflection angle θ i at all viewpoints.
Figure 2015191362
Note that designation of the viewpoint position based on the radial direction and the declination direction as shown in FIG. 27A can be performed by setting the viewpoint setting 1401 (not shown).

(散乱光情報の抽出)
続いて、所定の偏角θとθ+πの2つの視点画像データの間の差の絶対値を複数の動径rについて加算し、その結果を様々な偏角θについて加算することで、図27(a)に示す多数の視点の位置での散乱光の情報を抽出することを考える。数式で表わすと、以下の数76、数77の計算となる。

Figure 2015191362
Figure 2015191362
(Extraction of scattered light information)
Subsequently, the absolute value of the difference between the two viewpoint image data of the predetermined declination angles θ i and θ i + π is added for a plurality of radiuses r j , and the result is added for various declination angles θ i. Now, consider extracting scattered light information at a number of viewpoint positions shown in FIG. Expressed by mathematical formulas, the following formulas 76 and 77 are calculated.
Figure 2015191362
Figure 2015191362

視点P0(r,θ)と視点P1(r,θ+π)を入れ替えたとき、視点重み関数の値、絶対値内の結果は等しくなるため、数76および数77はそれぞれ以下の式に変形できる。数79では加算(Σ)の数を2N個からN個に削減することができる。

Figure 2015191362
Figure 2015191362
When the viewpoint P0 (r j , θ i ) and the viewpoint P1 (r j , θ i + π) are interchanged, the values of the viewpoint weight function and the results within the absolute value are equal. Can be transformed into a formula. In Equation 79, the number of additions (Σ) can be reduced from 2N to N.
Figure 2015191362
Figure 2015191362

以降、数76または数78で表わされるDSθi(X,Y,Zf)を偏角選択散乱画像データと呼ぶ。なお、数77または数79で表わされるDS(X,Y,Zf)はこれまでと同様に散乱画像データまたは散乱光抽出画像データと呼ぶ。 Hereinafter, DS θi (X, Y, Zf) represented by Expression 76 or 78 is referred to as declination angle selective scattering image data. In addition, DS (X, Y, Zf) represented by Formula 77 or Formula 79 is called scattered image data or scattered light extracted image data as before.

ここで数78の右辺は数70を用いて以下の式に変形できる。

Figure 2015191362
続いて、数80の視点の位置(r,θ)を(s,t)で表わし、シグマ(Σ)をインテグラル(∬)で表現すると、以下の数81〜数84のように表現できる。
Figure 2015191362
Figure 2015191362
ここでLθi(s,t)は以下の式で表わされる。
Figure 2015191362
また、lθi(s,t)は以下の式で表わされる。
Figure 2015191362
即ち、lθi(s,t)は、視点(s,t)の偏角θがθであるときは1を取り、それ以外では0となる関数である。ただし、視点(s,t)=(0,0)の場合は、lθi(,0)=0、Lθi(0,0)=0とする。 Here, the right side of Formula 78 can be transformed into the following formula using Formula 70.
Figure 2015191362
Subsequently, when the position (r, θ) of the viewpoint of Expression 80 is expressed by (s, t) and sigma (Σ) is expressed by integral (∬), it can be expressed as Expressions 81 to 84 below.
Figure 2015191362
Figure 2015191362
Here, L θi (s, t) is expressed by the following equation.
Figure 2015191362
L θi (s, t) is expressed by the following equation.
Figure 2015191362
That is, l θi (s, t) is a function that takes 1 when the declination angle θ of the viewpoint (s, t) is θ i and 0 otherwise. However, when the viewpoint (s, t) = (0, 0), l θi (, 0) = 0 and L θi (0, 0) = 0.

以降、k(s,t)Lθi(s,t)を偏角選択視点重み関数と呼び、Lθi(s,t)を偏角選択関数と呼ぶ。
数82のSθi(X,Y,Zf)を求める計算は、視点重み関数が偏角選択視点重み関数k(s,t)Lθi(s,t)である任意焦点ぼけ画像データを求める計算と等しいことを表す。
Hereinafter, k (s, t) L θi (s, t) is referred to as an argument selection viewpoint weight function, and L θi (s, t) is referred to as an argument selection function.
The calculation for obtaining S θi (X, Y, Zf) in Equation 82 is for calculating arbitrary out-of-focus image data whose viewpoint weight function is an argument selection viewpoint weight function k (s, t) L θi (s, t) . Is equal to

(偏角選択視点重み関数について)
続いて、図を用いて偏角選択視点重み関数k(s,t)Lθi(s,t)の生成方法を説明する。
図27(b)は偏角選択関数Lθi(s,t)の一例を示す模式図であり、図27(c)は偏角選択視点重み関数k(s,t)Lθi(s,t)の一例を示す模式図である。
図27(a)は視点重み関数k(s,t)の模式図であり、既に述べたように複数の動径rと偏角θの組合せでサンプリング位置が決められている。図27(b)はθ=θの偏角選択関数Lθ1(s,t)を表す模式図である。偏角θの線上(3611)では1の値を持ち、偏角θ+πの線上(3612)では−1の値を持ち、それ以外の領域では0となる。なお、原点(3613)では0となる。
(About declination selection viewpoint weight function)
Next, a method for generating the argument selection viewpoint weight function k (s, t) L θi (s, t) will be described with reference to the drawings.
FIG. 27B is a schematic diagram illustrating an example of the argument selection function L θi (s, t). FIG. 27C illustrates an argument selection viewpoint weight function k (s, t) L θi (s, t) . ) Is a schematic diagram showing an example.
FIG. 27A is a schematic diagram of the viewpoint weighting function k (s, t), and the sampling position is determined by a combination of a plurality of radiuses r j and declinations θ i as already described. FIG. 27B is a schematic diagram showing a declination selection function L θ1 (s, t) of θ i = θ 1 . It has a value of 1 on the line of declination θ 1 (3611), has a value of −1 on the line of declination θ 1 + π (3612), and is 0 in other regions. Note that the origin (3613) is zero.

図27(c)は、図27(a)に示す視点重み関数k(s,t)と図27(b)に示す偏角選択関数Lθ1(s,t)を掛け算して得られる、偏角選択視点重み関数k(s,t)Lθ1(s,t)を示す模式図である。偏角がθとなる視点(原点を除く)では正の値を、偏角がθ+πとなる視点(原点を除く)では負の値を持ち、それ以外では0となる。すなわち、数82の右辺の式は偏角がθとなる複数の視点に対応する視点画像データの加算、偏角がθ+πとなる複数の視点に対応する視点画像データの減算を行うことを意味する。図27(c)では偏角θ、偏角θ+πとなる視点はそれぞれ4つあるため、偏角選択視点重み関数に対応するフィルタで処理すれば、合計8つの視点画像データの生成と対応する視点画像データの差分をまとめて処理できることになる。 FIG. 27C shows a deviation obtained by multiplying the viewpoint weighting function k (s, t) shown in FIG. 27A by the argument selection function L θ1 (s, t) shown in FIG. It is a schematic diagram which shows angle selection viewpoint weight function k (s, t) L ( theta ) 1 (s, t). The viewpoint (excluding the origin) where the declination is θ 1 has a positive value, the viewpoint (excluding the origin) where the declination is θ 1 + π has a negative value, and is zero otherwise. That is, the numerical formula 82 on the right side to perform the subtraction of the viewpoint image data addition viewpoint image data corresponding to a plurality of viewpoints polarization angle becomes theta i, the declination corresponding to a plurality of viewpoints to be theta i + [pi Means. In FIG. 27 (c), there are four viewpoints with the deflection angle θ i and the deflection angle θ i + π, respectively, so that processing with a filter corresponding to the deflection angle selection viewpoint weight function generates a total of eight viewpoint image data. Differences between corresponding viewpoint image data can be processed together.

(散乱光抽出画像データの生成フロー)
図28(a)は散乱画像データ計算設定画面1402において「種別」で「散乱光抽出画像」を選択し、「方式」で「偏角変更」を選択する場合の、本実施例における散乱光抽出画像データ生成ステップS1602の内部処理を示すフローチャートである。以下、図28(a)を用いて処理を説明する。(なお、図28(a)に示す散乱光抽出画像データの生成方法は数25の計算に対応する。)
(Generation flow of scattered light extraction image data)
FIG. 28A shows scattered light extraction in this embodiment when “scattering light extraction image” is selected as “type” and “change declination” is selected as “method” on the scattered image data calculation setting screen 1402. It is a flowchart which shows the internal process of image data generation step S1602. Hereinafter, the process will be described with reference to FIG. (The scattered light extraction image data generation method shown in FIG. 28A corresponds to the calculation of Equation 25.)

図28(a)の偏角選択散乱画像データ生成処理ステップS3701は、視点の偏角θのループ内にあり、ループで設定された偏角θに対応した偏角選択散乱画像データを生成する。例えば、図27(a)に示す視点位置の場合、θはθからθN−1まで変更され、N回のループ処理が行われる。
なお、偏角選択散乱画像データDSθi(X,Y,Zf)の計算には数81および数82を用いる。偏角選択視点重み関数k(s,t)Lθi(s,t)に対応する任意焦点ぼけ画像データを生成することでSθi(X,Y,Zf)を求めた後、数81によりSθi(X,Y,Zf)の絶対値を求める。詳細は後で説明する。
Declination selective scattering image data generation processing step of FIG. 28 (a) S3701 is within the loop of the polarization angle theta i of the viewpoint, generates a deflection angle selective scattering image data corresponding to the deviation angle theta i set by the loop To do. For example, in the case of the viewpoint position shown in FIG. 27A, θ i is changed from θ 0 to θ N−1 and N times of loop processing is performed.
In addition, Formula 81 and Formula 82 are used for calculation of the deflection angle selective scattering image data DS θi (X, Y, Zf). After obtaining S θi (X, Y, Zf) by generating arbitrary defocused image data corresponding to the argument selection viewpoint weight function k (s, t) L θi (s, t), S The absolute value of θi (X, Y, Zf) is obtained. Details will be described later.

予め設定した全ての偏角θに対してステップS3701の処理が終了したら、偏角選択散乱画像データ統合処理ステップS3702に進む。
偏角選択散乱画像データ統合処理ステップS3702では、数79に示す演算を行い、ステップS3701で計算した偏角選択散乱画像データDSθi(X,Y,Zf)から散乱光抽出画像データDS(X,Y,Zf)を生成する。
When the process of step S3701 is completed for all the preset declination angles θ i , the process proceeds to declination-selection scattered image data integration process step S3702.
In declination selective scattering image data integration processing step S3702, the number 79 indicates performs arithmetic, step declination selective scattering image data DS .theta.i calculated in S3701 (X, Y, Zf) from the scattered light extracted image data DS (X, Y, Zf) is generated.

続いて、偏角選択散乱画像データ生成処理ステップS3701の詳細を説明する。図28(b)は偏角選択散乱画像データ生成処理ステップS3701の内部処理を示すフローチャートである。
偏角選択視点重み関数生成処理ステップS3801では、偏角選択視点重み関数k(s,t)Lθi(s,t)を生成する。具体的には、まず、散乱画像データ計算設定画面1402における「視点重み関数1」の選択情報に基づき、ka1(s,t)(極座標表示ではka1(r,θ))を生成する。次に、処理対象である偏角θに対応する偏角選択関数Lθi(s,t)を、画像データ生成装置100内の記憶装置130又はメインメモリ302から読み出す。そして、偏角選択関数Lθi(s,t)と視点重み関数1に対応するka1(s,t)とを掛け算することで、偏角選択視点重み関数k(s,t)Lθi(s,t)を生成する。
なお、ステップS3801では、偏角選択視点重み関数k(s,t)Lθi(s,t)を生成せず、偏角選択視点重み関数に対応する複数の2次元フィルタや3次元フィルタを、メインメモリ302等から読み出すためのインデックスを生成しても良い。例えばインデックスとして視点重み関数の番号d1と偏角θの番号d2を定める。
Next, details of the deflection angle selective scattered image data generation processing step S3701 will be described. FIG. 28B is a flowchart showing an internal process of the declination-selection scattered image data generation process step S3701.
In the argument selection viewpoint weight function generation processing step S3801, an argument selection viewpoint weight function k (s, t) L θi (s, t) is generated. Specifically, first, k a1 (s, t) (k a1 (r, θ) in polar coordinate display) is generated based on the selection information of “viewpoint weight function 1” on the scattered image data calculation setting screen 1402. Next, the argument selection function L θi (s, t) corresponding to the argument θ i to be processed is read from the storage device 130 or the main memory 302 in the image data generation device 100. Then, by multiplying the argument selection function L θi (s, t) by k a1 (s, t) corresponding to the viewpoint weight function 1, the argument selection viewpoint weight function k (s, t) L θi ( s, t).
In step S3801, a plurality of two-dimensional filters and three-dimensional filters corresponding to the argument selection viewpoint weight function are not generated without generating the argument selection viewpoint weight function k (s, t) L θi (s, t). An index for reading from the main memory 302 or the like may be generated. For example, the number d1 of the viewpoint weight function and the number d2 of the argument θ i are determined as indexes.

次に任意焦点ぼけ画像生成処理ステップS3802では、偏角選択視点重み関数k(s,t)Lθi(s,t)に基づいて、任意焦点ぼけ画像データを生成し、Sθi(X,Y,Zf)として出力する。なお、ステップS3801で偏角選択視点重み関数を読み出すためのインデックスを作成した場合、番号d1およびd2から、偏角選択視点重み関数に対応する複数の2次元フィルタや3次元フィルタを読み出し、任意焦点ぼけ画像データを生成する。
任意焦点ぼけ画像データの生成方法として、図23の処理フロー(特許文献1)、図24の処理フロー(非特許文献3,4)に示すいずれの方法を用いても良い。詳細は後述する。なお、高速化ではなく、ノイズを低減する目的で図16(d)の処理フロー(非特許文献2)に示す方法を用いても良い。
Next, in an arbitrary defocus image generation processing step S3802, arbitrary defocus image data is generated based on the argument selection viewpoint weight function k (s, t) L θi (s, t), and S θi (X, Y). , Zf). When an index for reading the argument selection viewpoint weight function is created in step S3801, a plurality of two-dimensional filters and three-dimensional filters corresponding to the argument selection viewpoint weight function are read from the numbers d1 and d2, and an arbitrary focus Generate blurred image data.
Any method shown in the processing flow of FIG. 23 (Patent Document 1) and the processing flow of FIG. 24 (Non-Patent Documents 3 and 4) may be used as a method for generating arbitrary defocused image data. Details will be described later. Note that the method shown in the processing flow of FIG. 16D (non-patent document 2) may be used for the purpose of reducing noise, not speeding up.

最後に偏角選択散乱画像データ抽出処理ステップS3803では、ステップS3802が出力するSθi(X,Y,Zf)に対し、数81に示す絶対値を求める演算を行い、偏角選択散乱画像データDSθi(X,Y,Zf)を生成する。 Finally, in step S3803 for selecting the selected angle of declination image data, an operation for obtaining the absolute value shown in Equation 81 is performed on S θi (X, Y, Zf) output from step S3802, and the declination selection selected image data DS. θi (X, Y, Zf) is generated.

続いて、任意焦点ぼけ画像生成処理ステップS3802の詳細について述べる。   Next, details of the arbitrary defocused image generation processing step S3802 will be described.

(任意焦点ぼけ画像データの生成に図23の処理フローを用いる場合)
図23の処理フロー(特許文献1)を用いる場合の各ステップでの処理について述べる。
ステップS3201では、偏角選択視点重み関数k(s,t)Lθi(s,t)に対応する3次元焦点ぼけのフーリエ変換H(u,v,w)と撮像光学系の3次元焦点ぼけのフーリエ変換H(u,v,w)をメインメモリ302等から読み出す。これらのフーリエ変換は予め計算され、メインメモリ302や記憶装置130に格納されているものとする。偏角選択視点重み関数に対応する3次元焦点ぼけのフーリエ変換H(u,v,w)はステップS3801で定めたインデックスを用いて読み出すことが可能である。
そして、数53に示す演算により、3次元周波数フィルタC(u,v,w)を生成する
(When the processing flow in FIG. 23 is used to generate arbitrary defocus image data)
Processing in each step when using the processing flow of FIG. 23 (Patent Document 1) will be described.
In step S3201, the three-dimensional focal point Fourier transform H a (u, v, w) corresponding to the argument selection viewpoint weighting function k (s, t) L θi (s, t) and the three-dimensional focal point of the imaging optical system. The blurred Fourier transform H (u, v, w) is read from the main memory 302 or the like. These Fourier transforms are calculated in advance and stored in the main memory 302 or the storage device 130. The three-dimensional defocused Fourier transform H a (u, v, w) corresponding to the argument selection viewpoint weight function can be read using the index determined in step S3801.
Then, a three-dimensional frequency filter C (u, v, w) is generated by the calculation shown in Formula 53.

3次元フーリエ変換処理ステップS3202では、処理対象の偏角θ毎にZスタック画像データの3次元フーリエ変換を実行せず、一度計算したフーリエ変換結果をメインメモリ302や記憶装置130に格納し、それ以降は読み出して処理する。
以降の3次元フィルタ適用処理ステップS3203、3次元フーリエ逆変換処理S3204、レイヤー画像データ取得処理S3205の各々の処理は実施例4の説明と同一であるため、説明は省略する。
In the three-dimensional Fourier transform processing step S3202, the three-dimensional Fourier transform of the Z stack image data is not executed for each deflection angle θ i to be processed, and the Fourier transform result calculated once is stored in the main memory 302 or the storage device 130. After that, read and process.
Since the subsequent processes of the three-dimensional filter application processing step S3203, the three-dimensional inverse Fourier transform process S3204, and the layer image data acquisition process S3205 are the same as those described in the fourth embodiment, the description thereof will be omitted.

(任意焦点ぼけ画像データの生成に図24の処理フローを用いる場合)
次に、図24の処理フロー(非特許文献3,4)を用いる場合の各ステップでの処理について述べる。
ステップS3301では、処理対象の偏角θ毎にレイヤー画像データのフーリエ変換を実行せず、一度計算したフーリエ変換結果をメインメモリ302や記憶装置130に格納し、それ以降は読み出して処理する。
続いて、ステップS3302では、偏角選択視点重み関数k(s,t)Lθi(s,t)に対応するレイヤー画像データ毎の周波数フィルタデータH(n−nf)(u,v)をメインメモリ302等から読み出す。これらの周波数フィルタデータは予め計算され、メインメモリ302や記憶装置130に格納されているものとする。
(When the processing flow of FIG. 24 is used for generating arbitrary defocused image data)
Next, processing in each step when using the processing flow of FIG. 24 (Non-Patent Documents 3 and 4) will be described.
In step S3301, the Fourier transform of the layer image data is not executed for each deflection angle θ i to be processed, the Fourier transform result calculated once is stored in the main memory 302 or the storage device 130, and the subsequent processing is read and processed.
Subsequently, in step S3302, the frequency filter data H (n−nf) (u, v) for each layer image data corresponding to the argument selection viewpoint weighting function k (s, t) L θi (s, t) is main. Read from the memory 302 or the like. It is assumed that these frequency filter data are calculated in advance and stored in the main memory 302 or the storage device 130.

レイヤー画像データ毎の周波数フィルタデータH(n−nf)(u,v)はステップS3801で定めたインデックスを用いて読み出すことが可能である。又は、ステップS3801で計算した偏角選択視点重み関数k(s,t)Lθi(s,t)を用いて、数58からレイヤー画像データ毎の周波数フィルタデータH(n−nf)(u,v)を計算しても良い。この場合に、Cs,t(u,v)−1やe−2πi(su+tv)nが予め計算され、メインメモリ302や記憶装置130に格納されているとよい。それらを読み出して計算に用いれば、数58は高速に計算できる。
以降のレイヤーフィルタ適用処理ステップS3303、フィルタ結果統合処理ステップS3304、逆フーリエ変換ステップS3305の各々の処理は実施例4の説明と同一であるため、説明は省略する。
The frequency filter data H (n−nf) (u, v) for each layer image data can be read using the index determined in step S3801. Alternatively, using the argument selection viewpoint weight function k (s, t) L θi (s, t) calculated in step S3801, the frequency filter data H (n−nf) (u, v) may be calculated. In this case, C s, t (u, v) −1 and e −2πi (su + tv) n may be calculated in advance and stored in the main memory 302 or the storage device 130. If they are read out and used for calculation, Formula 58 can be calculated at high speed.
Since the subsequent processes of the layer filter application processing step S3303, the filter result integration processing step S3304, and the inverse Fourier transform step S3305 are the same as those described in the fourth embodiment, description thereof will be omitted.

以上、散乱画像データ計算設定画面1402の「方式」として「偏角変更」を選択する場合の散乱光抽出画像データの生成方法について述べた。
散乱光抽出画像データ生成ステップS1602の内部で図28(a)および図28(b)の処理フローを用いることで散乱光抽出画像データの計算を高速化することができる。また散乱光抽出画像データではノイズが平均化されて抑えられる効果があり、生成した散乱光抽出画像データのノイズを少なくすることができる。
In the foregoing, the method for generating scattered light extraction image data when “change declination” is selected as the “method” of the scattered image data calculation setting screen 1402 has been described.
The calculation of scattered light extraction image data can be speeded up by using the processing flow of FIG. 28A and FIG. 28B inside the scattered light extraction image data generation step S1602. Further, the scattered light extracted image data has an effect of suppressing noise by averaging, and noise of the generated scattered light extracted image data can be reduced.

(「偏角変更」を選択する場合の散乱光強調画像データの生成方法)
次に、本実施例で述べた散乱光抽出画像データから散乱光強調画像データを求める場合、すなわち、散乱画像データ計算設定画面1402において「種別」で「散乱光強調画像」を選択し、「方式」で「偏角変更」を選択する場合について説明する。実施例2と同様、図19(a)を用いて説明する。
なお、説明を簡略にするため、本実施例でも実施例5と同様、透過光成分抑制設定画面1403の「方式」で「抑制処理なし」を選択する場合について説明する。そのため、実施例2の図19(a)ではステップS2701、ステップS2703の処理は実行されずに、ステップS2702、ステップS2704の処理が実行されるとする。また図19(b)では2801、2803および2804の各ブロックで処理は実行されず、2802のみ実行し結果を出力する。なお、本実施例では説明しないが、実施例2と同様、透過光成分抑制設定画面1403の「方式」で「掛け算」を選択した場合も本発明の範疇とする
(Generation method of scattered light weighted image data when "Change declination" is selected)
Next, when obtaining the scattered light weighted image data from the scattered light extraction image data described in the present embodiment, that is, selecting “scattered light weighted image” as “type” in the scattered image data calculation setting screen 1402, ”Will be described for selecting“ change declination ”. Similar to the second embodiment, the description will be made with reference to FIG.
In order to simplify the description, a case will be described in the present embodiment where “no suppression processing” is selected in “method” of the transmitted light component suppression setting screen 1403 as in the fifth embodiment. Therefore, in FIG. 19A of the second embodiment, it is assumed that the processes in steps S2701 and S2704 are performed without executing the processes in steps S2701 and S2703. In FIG. 19B, processing is not executed in the blocks 2801, 2803, and 2804, and only 2802 is executed and the result is output. Although not described in the present embodiment, as in the second embodiment, the case where “multiplication” is selected in “method” on the transmitted light component suppression setting screen 1403 is also included in the scope of the present invention.

まず、散乱光抽出画像データ生成処理ステップS2702では、「視点重み関数1」の設定情報に対応した視点重み関数ka1(s,t)を生成し、散乱光抽出画像データDS(X,Y,Zf)を生成する。本実施例のステップS2702の内部では図28(a)および図28(b)に示す処理フローを行う。既に説明したため、詳細は省略する。
次に散乱光強調画像データ生成処理ステップS2704ではZスタック画像データから任意焦点ぼけ画像データa(X,Y,Zf)を生成し、散乱光抽出画像データDS(X,Y,Zf)と合成する処理を行う。図20を用いてステップS2704の内部処理を説明する。
First, in the scattered light extraction image data generation processing step S2702, the viewpoint weight function k a1 (s, t) corresponding to the setting information of “viewpoint weight function 1” is generated, and the scattered light extraction image data DS (X, Y, Zf) is generated. The processing flow shown in FIGS. 28A and 28B is performed in step S2702 of the present embodiment. Since it has already been described, details are omitted.
Next, in the scattered light weighted image data generation processing step S2704, arbitrary defocused image data a (X, Y, Zf) is generated from the Z stack image data, and is synthesized with the scattered light extracted image data DS (X, Y, Zf). Process. The internal processing in step S2704 will be described using FIG.

任意焦点ぼけ画像データ生成処理ステップS2901では、まずZスタック画像データから任意焦点ぼけ画像データa(X,Y,Zf)を生成する。Zスタック画像データからの任意焦点ぼけ画像データの生成方法として、図23の処理フロー(特許文献1)、図24の処理フロー(非特許文献3,4)に示すいずれの方法を用いても良い。
本実施例では、設定画面1403の「方式」で「抑制処理なし」を選択している。それゆえ、補正散乱光強調画像データ生成処理ステップS2902では、補正散乱光抽出画像データMDS(X,Y,Zf)としてステップS2702で生成した散乱光抽出画像データDS(X,Y,Zf)を用いる。そして数49に示すように、右辺のMDS(X,Y,Zf)を変倍し、任意焦点ぼけ画像データa(X,Y,Zf)に加算することで散乱光強調画像データを求める。
In the arbitrary defocus image data generation processing step S2901, first, arbitrary defocus image data a (X, Y, Zf) is generated from the Z stack image data. Any method shown in the processing flow of FIG. 23 (Patent Document 1) and the processing flow of FIG. 24 (Non-Patent Documents 3 and 4) may be used as a method for generating arbitrary defocused image data from Z stack image data. .
In this embodiment, “No suppression process” is selected in “Method” on the setting screen 1403. Therefore, in the corrected scattered light enhanced image data generation processing step S2902, the scattered light extracted image data DS (X, Y, Zf) generated in step S2702 is used as the corrected scattered light extracted image data MDS (X, Y, Zf). . As shown in Formula 49, the MDS (X, Y, Zf) on the right side is scaled and added to the arbitrarily defocused image data a (X, Y, Zf) to obtain the scattered light weighted image data.

以上、散乱画像データ計算設定画面1402の「方式」として「偏角変更」を選択する場合の散乱光強調画像データの生成方法について述べた。
ステップS2702で図28(a)および図28(b)の処理フローを用いることで散乱光抽出画像データの計算を高速化し、散乱光強調画像データを高速に求めることができる。また、ステップS2702で求めた散乱光抽出画像データではノイズが平均化されて抑えられる効果があるため、散乱光強調画像データもノイズを少なくすることができる。
In the foregoing, the method of generating scattered light weighted image data when “change declination” is selected as the “method” of the scattered image data calculation setting screen 1402 has been described.
By using the processing flow of FIG. 28A and FIG. 28B in step S2702, the calculation of the scattered light extracted image data can be speeded up, and the scattered light weighted image data can be obtained at high speed. In addition, since the scattered light extracted image data obtained in step S2702 has an effect of averaging and suppressing noise, the scattered light weighted image data can also reduce noise.

(「複合変更」を選択する場合の散乱光抽出画像データの生成方法)
次に、設定画面1402の「方式」で「複合変更」を選択した場合の散乱光抽出画像データの生成方法について述べる。前記の設定では、数32に示すように、散乱光情報抽出用の視点重み関数を用いて、「観察角変更」を選択した場合の散乱光抽出画像データと「偏角変更」を選択した場合の散乱光抽出画像データの加算を求める。
(Generation method of scattered light extraction image data when "Composite change" is selected)
Next, a method of generating scattered light extraction image data when “composite change” is selected in “method” on the setting screen 1402 will be described. In the above setting, as shown in Equation 32, using the viewpoint weight function for extracting scattered light information, when the scattered light extraction image data when “change observation angle” is selected and “change declination” are selected. The addition of the scattered light extraction image data is obtained.

数44を用いて「偏角変更」を選択した場合の散乱光抽出画像データを求める場合、「視点重み関数1」および「視点重み関数2」の設定情報から求めた散乱光情報抽出用の視点重み関数kex(s,t)を用いることで計算できた。しかし、本実施例でこれまで述べた数79および数80に示す計算で散乱光抽出画像データを求める場合には、視点重み関数は絶対値の内部に存在するため、線型性が成立しない。そのため、数80の視点重み関数k(r,θ)をkex(r,θ)に置き換えることで散乱光抽出画像データを計算することはできない。従って、数34に示すように視点重み関数ka1(s,t)および視点重み関数ka2(s,t)のそれぞれの散乱光強調画像データを求め、その差をとることで散乱光抽出画像データを求める。 When obtaining scattered light extraction image data when “change declination” is selected using Equation 44, the viewpoint for extracting scattered light information obtained from the setting information of “viewpoint weight function 1” and “viewpoint weight function 2” It was able to be calculated by using the weight function k ex (s, t). However, when the scattered light extraction image data is obtained by the calculations shown in Equations 79 and 80 described so far in the present embodiment, since the viewpoint weight function exists inside the absolute value, linearity is not established. Therefore, the scattered light extraction image data cannot be calculated by replacing the viewpoint weight function k (r j , θ i ) in Expression 80 with k ex (r j , θ i ). Accordingly, as shown in the equation 34, the scattered light weighted image data of the viewpoint weight function k a1 (s, t) and the viewpoint weight function k a2 (s, t) are obtained, and the difference is taken to obtain the scattered light extracted image. Ask for data.

以下に数34を変形して求めた、本実施例における設定画面1402の「方式」で「複合変更」を選択した場合の散乱光抽出画像データを求める式を示す。

Figure 2015191362
即ち、実施例5で述べた散乱光抽出画像データに、視点重み関数ka1(s,t)を用いて求めた散乱光強調画像データと視点重み関数ka2(s,t)を用いて求めた散乱光強調画像データの差を加算することと等しい。既に述べたように実施例4および本実施例でこれまで述べた散乱光抽出画像データの生成フローは、複数の視点画像データを求めることなく、任意焦点ぼけ画像データの生成として処理するため、高速な計算が可能である。 Expressions for obtaining the scattered light extraction image data when “composite change” is selected in the “method” of the setting screen 1402 in the present embodiment, which is obtained by modifying Equation 34, are shown below.
Figure 2015191362
In other words, the scattered light extraction image data described in the fifth embodiment is obtained using the scattered light weighted image data obtained using the viewpoint weight function k a1 (s, t) and the viewpoint weight function k a2 (s, t). It is equivalent to adding the difference of the scattered light weighted image data. As already described, the scattered light extraction image data generation flow described so far in the fourth embodiment and the present embodiment is processed as generation of arbitrary defocused image data without obtaining a plurality of viewpoint image data. Calculation is possible.

図28(c)は設定画面1402において「種別」で「散乱光抽出画像」を選択し、「方式」で「複合変更」を選択する場合の、本実施例における散乱光抽出画像データ生成ステップS1602の内部処理を示すフローチャートである。
観察角変更散乱光抽出画像データ生成ステップS3901では、実施例4で説明したように設定画面1402で設定した「視点重み関数1」と「視点重み関数2」の設定情報から散乱光情報抽出用の視点重み関数kex(s,t)を生成する。そして散乱光情報抽出用の視点重み関数に対応する任意焦点ぼけ画像データを生成する。なお、任意焦点ぼけ画像データの生成方法として、図23の処理フロー(特許文献1)、図24の処理フロー(非特許文献3,4)のいずれの方法を用いても良い。ステップS3901で計算した散乱光抽出画像データを観察角変更散乱光抽出画像データと呼ぶ。
FIG. 28C shows a scattered light extraction image data generation step S1602 in this embodiment when “scattering light extraction image” is selected for “type” and “composite change” is selected for “method” on the setting screen 1402. It is a flowchart which shows the internal processing.
In the observation angle change scattered light extraction image data generation step S3901, as described in the fourth embodiment, the scattered light information extraction is performed from the setting information of “viewpoint weight function 1” and “viewpoint weight function 2” set on the setting screen 1402. A viewpoint weight function k ex (s, t) is generated. Then, arbitrary defocused image data corresponding to the viewpoint weight function for extracting scattered light information is generated. Note that any method of the processing flow in FIG. 23 (Patent Document 1) and the processing flow in FIG. 24 (Non-Patent Documents 3 and 4) may be used as a method for generating arbitrary defocused image data. The scattered light extracted image data calculated in step S3901 is referred to as observation angle changed scattered light extracted image data.

次に、第1の偏角変更散乱光抽出画像データ生成ステップS3902では、「視点重み関数1」の設定情報に基づき、ka1(s,t)又はそのインデックス番号を求め、数81と数79を用いて散乱光抽出画像データDS(X,Y,Zf)を生成する。処理フローは図28(a)および図28(b)で説明したため省略する。ステップS3902で計算した散乱光抽出画像データを第1の偏角変更散乱光抽出画像データと呼ぶ。
第2の偏角変更散乱光抽出画像データ生成ステップS3903でも同様に、「視点重み関数2」の設定情報に基づき、ka2(s,t)又はそのインデックス番号を求め、数81と数79を用いて散乱光抽出画像データDS(X,Y,Zf)を生成する。視点重み関数が異なる点を除き、処理内容はステップS3902と同様である。ステップS3903で計算した散乱光抽出画像データを第2の偏角変更散乱光抽出画像データと呼ぶ。
Next, in the first declination-change scattered light extraction image data generation step S3902, based on the setting information of “viewpoint weight function 1”, k a1 (s, t) or its index number is obtained, and Equations 81 and 79 are obtained. Is used to generate scattered light extraction image data DS (X, Y, Zf). Since the processing flow has been described with reference to FIGS. The scattered light extracted image data calculated in step S3902 is referred to as first deviation angle changed scattered light extracted image data.
Similarly, in the second deflection angle modified scattered light extraction image data generation step S3903, k a2 (s, t) or its index number is obtained based on the setting information of “viewpoint weighting function 2”. The scattered light extraction image data DS (X, Y, Zf) is generated by using this. The processing content is the same as that in step S3902 except that the viewpoint weight function is different. The scattered light extracted image data calculated in step S3903 is referred to as second deflection angle changed scattered light extracted image data.

最後に複合変更散乱光抽出画像データ生成ステップS3904では、数85に示す計算を行う。即ち、まず第1の偏角変更散乱光抽出画像データから第2の偏角変更散乱光抽出画像データを減算し、偏角変更散乱光抽出画像データを計算する。次に、求めた偏角変更散乱光抽出画像データを観察角変更散乱光抽出画像データに加算し、複合変更散乱光抽出画像データを生成する。
なお、複合変更散乱光抽出画像データを画像として表示する場合、0未満のデータには散乱光の情報は少なくノイズとみなせるため、0未満は0として表示すると良い。
Finally, in the composite modified scattered light extraction image data generation step S3904, the calculation shown in Expression 85 is performed. That is, first, the second deflection angle changed scattered light extraction image data is subtracted from the first deflection angle changed scattered light extraction image data to calculate the deflection angle changed scattered light extraction image data. Next, the obtained deviation angle-modified scattered light extraction image data is added to the observation angle-change scattered light extraction image data to generate composite modified scattering light extraction image data.
When the composite modified scattered light extracted image data is displayed as an image, the data less than 0 contains less scattered light information and can be regarded as noise.

以上、設定画面1402の「方式」として「複合変更」を選択する場合の散乱光抽出画像データの生成方法について述べた。実施例4および本実施例で述べた計算方法を用いることで散乱光抽出画像データを高速に計算できる。また、既に述べたように偏角変更散乱光抽出画像データではノイズが抑えられるため、生成する散乱光抽出画像データも低ノイズとなる。
なお、設定画面1402において「種別」で「散乱光抽出画像」を選択し、「方式」で「偏角変更」を選択した場合に、散乱光抽出画像データとして、第1の偏角変更散乱光抽出画像データと第2の偏角変更散乱光抽出画像データの差を出力しても良い。この場合の
散乱光抽出画像データは数44の計算に相当する。
In the foregoing, the method for generating scattered light extraction image data when “composite change” is selected as the “method” of the setting screen 1402 has been described. By using the calculation method described in the fourth embodiment and the present embodiment, the scattered light extraction image data can be calculated at high speed. Further, as already described, since noise is suppressed in the deflection angle-extracted scattered light extracted image data, the generated scattered light extracted image data also has low noise.
In the setting screen 1402, when “scattered light extraction image” is selected as the “type” and “change declination” is selected as the “method”, the first declination change scattered light is used as the scattered light extraction image data. A difference between the extracted image data and the second declination-change scattered light extracted image data may be output. The scattered light extracted image data in this case corresponds to the calculation of Equation 44.

(本実施例の利点)
本実施例の方法を用いれば、同一の観察角φで異なる視点の偏角θを持つ視点画像データの差分を計算し、それらを加算によって集める場合でも、対応する視点画像データを計算することなく、フィルタ処理によってまとめて計算することができる。そのため、散乱光抽出画像データおよび散乱光強調画像データの生成を高速化することができる。これにより、迅速に細胞質や細胞境界における表面凹凸や標本内の散乱光を観察したいというユーザの要望にも応えることができる。また、本実施例の方法で求めた散乱光抽出画像データおよび散乱光強調画像データでは、複数の視点画像データで加算を行った後で減算および絶対値を取るため、ノイズ成分は抑制される。そのため、弱い散乱光成分であってもノイズ成分に埋もれることなく観察できる。
(Advantages of this embodiment)
If the method of the present embodiment is used, the difference between viewpoint image data having the same observation angle φ and different viewpoint deviation angles θ is calculated, and even when these are collected by addition, the corresponding viewpoint image data is not calculated. And can be calculated together by filtering. Therefore, the generation of scattered light extraction image data and scattered light weighted image data can be speeded up. As a result, it is possible to respond to the user's desire to quickly observe the surface irregularities in the cytoplasm and cell boundaries and the scattered light in the specimen. In addition, in the scattered light extracted image data and scattered light weighted image data obtained by the method of the present embodiment, the noise component is suppressed because the subtraction and the absolute value are obtained after the addition is performed on the plurality of viewpoint image data. Therefore, even a weak scattered light component can be observed without being buried in a noise component.

以上、本発明の好適な実施例を説明したが、本発明の構成はこれらの実施例に限られない。
例えば、上記実施例では明視野顕微鏡で撮影されたZスタック画像データを元画像データとして用いた場合について説明した。しかし、本発明は、落射照明型顕微鏡、ライトフィールドカメラ、ライトフィールド顕微鏡等で撮影された元画像データに対しても適用可能である。
The preferred embodiments of the present invention have been described above, but the configuration of the present invention is not limited to these embodiments.
For example, in the above embodiment, the case where Z stack image data taken with a bright field microscope is used as original image data has been described. However, the present invention can also be applied to original image data taken with an epi-illumination microscope, a light field camera, a light field microscope, or the like.

また上記実施例では被写体として病理標本を例に説明してきたが、被写体はそれに限定されない。落射照明型顕微鏡の観察対象である金属等の反射物体でも構わない。また透過観察型顕微鏡の観察対象である透明な生物標本でも良い。いずれの場合においても特許文献1等で開示される技術を用いれば、被写体の奥行き方向の焦点位置を変えて撮影した複数枚のレイヤー画像データ群から任意の視点画像データが生成でき、本発明が適用できる。反射物体を撮影した元画像データを用いる場合、元画像データには反射光(鏡面反射)成分の像と散乱光成分の像とが含まれるが、紙のように光沢が少ない被写体では散乱光が支配的となる。その場合、上記実施例と同様の処理を行うことで、散乱光成分を抽出ないし強調することができる。   In the above embodiment, a pathological specimen has been described as an example of the subject, but the subject is not limited thereto. It may be a reflective object such as a metal that is an observation target of an epi-illumination microscope. Further, it may be a transparent biological specimen that is an observation target of a transmission observation type microscope. In any case, by using the technique disclosed in Patent Document 1 or the like, arbitrary viewpoint image data can be generated from a plurality of layer image data groups photographed by changing the focal position of the subject in the depth direction. Applicable. When original image data obtained by photographing a reflective object is used, the original image data includes an image of reflected light (specular reflection) component and an image of scattered light component. However, scattered objects such as paper do not emit scattered light. Become dominant. In that case, the scattered light component can be extracted or enhanced by performing the same processing as in the above embodiment.

また各実施例で説明した構成を互いに組み合わせてもよい。例えば、ステップS2103で視点散乱画像データを生成する際、処理対象の視点と偏角回転視点と観察角変更視点を用いて、それぞれの視点散乱画像データを求め、両者の間で加算等を行って、視点散乱画像データの強度や信頼度を高めても良い。   Moreover, you may combine the structure demonstrated in each Example mutually. For example, when the viewpoint scattered image data is generated in step S2103, the viewpoint scattered image data is obtained using the processing target viewpoint, the declination rotation viewpoint, and the observation angle change viewpoint, and addition is performed between the two. The strength and reliability of the viewpoint scattered image data may be increased.

また上記実施例で述べた各種の画像データの生成処理については、同じ処理を実空間で演算できる場合と周波数空間で演算できる場合とがある。その場合には実空間で演算してもよいし、周波数空間で演算してもよい。すなわち、本明細書において、画像データという用語は、実空間の画像データと周波数空間の画像データのいずれも含む概念である。
また上記各実施例では、画像データの演算を数式で表現しているが、実際の処理では数式どおりの計算を必ずしも行う必要はない。数式で表現された演算結果に相当する画像データが得られるのであれば、具体的な処理やアルゴリズムはどのように設計してもよい。
In addition, the various image data generation processes described in the above embodiments may be performed in the real space or in the frequency space. In that case, the calculation may be performed in the real space or in the frequency space. That is, in this specification, the term image data is a concept that includes both real space image data and frequency space image data.
In each of the above embodiments, the calculation of the image data is expressed by a mathematical expression, but it is not always necessary to perform the calculation according to the mathematical expression in actual processing. A specific process or algorithm may be designed in any way as long as image data corresponding to the calculation result expressed by the mathematical formula can be obtained.

100:画像生成装置 100: Image generation apparatus

Claims (17)

被写体を撮影して得られた元画像データを用いて、前記被写体に対する視線方向が互いに異なる複数の視点画像データのあいだの差異を抽出または強調した画像データに相当する、特徴画像データを生成する特徴画像データ生成手段と、
前記特徴画像データの画素のうち、少なくとも前記元画像データにおける低輝度領域に対応する画素に対して、輝度を低下させる補正処理を行うことにより、補正画像データを生成する補正手段と、
を有することを特徴とする画像データ生成装置。
A feature that generates feature image data corresponding to image data obtained by extracting or emphasizing differences between a plurality of viewpoint image data having different line-of-sight directions with respect to the subject using original image data obtained by photographing the subject Image data generating means;
Correction means for generating corrected image data by performing a correction process for reducing the luminance of at least the pixels corresponding to the low-luminance region in the original image data among the pixels of the feature image data;
An image data generation device comprising:
前記元画像データは、前記被写体における光軸方向の位置が異なる複数の層を撮影して得られた複数のレイヤー画像データを含むZスタック画像データである
ことを特徴とする請求項1に記載の画像データ生成装置。
The original image data is Z stack image data including a plurality of layer image data obtained by photographing a plurality of layers having different positions in the optical axis direction in the subject. Image data generation device.
前記補正手段は、前記元画像データにおける低輝度領域に対応する画素に対する係数が高輝度領域に対応する画素に対する係数に比べて小さい値に設定されたマスクデータを用いて、前記特徴画像データに対する補正処理を行う
ことを特徴とする請求項2に記載の画像データ生成装置。
The correction means corrects the feature image data using mask data in which a coefficient for a pixel corresponding to a low luminance region in the original image data is set to a smaller value than a coefficient for a pixel corresponding to a high luminance region. The image data generation apparatus according to claim 2, wherein the image data generation apparatus performs processing.
前記元画像データの輝度特徴を表す参照画像データを用いて、前記参照画像データの各画素の輝度と正の相関をもつように各画素に対する係数を設定した前記マスクデータを生成するマスク生成手段をさらに有する
ことを特徴とする請求項3に記載の画像データ生成装置。
Mask generation means for generating the mask data in which a coefficient for each pixel is set so as to have a positive correlation with the luminance of each pixel of the reference image data, using reference image data representing the luminance characteristics of the original image data; The image data generation apparatus according to claim 3, further comprising:
前記マスク生成手段は、前記参照画像データ又は諧調補正した前記参照画像データの各画素の輝度値を最大輝度値で正規化したデータを前記マスクデータとする
ことを特徴とする請求項4に記載の画像データ生成装置。
5. The mask generation unit according to claim 4, wherein the mask generation unit uses, as the mask data, data obtained by normalizing a luminance value of each pixel of the reference image data or the gradation-corrected reference image data with a maximum luminance value. Image data generation device.
前記参照画像データに対して適用する諧調補正の種類が、ユーザにより変更可能であることを特徴とする請求項5に記載の画像データ生成装置。   The image data generation apparatus according to claim 5, wherein a type of gradation correction to be applied to the reference image data can be changed by a user. 前記マスクデータは、前記参照画像データにおいて閾値よりも輝度の低い領域に対応する画素に対する係数を0、それ以外の画素に対する係数を1に設定したデータである
ことを特徴とする請求項3〜6のうちいずれか1項に記載の画像データ生成装置。
The mask data is data in which a coefficient for a pixel corresponding to an area having a luminance lower than a threshold value in the reference image data is set to 0, and a coefficient for other pixels is set to 1. The image data generation device according to any one of the above.
前記補正手段は、前記特徴画像データの各画素に対し前記マスクデータの対応する画素の係数を掛け算することにより、前記補正画像データを生成する
ことを特徴とする請求項3〜7のうちいずれか1項に記載の画像データ生成装置。
The correction unit generates the corrected image data by multiplying each pixel of the feature image data by a coefficient of a corresponding pixel of the mask data. The image data generation device according to item 1.
前記参照画像データは、
前記Zスタック画像データから生成した、前記レイヤー画像データとは異なる焦点ぼけをもつ画像データ、
前記Zスタック画像データから生成した、前記レイヤー画像データよりも被写界深度が大きい画像データ、
前記Zスタック画像データから生成した、前記光軸方向と平行な視線方向をもつ視点画像データ、又は、
前記複数のレイヤー画像データのうちのいずれかのレイヤー画像データ
である
ことを特徴とする請求項2〜8のうちいずれか1項に記載の画像データ生成装置。
The reference image data is
Image data generated from the Z stack image data and having a defocus different from the layer image data;
Image data generated from the Z stack image data and having a greater depth of field than the layer image data;
Viewpoint image data having a line-of-sight direction parallel to the optical axis direction, generated from the Z-stack image data, or
The image data generation apparatus according to claim 2, wherein the image data generation apparatus is any one of the plurality of layer image data.
前記Zスタック画像データから生成した、前記レイヤー画像データとは異なる焦点ぼけをもつ画像データ、又は、前記複数のレイヤー画像データのうちのいずれかのレイヤー画像データに対し、前記補正画像データを合成することにより、強調画像データを生成する強調画像データ生成手段をさらに有する
ことを特徴とする請求項2〜9のうちいずれか1項に記載の画像データ生成装置。
The corrected image data is synthesized with image data having a defocus different from the layer image data generated from the Z stack image data or any one of the plurality of layer image data. The image data generation device according to claim 2, further comprising enhanced image data generation means for generating enhanced image data.
前記強調画像データ生成手段は、前記レイヤー画像データとは異なる焦点ぼけをもつ画像データ、又は、前記レイヤー画像データに対し、合成係数を掛けた前記補正画像データを加算することにより、前記強調画像データを生成する
ことを特徴とする請求項10に記載の画像データ生成装置。
The emphasized image data generation means adds image data having a defocus different from the layer image data, or the corrected image data multiplied by a synthesis coefficient to the layer image data, thereby adding the emphasized image data. The image data generation apparatus according to claim 10, wherein the image data generation apparatus generates the image data.
前記合成係数がユーザにより変更可能である
ことを特徴とする請求項11に記載の画像データ生成装置。
The image data generation apparatus according to claim 11, wherein the synthesis coefficient can be changed by a user.
前記元画像データは、前記被写体を顕微鏡により撮影することにより得られる顕微鏡画像データである
ことを特徴とする請求項1〜12のうちいずれか1項に記載の画像データ生成装置。
The image data generation apparatus according to claim 1, wherein the original image data is microscope image data obtained by photographing the subject with a microscope.
前記特徴画像データは、前記元画像データに含まれる散乱光成分の特徴を抽出ないし強調した画像データである
ことを特徴とする請求項1〜13のうちいずれか1項に記載の画像データ生成装置。
The image data generation apparatus according to claim 1, wherein the feature image data is image data obtained by extracting or enhancing a feature of a scattered light component included in the original image data. .
前記特徴画像データは、前記元画像データに比べて、前記被写体の表面の凹凸のコントラストが高められた画像データである
ことを特徴とする請求項1〜13のうちいずれか1項に記載の画像データ生成装置。
The image according to any one of claims 1 to 13, wherein the feature image data is image data in which the contrast of the unevenness on the surface of the subject is increased compared to the original image data. Data generator.
コンピュータが、被写体を撮影して得られた元画像データを用いて、前記被写体に対する視線方向が互いに異なる複数の視点画像データのあいだの差異を抽出または強調した画像データに相当する、特徴画像データを生成するステップと、
コンピュータが、前記特徴画像データの画素のうち、少なくとも前記元画像データにおける低輝度領域に対応する画素に対して、輝度を低下させる補正処理を行うことにより、補正画像データを生成するステップと、
を有することを特徴とする画像データ生成方法。
Feature image data corresponding to image data obtained by extracting or emphasizing differences between a plurality of viewpoint image data with different line-of-sight directions with respect to the subject using original image data obtained by photographing the subject Generating step;
A step of generating corrected image data by performing a correction process for lowering the luminance of at least a pixel corresponding to a low luminance region in the original image data among the pixels of the feature image data;
A method of generating image data, comprising:
請求項16に記載の画像データ生成方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute each step of the image data generation method according to claim 16.
JP2014067032A 2014-03-27 2014-03-27 Image data generation apparatus and image data generation method Pending JP2015191362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014067032A JP2015191362A (en) 2014-03-27 2014-03-27 Image data generation apparatus and image data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014067032A JP2015191362A (en) 2014-03-27 2014-03-27 Image data generation apparatus and image data generation method

Publications (1)

Publication Number Publication Date
JP2015191362A true JP2015191362A (en) 2015-11-02

Family

ID=54425815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014067032A Pending JP2015191362A (en) 2014-03-27 2014-03-27 Image data generation apparatus and image data generation method

Country Status (1)

Country Link
JP (1) JP2015191362A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101792564B1 (en) 2016-04-06 2017-11-02 한국과학기술연구원 Image processing System and Image processing Method
WO2019043953A1 (en) * 2017-09-04 2019-03-07 株式会社島津製作所 Cell observation device
CN110782502A (en) * 2018-07-31 2020-02-11 通用电气公司 Deep Learning-Based PET Scatter Estimation System and Method Using Perceptual Neural Network Models
US20230222753A1 (en) * 2020-06-16 2023-07-13 Hamamatsu Photonics K.K. Sample observation device and sample observation method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101792564B1 (en) 2016-04-06 2017-11-02 한국과학기술연구원 Image processing System and Image processing Method
WO2019043953A1 (en) * 2017-09-04 2019-03-07 株式会社島津製作所 Cell observation device
CN110782502A (en) * 2018-07-31 2020-02-11 通用电气公司 Deep Learning-Based PET Scatter Estimation System and Method Using Perceptual Neural Network Models
CN110782502B (en) * 2018-07-31 2023-11-03 通用电气公司 PET scattering estimation system based on deep learning and method using perceptual neural network model
US20230222753A1 (en) * 2020-06-16 2023-07-13 Hamamatsu Photonics K.K. Sample observation device and sample observation method

Similar Documents

Publication Publication Date Title
JP2015192238A (en) Image data generation apparatus and image data generation method
Broxton et al. Wave optics theory and 3-D deconvolution for the light field microscope
US9881373B2 (en) Image generating apparatus and image generating method
Stefanoiu et al. Artifact-free deconvolution in light field microscopy
Biggs 3D deconvolution microscopy
JP5705096B2 (en) Image processing apparatus and image processing method
Kandel et al. Label-free tissue scanner for colorectal cancer screening
Cannell et al. Image enhancement by deconvolution
JP6305175B2 (en) Image processing apparatus, image processing method, and image processing system
Ikoma et al. A convex 3D deconvolution algorithm for low photon count fluorescence imaging
CN108700733A (en) System for generating synthetic 2D images of biological samples with enhanced depth of field
Guo et al. Deep learning-enabled whole slide imaging (DeepWSI): oil-immersion quality using dry objectives, longer depth of field, higher system throughput, and better functionality
JP6362062B2 (en) Image generating apparatus and image generating method
Bueno et al. An automated system for whole microscopic image acquisition and analysis
JP2015108837A (en) Image processing apparatus and image processing method
Goodwin Quantitative deconvolution microscopy
JP2015191362A (en) Image data generation apparatus and image data generation method
Prigent et al. SPITFIR (e): a supermaneuverable algorithm for fast denoising and deconvolution of 3D fluorescence microscopy images and videos
JP2015057682A (en) Image generating apparatus and image generating method
Jiang et al. Blind deblurring for microscopic pathology images using deep learning networks
Teranikar et al. Correcting anisotropic intensity in light sheet images using dehazing and image morphology
WO2019246478A1 (en) Systems and methods for interferometric multifocus microscopy
Heintzmann et al. Reconstruction of axial tomographic high resolution data from confocal fluorescence microscopy: a method for improving 3D FISH images
Conchello et al. Extended depth-of-focus microscopy via constrained deconvolution
Tadrous A method of PSF generation for 3D brightfield deconvolution