JP2018143764A - Image generation device, image generation method and program - Google Patents
Image generation device, image generation method and program Download PDFInfo
- Publication number
- JP2018143764A JP2018143764A JP2018037685A JP2018037685A JP2018143764A JP 2018143764 A JP2018143764 A JP 2018143764A JP 2018037685 A JP2018037685 A JP 2018037685A JP 2018037685 A JP2018037685 A JP 2018037685A JP 2018143764 A JP2018143764 A JP 2018143764A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- weighting
- generating
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
【課題】 本発明は、アーティファクトを抑制することのできる画像生成装置を提供することを目的とする。【解決手段】 本発明は、被検体への複数回の光照射により被検体から発生する光音響波を受信することにより得られた複数回の光照射に対応する複数の受信信号に基づいて、画像データを生成する画像生成装置であって、複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う信号処理手段と、信号処理が行われた複数の受信信号に基づいて、複数の画像データを生成する画像データ生成手段と、複数の画像データの負値の重みを正値の重みよりも大きくする重み付け処理を行う重み付け処理手段と、重み付け処理が行われた複数の画像データを合成することにより、第1の画像データを生成する合成手段と、を有する。【選択図】 図9PROBLEM TO BE SOLVED: To provide an image generation apparatus capable of suppressing artifacts. The present invention is based on a plurality of received signals corresponding to a plurality of times of light irradiation obtained by receiving photoacoustic waves generated from a subject by a plurality of times of light irradiation on the subject. An image generation device for generating image data, wherein a signal processing means for performing signal processing including time differentiation processing and inversion processing for inverting the sign of a signal level for each of a plurality of received signals, and signal processing are performed. Image data generating means for generating a plurality of image data based on a plurality of received signals, weighting processing means for performing a weighting process for making negative weights of the plurality of image data larger than positive weights, and weighting Synthesizing means for generating first image data by synthesizing a plurality of processed image data. [Selection] Figure 9
Description
本発明は、光照射により発生する光音響波に由来する画像データを生成する画像生成装置に関する。 The present invention relates to an image generation apparatus that generates image data derived from photoacoustic waves generated by light irradiation.
音響波を受信することにより得られた受信信号に基づいて画像データを生成する装置として、光音響装置が知られている。光音響装置は、光源から発生したパルス光を被検体に照射し、被検体内で伝搬・拡散したパルス光のエネルギーを吸収した被検体組織から発生した音響波(典型的には超音波であり、光音響波とも呼ぶ)を受信する。そして、光音響装置は、受信信号に基づき被検体情報を画像化する。 A photoacoustic apparatus is known as an apparatus that generates image data based on a reception signal obtained by receiving an acoustic wave. A photoacoustic device irradiates a subject with pulsed light generated from a light source, and absorbs the energy of pulsed light that has propagated and diffused within the subject (typically ultrasonic waves generated from the subject tissue). , Also called a photoacoustic wave). Then, the photoacoustic apparatus images subject information based on the received signal.
非特許文献1は、光音響波の受信信号から初期音圧分布を画像化する方法として、逆投影法の一つであるユニバーサルバックプロジェクション(UBP:Universal Back−Projection)を開示する。 Non-Patent Document 1 discloses Universal Back-Projection (UBP), which is one of back projection methods, as a method for imaging an initial sound pressure distribution from a photoacoustic wave reception signal.
ところで、非特許文献1に記載の方法で音響波の受信信号を逆投影して画像データを生成する場合、音響波の発生位置以外にも受信信号が逆投影され、アーティファクトとして画像に現れる。このアーティファクトが再構成画像の画質(コントラスト等)を低下させる原因となる。 By the way, when the image data is generated by back projecting the reception signal of the acoustic wave by the method described in Non-Patent Document 1, the reception signal is back projected other than the generation position of the acoustic wave and appears as an artifact in the image. This artifact causes a reduction in the image quality (contrast, etc.) of the reconstructed image.
そこで、本発明は、アーティファクトを抑制することのできる画像生成装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image generation apparatus that can suppress artifacts.
本発明は、被検体への複数回の光照射により被検体から発生する光音響波を受信することにより得られた複数回の光照射に対応する複数の受信信号に基づいて、画像データを生成する画像生成装置であって、複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う信号処理手段と、信号処理が行われた複数の受信信号に基づいて、複数の画像データを生成する画像データ生成手段と、複数の画像データの負値の重みを正値の重みよりも大きくする重み付け処理を行う重み付け処理手段と、重み付け処理が行われた複数の画像データを合成することにより、第1の画像データを生成する合成手段と、を有する。 The present invention generates image data based on a plurality of received signals corresponding to a plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. An image generating apparatus that performs signal processing including time differentiation processing and inversion processing that inverts the sign of a signal level for each of a plurality of reception signals, and a plurality of receptions that have undergone signal processing Based on the signal, image data generating means for generating a plurality of image data, weighting processing means for performing a weighting process for making negative weights of the plurality of image data larger than positive weights, and weighting processing are performed. And combining means for generating first image data by combining the plurality of image data.
本発明に係る画像生成装置によれば、アーティファクトを抑制することができる。 According to the image generation apparatus according to the present invention, artifacts can be suppressed.
以下に図面を参照しつつ、本発明の実施形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状及びそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、この発明の範囲を以下の記載に限定する趣旨のものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, the dimensions, materials, shapes, and relative arrangements of the components described below should be changed as appropriate according to the configuration of the apparatus to which the invention is applied and various conditions. It is not intended to limit the following description.
本発明は、光照射により発生した光音響波に由来する、二次元または三次元の空間分布を表す画像データの生成に関する発明である。光音響画像データは、光音響波の発生音圧(初期音圧)、光吸収エネルギー密度、及び光吸収係数、被検体を構成する物質の濃度(酸素飽和度など)などの少なくとも1つの被検体情報の空間分布を表す画像データである。 The present invention relates to generation of image data representing a two-dimensional or three-dimensional spatial distribution derived from a photoacoustic wave generated by light irradiation. The photoacoustic image data includes at least one subject such as a sound pressure (initial sound pressure) generated by a photoacoustic wave, a light absorption energy density, a light absorption coefficient, and a concentration of a substance constituting the subject (such as oxygen saturation). It is image data representing the spatial distribution of information.
ところで、光音響イメージングの主な被検体である生体は、光を散乱及び吸収する特性を備える。そのため、光が生体の深部に進むにつれて、光強度が指数的に減衰する。その結果、典型的に、被検体表面付近では振幅の大きい光音響波が生じ、被検体深部では振幅の小さい光音響波が生じる傾向がある。特に被検体の表面付近に存在する血管から振幅の大きい光音響波が生じやすい。 By the way, a living body, which is a main subject of photoacoustic imaging, has a characteristic of scattering and absorbing light. For this reason, the light intensity exponentially attenuates as the light travels deeper into the living body. As a result, typically, a photoacoustic wave having a large amplitude is generated in the vicinity of the subject surface, and a photoacoustic wave having a small amplitude tends to be generated in the deep part of the subject. In particular, a photoacoustic wave having a large amplitude is likely to be generated from a blood vessel existing near the surface of the subject.
非特許文献1に記載のUBP(Universal Back−Projection)と呼ばれる再構成法では、トランスデューサを中心とする円弧上に受信信号を逆投影する。その際、被検体の表面付近の振幅が大きい光音響波の受信信号が被検体深部に逆投影され、その結果被検体深部でのアーティファクトとなる。このため、被検体深部に存在する生体組織を画像化する際に、被検体表面から発生した光音響波に起因するアーティファクトにより画質(コントラスト等)が低下するおそれがある。 In a reconstruction method called UBP (Universal Back-Projection) described in Non-Patent Document 1, a received signal is back-projected onto an arc centered on a transducer. At this time, a received signal of a photoacoustic wave having a large amplitude near the surface of the subject is back-projected to the subject deep portion, resulting in an artifact in the subject deep portion. For this reason, when imaging a living tissue existing in the deep part of the subject, the image quality (contrast, etc.) may be reduced due to artifacts caused by photoacoustic waves generated from the subject surface.
本発明は、アーティファクトによる光音響画像の画質低下を抑制することのできる発明である。以下、本発明に係る処理について説明する。 The present invention is an invention that can suppress a deterioration in image quality of a photoacoustic image due to an artifact. Hereinafter, processing according to the present invention will be described.
光音響波の受信信号は、一般的に図1(a)に示すようなN−Shapeとよばれる波形を持つことが知られている。UBPでは図1(a)に示すN−Shape信号に対して時間微分処理を行い、図1(b)に示す時間微分信号を生成する。続いて、時間微分信号の信号レベルの正負を反転する正負反転処理を行い、図1(c)に示す正負反転信号を生成する。なお、N−Shape信号に時間微分処理及び正負反転処理を施して生成された信号(投影信号とも呼ぶ)には、図1(c)の矢印A,Cで示すような負の値を持つ部分と、図1(c)の矢印Bに示すような正の値を持つ部分が現れる。 It is known that a photoacoustic wave reception signal generally has a waveform called N-Shape as shown in FIG. In UBP, time differentiation processing is performed on the N-Shape signal shown in FIG. 1A to generate a time differentiation signal shown in FIG. Subsequently, a positive / negative inversion process for inverting the positive / negative of the signal level of the time differential signal is performed to generate a positive / negative inversion signal shown in FIG. A signal (also referred to as a projection signal) generated by performing time differentiation processing and positive / negative inversion processing on the N-Shape signal has a negative value as indicated by arrows A and C in FIG. Then, a portion having a positive value as shown by an arrow B in FIG.
図2は、被検体内部の微小球形状の光吸収体であるターゲット10から発生した光音響波をトランスデューサ21及びトランスデューサ22で受信する場合にUBPを適用する例を示す。ターゲット10に光を照射すると、光音響波が発生し、光音響波はトランスデューサ21及びトランスデューサ22にてN−Shape信号としてサンプリングされる。図2(a)は、トランスデューサ21によりサンプリングされたN−Shape状の受信信号をターゲット10に重畳して示した図である。なお、便宜上、トランスデューサ21から出力された受信信号のみを示すが、トランスデューサ22からも同様に受信信号が出力される。 FIG. 2 shows an example in which UBP is applied when photoacoustic waves generated from the target 10, which is a microspherical light absorber inside the subject, are received by the transducer 21 and the transducer 22. When the target 10 is irradiated with light, a photoacoustic wave is generated, and the photoacoustic wave is sampled as an N-Shape signal by the transducer 21 and the transducer 22. FIG. 2A is a diagram showing an N-Shape-shaped received signal sampled by the transducer 21 superimposed on the target 10. For convenience, only the reception signal output from the transducer 21 is shown, but the reception signal is also output from the transducer 22 in the same manner.
図2(b)は、図2(a)に示すN−Shape状の受信信号に時間微分処理及び正負反転処理を施した投影信号をターゲット10に重畳して示した図である。 FIG. 2B is a diagram in which a projection signal obtained by performing time differentiation processing and positive / negative inversion processing on the N-Shape-shaped reception signal shown in FIG.
図2(c)は、トランスデューサ21を用いて得られた投影信号をUBPで逆投影する様子を示す。UBPではトランスデューサ21を中心とした円弧上に投影信号を投影する。この場合、トランスデューサ21の指向角(例えば60°)の範囲に投影信号を逆投影している。その結果、あたかも領域31、32、及び33にわたってターゲット10が存在するかのような画像となる。ここで、領域31及び33は負の値を持つ領域であり、領域32は正の値を持つ領域である。図2(c)において、負の値を持つ領域31及び33を灰色で塗りつぶした。 FIG. 2C shows a state in which the projection signal obtained using the transducer 21 is back-projected by UBP. In UBP, a projection signal is projected on an arc centered on the transducer 21. In this case, the projection signal is back-projected in the range of the directivity angle (for example, 60 °) of the transducer 21. As a result, the image is as if the target 10 exists over the regions 31, 32, and 33. Here, the regions 31 and 33 are regions having negative values, and the region 32 is a region having positive values. In FIG. 2C, the areas 31 and 33 having negative values are filled with gray.
図2(d)は、トランスデューサ22を用いて得られた投影信号をUBPで逆投影する場合を示す。その結果、あたかも領域41、42、及び43にわたってターゲット10が存在するかのような画像となる。ここで、領域41、43は負の値を持つ領域であり、領域42は正の値を持つ領域である。図2(d)において、負の値を持つ領域41及び43を灰色で塗りつぶした。 FIG. 2D shows a case where the projection signal obtained using the transducer 22 is backprojected by UBP. As a result, the image is as if the target 10 exists over the areas 41, 42, and 43. Here, the regions 41 and 43 are regions having negative values, and the region 42 is a region having positive values. In FIG. 2D, the areas 41 and 43 having negative values are filled with gray.
図2(e)は、複数のトランスデューサ21及び22のそれぞれに対応する投影信号をUBPで逆投影する場合の図を示す。このようにして逆投影された複数の投影信号を合成することにより、光音響画像データが生成される。 FIG. 2E shows a diagram in the case where the projection signals corresponding to the plurality of transducers 21 and 22 are backprojected by UBP. Photoacoustic image data is generated by synthesizing a plurality of projection signals back-projected in this way.
図2(e)に示すように、ターゲット10の内部の位置51においては、トランスデューサ21に対応する投影信号の正値の領域32と、トランスデューサ22に対応する投影信号の正値の領域42が重なる。すなわち、典型的にターゲット10の存在する領域(ターゲット領域とも呼ぶ)では、正値の領域同士が優位に重なる。そのため、ターゲット10の領域では、典型的に光照射毎の画像データが正値となる傾向がある。 As shown in FIG. 2E, at the position 51 inside the target 10, the positive value region 32 of the projection signal corresponding to the transducer 21 and the positive value region 42 of the projection signal corresponding to the transducer 22 overlap. . That is, in a region where the target 10 is typically present (also referred to as a target region), positive value regions predominately overlap each other. Therefore, in the area of the target 10, image data for each light irradiation typically tends to be a positive value.
一方、ターゲット10の外部の位置52においては、トランスデューサ21に対応する投影信号の正値の領域32と、トランスデューサ22に対応する投影信号の負値の領域43とが重なる。また、ターゲット10の外部の位置53においては、トランスデューサ21に対応する投影信号の負値の領域31と、トランスデューサ22に対応する投影信号の正値の領域41とが重なる。このようにターゲット10以外の領域では、正値の領域と負値の領域とが複雑に重なる傾向がある。すなわち、ターゲット10以外の領域では、光照射毎に画像データが正値にも負値にもなる傾向がある。このような傾向となる理由としては、トランスデューサ22とターゲット10との相対位置が光照射毎に変わることなどが考えられる。 On the other hand, at the position 52 outside the target 10, the positive value region 32 of the projection signal corresponding to the transducer 21 and the negative value region 43 of the projection signal corresponding to the transducer 22 overlap. Further, at a position 53 outside the target 10, the negative value region 31 of the projection signal corresponding to the transducer 21 and the positive value region 41 of the projection signal corresponding to the transducer 22 overlap. Thus, in the area other than the target 10, the positive value area and the negative value area tend to overlap in a complicated manner. That is, in the area other than the target 10, the image data tends to be a positive value or a negative value for each light irradiation. A possible reason for this tendency is that the relative position between the transducer 22 and the target 10 changes with each light irradiation.
次に、光照射の度に光音響波の受信位置の組み合わせを変えて光照射を行ったときの、光照射毎の画像データの値(画像値)の変動について説明する。図3(a)は、ターゲット10の領域を非特許文献1に記載のUBPで再構成したときの画像データの値(画像値)の変動を示す。横軸は光照射の番号を示し、縦軸は画像値を示す。一方、図3(b)は、ターゲット10以外の領域を非特許文献1に記載のUBPで再構成したときの画像データの値(画像値)の変動を示す。横軸は光照射の番号を示し、縦軸は画像値を示す。 Next, fluctuations in image data values (image values) for each light irradiation when the light irradiation is performed by changing the combination of the photoacoustic wave receiving positions for each light irradiation will be described. FIG. 3A shows the fluctuation of the image data value (image value) when the area of the target 10 is reconstructed by the UBP described in Non-Patent Document 1. The horizontal axis indicates the light irradiation number, and the vertical axis indicates the image value. On the other hand, FIG. 3B shows the fluctuation of the image data value (image value) when the area other than the target 10 is reconstructed by the UBP described in Non-Patent Document 1. The horizontal axis indicates the light irradiation number, and the vertical axis indicates the image value.
図3(a)によれば、ターゲット10の領域の画像値は、光照射毎に変動があるものの、常に正値となっていることが分かる。一方、図3(b)によれば、ターゲット10以外の領域の画像値は、光照射毎に正値にも負値にもなることが分かる。 According to FIG. 3A, it can be seen that the image value of the region of the target 10 is always a positive value, although there is a variation for each light irradiation. On the other hand, according to FIG.3 (b), it turns out that the image value of area | regions other than the target 10 becomes a positive value and a negative value for every light irradiation.
ここで、全ての光照射に対応する画像データを合成することにより画像データを生成すると、ターゲット10の領域では正値の合成となるので最終的な画像値が大きくなる。一方で、ターゲット10以外の領域では、画像データの正値と負値とが相殺して、最終的な画像値がターゲット10の領域よりも小さくなる。その結果、光音響画像データに基づいた画像上でターゲット10の存在を視認することができる。 Here, when image data is generated by combining image data corresponding to all the light irradiations, a positive value is combined in the region of the target 10, so that the final image value becomes large. On the other hand, in the area other than the target 10, the positive value and the negative value of the image data cancel each other, and the final image value becomes smaller than the area of the target 10. As a result, the presence of the target 10 can be visually recognized on the image based on the photoacoustic image data.
ところが、ターゲット10以外の領域では、ターゲットが存在しないにもかかわらず画像値が0とはならず、最終的な画像値が正値となる場合がある。この場合、ターゲット10以外の位置にアーティファクトが発生し、ターゲットの視認性を低下させることとなる。 However, in an area other than the target 10, the image value does not become 0 despite the absence of the target, and the final image value may be a positive value. In this case, artifacts are generated at positions other than the target 10 and the visibility of the target is reduced.
そこで、本発明者は、上記課題を解決するために、ターゲットの領域では、典型的に光照射毎の画像データが正値となり、ターゲット以外の領域では、光照射毎の画像データが正値と負値のいずれかとなる傾向があることを利用することを着想した。すなわち、本発明者は、複数の画像データの負値の重みを正値の重みよりも大きくして合成する処理を着想した。この処理によれば、ターゲット以外の領域の最終的な画像値をより小さくし、アーティファクトを抑制することができることを着想した。本発明に係る処理の詳細については第1の実施形態で後述する。 Therefore, in order to solve the above-described problem, the present inventor typically has a positive image data for each light irradiation in the target area, and a positive value for each light irradiation in the area other than the target. Inspired by the fact that it tends to be one of negative values. That is, the inventor has conceived a process of combining a plurality of pieces of image data with a negative weight greater than a positive weight. The idea is that, according to this process, the final image value of the area other than the target can be made smaller, and artifacts can be suppressed. Details of the processing according to the present invention will be described later in the first embodiment.
ここで、シミュレーションにおいて本発明に係る処理を適用したときの効果を説明する。図4(a)は、シミュレーションで用いた被検体モデル1000を示す。被検体モデル1000としては、表面付近に血管1010が存在し、表面から20[mm]の深さの箇所にY軸方向に走行する0.2[mm]の血管1011が存在するモデルを作成した。そして、複数回光照射したときに被検体モデル1000内の血管1010及び1011から発生した光音響波を、被検体モデル1000の紙面下側に設けられた受信部が受信するときの受信信号をシミュレーションにより作成した。なお、光照射毎に光音響波の受信部の位置を変更して受信信号を作成した。続いて、シミュレーションにより得られた受信信号を用いて再構成処理を行い、複数回の光照射のそれぞれに対応する画像データを作成した。 Here, the effect when the process according to the present invention is applied in the simulation will be described. FIG. 4A shows an object model 1000 used in the simulation. As the object model 1000, a model in which a blood vessel 1010 exists near the surface and a blood vessel 1011 of 0.2 [mm] running in the Y-axis direction exists at a depth of 20 [mm] from the surface was created. . Then, the received signal when the receiving unit provided on the lower side of the subject model 1000 receives photoacoustic waves generated from the blood vessels 1010 and 1011 in the subject model 1000 when the light is irradiated a plurality of times is simulated. Created by. In addition, the received signal was created by changing the position of the photoacoustic wave receiving unit for each light irradiation. Subsequently, reconstruction processing was performed using the received signal obtained by the simulation, and image data corresponding to each of a plurality of times of light irradiation was created.
図4(b)は、非特許文献1に記載のUBPで再構成して得られた光照射毎の画像データを、合成することにより得られた比較例に係る画像である。一方、図4(c)は、UBPで得られた光照射毎の画像データの負値の重みを正値の重みよりも大きくする重み付け処理を行い、重み付けされた画像データを合成して得られた本発明に係る画像である。図4(b)も図4(c)も、2[mm]の厚さの投影領域1020(血管1011を含む)の画像データをZ軸方向に最大値投影(MIP:Maxmum Intensity Projection)して得られたMIP画像である。また、図4(b)も図4(c)も、画像値が0以下となる位置の輝度を0として表示している。また、投影領域の画像データには、表面付近の血管1010に由来する受信信号に基づいたアーティファクトも含まれている。 FIG. 4B is an image according to a comparative example obtained by synthesizing image data for each light irradiation obtained by reconstruction with UBP described in Non-Patent Document 1. On the other hand, FIG. 4C is obtained by performing weighting processing for making the negative weight of image data for each light irradiation obtained by UBP larger than the positive weight and combining the weighted image data. It is the image which concerns on this invention. In both FIG. 4B and FIG. 4C, the image data of the projection area 1020 (including the blood vessel 1011) having a thickness of 2 [mm] is projected in the Z-axis direction to the maximum value (MIP: Maximum Intensity Projection). It is the obtained MIP image. Further, in both FIG. 4B and FIG. 4C, the brightness at the position where the image value is 0 or less is displayed as 0. Further, the image data of the projection area also includes an artifact based on a reception signal derived from the blood vessel 1010 near the surface.
図4によれば、本発明に係る図4(c)の画像における血管1011の視認性は、比較例に係る図4(b)の画像における血管1011に比べ高いことが理解される。これは、本発明に係る処理によって、負値の成分の重みを相対的に高くすることにより、アーティファクトの原因となる正値の成分を相殺したためであると考えられる。その結果、本発明に係る処理によれば、アーティファクトを抑制することができ、画像中の血管(ターゲット)の視認性が向上する。 4 that the visibility of the blood vessel 1011 in the image of FIG. 4C according to the present invention is higher than that of the blood vessel 1011 in the image of FIG. 4B according to the comparative example. This is considered to be because the positive value component causing the artifact is canceled by relatively increasing the weight of the negative value component by the processing according to the present invention. As a result, according to the processing according to the present invention, artifacts can be suppressed, and the visibility of blood vessels (targets) in the image is improved.
[第1の実施形態]
第1の実施形態は、光音響装置により光音響画像データを生成する例を説明する。以下、本実施形態の光音響装置の構成及び情報処理方法について説明する。
[First Embodiment]
In the first embodiment, an example in which photoacoustic image data is generated by a photoacoustic apparatus will be described. Hereinafter, the configuration and information processing method of the photoacoustic apparatus of the present embodiment will be described.
図5を用いて本実施形態に係る光音響装置の構成を説明する。図3は、光音響装置全体の概略ブロック図である。本実施形態に係る光音響装置は、光照射部110及び受信部120を含むプローブ180、駆動部130、信号収集部140、コンピュータ150、表示部160、及び入力部170を有する。 The configuration of the photoacoustic apparatus according to the present embodiment will be described with reference to FIG. FIG. 3 is a schematic block diagram of the entire photoacoustic apparatus. The photoacoustic apparatus according to the present embodiment includes a probe 180 including a light irradiation unit 110 and a reception unit 120, a drive unit 130, a signal collection unit 140, a computer 150, a display unit 160, and an input unit 170.
図5は、本実施形態に係るプローブ180の模式図を示す。測定対象は、被検体100である。駆動部130は、光照射部110と受信部120を駆動し、機械的な走査を行う。光照射部110が光を被検体100に照射し、被検体100内で音響波が発生する。光に起因して光音響効果により発生する音響波を光音響波とも呼ぶ。受信部120は、光音響波を受信することによりアナログ信号としての電気信号(光音響信号)を出力する。 FIG. 5 is a schematic diagram of the probe 180 according to the present embodiment. The measurement object is the subject 100. The drive unit 130 drives the light irradiation unit 110 and the reception unit 120 to perform mechanical scanning. The light irradiation unit 110 irradiates the subject 100 with light, and an acoustic wave is generated in the subject 100. An acoustic wave generated by the photoacoustic effect due to light is also called a photoacoustic wave. The receiving unit 120 outputs an electric signal (photoacoustic signal) as an analog signal by receiving a photoacoustic wave.
信号収集部140は、受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。コンピュータ150は、信号収集部140から出力されたデジタル信号を、超音波または光音響波に由来する信号データとして記憶する。 The signal collection unit 140 converts the analog signal output from the reception unit 120 into a digital signal and outputs the digital signal to the computer 150. The computer 150 stores the digital signal output from the signal collection unit 140 as signal data derived from ultrasonic waves or photoacoustic waves.
コンピュータ150は、記憶されたデジタル信号に対して信号処理を行うことにより、被検体100に関する情報(被検体情報)の二次元または三次元の空間分布を表す光音響画像データを生成する。また、コンピュータ150は、得られた画像データに基づいた画像を表示部160に表示させる。ユーザーとしての医師は、表示部160に表示された画像を確認することにより、診断を行うことができる。表示画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、モダリティとネットワークで接続されたデータ管理システムなどのメモリに保存される。 The computer 150 generates photoacoustic image data representing a two-dimensional or three-dimensional spatial distribution of information about the subject 100 (subject information) by performing signal processing on the stored digital signal. Further, the computer 150 causes the display unit 160 to display an image based on the obtained image data. A doctor as a user can make a diagnosis by confirming the image displayed on the display unit 160. The display image is stored in a memory in the computer 150 or a memory such as a data management system connected to the modality via a network based on a storage instruction from the user or the computer 150.
また、コンピュータ150は、光音響装置に含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、作成画像の保存指示などの操作を行うことができる。 The computer 150 also performs drive control of the configuration included in the photoacoustic apparatus. The display unit 160 may display a GUI or the like in addition to the image generated by the computer 150. The input unit 170 is configured so that a user can input information. The user can use the input unit 170 to perform operations such as measurement start and end, and instructions for saving a created image.
以下、本実施形態に係る光音響装置の各構成の詳細を説明する。 Hereafter, the detail of each structure of the photoacoustic apparatus which concerns on this embodiment is demonstrated.
(光照射部110)
光照射部110は、光を発する光源111と、光源111から射出された光を被検体100へ導く光学系112とを含む。なお、光は、いわゆる矩形波、三角波などのパルス光を含む。
(Light irradiation unit 110)
The light irradiation unit 110 includes a light source 111 that emits light and an optical system 112 that guides the light emitted from the light source 111 to the subject 100. The light includes pulsed light such as a so-called rectangular wave and triangular wave.
光源111が発する光のパルス幅としては、1ns以上、100ns以下のパルス幅であってもよい。また、光の波長として400nmから1600nm程度の範囲の波長であってもよい。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、700nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において典型的に吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。 The pulse width of light emitted from the light source 111 may be 1 ns or more and 100 ns or less. Further, the wavelength of light may be in the range of about 400 nm to 1600 nm. When a blood vessel is imaged with high resolution, a wavelength (400 nm or more and 700 nm or less) having a large absorption in the blood vessel may be used. When imaging a deep part of a living body, light having a wavelength (700 nm or more and 1100 nm or less) that is typically less absorbed in the background tissue (water, fat, etc.) of the living body may be used.
光源111としては、レーザーや発光ダイオードを用いることができる。また、複数波長の光を用いて測定する際には、波長の変更が可能な光源であってもよい。なお、複数波長を被検体に照射する場合、互いに異なる波長の光を発生する複数台の光源を用意し、それぞれの光源から交互に照射することも可能である。複数台の光源を用いた場合もそれらをまとめて光源として表現する。レーザーとしては、固体レーザー、ガスレーザー、色素レーザー、半導体レーザーなど様々なレーザーを使用することができる。例えば、Nd:YAGレーザーやアレキサンドライトレーザーなどのパルスレーザーを光源として用いてもよい。また、Nd:YAGレーザー光を励起光とするTi:saレーザーやOPO(Optical Parametric Oscillators)レーザーを光源として用いてもよい。また、光源111としてフラッシュランプや発光ダイオードを用いてもよい。また、光源111としてマイクロウェーブ源を用いてもよい。 As the light source 111, a laser or a light emitting diode can be used. Moreover, when measuring using the light of several wavelengths, the light source which can change a wavelength may be sufficient. When irradiating a subject with a plurality of wavelengths, it is also possible to prepare a plurality of light sources that generate light of different wavelengths and alternately irradiate from each light source. When multiple light sources are used, they are collectively expressed as light sources. As the laser, various lasers such as a solid laser, a gas laser, a dye laser, and a semiconductor laser can be used. For example, a pulsed laser such as an Nd: YAG laser or an alexandrite laser may be used as the light source. Further, a Ti: sa laser or an OPO (Optical Parametric Oscillators) laser using Nd: YAG laser light as excitation light may be used as a light source. Further, a flash lamp or a light emitting diode may be used as the light source 111. Further, a microwave source may be used as the light source 111.
光学系112には、レンズ、ミラー、プリズム、光ファイバー、拡散板、シャッターなどの等の光学素子を用いることができる。 For the optical system 112, optical elements such as a lens, a mirror, a prism, an optical fiber, a diffusion plate, and a shutter can be used.
生体組織に照射することが許される光の強度は、以下に示す安全規格によって最大許容露光量(MPE:maximum permissible exposure)が定められている。(IEC 60825−1:Safety of laser products、JIS C 6802:レーザー製品の安全基準、FDA:21CFR Part 1040.10、ANSI Z136.1:Laser Safety Standards、など)。最大許容露光量は、単位面積あたりに照射することができる光の強度を規定している。このため被検体Eの表面を広い面積で一括して光を照射することにより、多くの光を被検体Eに導くことができるので、光音響波を高いSN比で受信することができる。乳房等の生体組織を被検体100とする場合、高エネルギーの光のビーム径を広げて照射するために、光学系112の射出部は光を拡散させる拡散板等で構成されていてもよい。一方、光音響顕微鏡においては、解像度を上げるために、光学系112の光出射部はレンズ等で構成し、ビームをフォーカスして照射してもよい。 The maximum permissible exposure (MPE) is determined by the safety standard shown below for the intensity of light allowed to irradiate the living tissue. (IEC 60825-1: Safety of laser products, JIS C 6802: Laser product safety standards, FDA: 21 CFR Part 1040.10, ANSI Z136.1: Laser Safety Standards, etc.). The maximum allowable exposure amount defines the intensity of light that can be irradiated per unit area. For this reason, a large amount of light can be guided to the subject E by collectively irradiating the surface of the subject E over a wide area, so that a photoacoustic wave can be received with a high S / N ratio. In the case where a biological tissue such as a breast is used as the subject 100, the emission unit of the optical system 112 may be configured with a diffusion plate or the like for diffusing light in order to irradiate with a wide beam diameter of high energy light. On the other hand, in the photoacoustic microscope, in order to increase the resolution, the light emitting portion of the optical system 112 may be configured with a lens or the like, and the beam may be focused and irradiated.
なお、光照射部110が光学系112を備えずに、光源111から直接被検体100に光を照射してもよい。 Note that the light irradiation unit 110 may directly irradiate the subject 100 with light from the light source 111 without including the optical system 112.
(受信部120)
受信部120は、音響波を受信することにより電気信号を出力するトランスデューサ121と、トランスデューサ121を支持する支持体122とを含む。また、トランスデューサ121は、音響波を送信する送信手段としてもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。
(Receiver 120)
The receiving unit 120 includes a transducer 121 that outputs an electrical signal by receiving an acoustic wave, and a support body 122 that supports the transducer 121. The transducer 121 may be a transmission unit that transmits an acoustic wave. The transducer as the reception means and the transducer as the transmission means may be a single (common) transducer or may have different configurations.
トランスデューサ121を構成する部材としては、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電膜材料などを用いることができる。また、圧電素子以外の素子を用いてもよい。例えば、静電容量型トランスデューサ(CMUT:Capacitive Micro−machined Ultrasonic Transducers)、ファブリペロー干渉計を用いたトランスデューサなどを用いることができる。なお、音響波を受信することにより電気信号を出力できる限り、いかなるトランスデューサを採用してもよい。また、トランスデューサにより得られる信号は時間分解信号である。つまり、トランスデューサにより得られる信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表したものである。 As a member constituting the transducer 121, a piezoelectric ceramic material typified by PZT (lead zirconate titanate), a polymer piezoelectric film material typified by PVDF (polyvinylidene fluoride), or the like can be used. Further, an element other than the piezoelectric element may be used. For example, a capacitive transducer (CMUT: Capacitive Micro-machined Ultrasonic Transducers), a transducer using a Fabry-Perot interferometer, or the like can be used. Any transducer may be adopted as long as it can output an electrical signal by receiving an acoustic wave. The signal obtained by the transducer is a time-resolved signal. That is, the amplitude of the signal obtained by the transducer represents a value based on the sound pressure received by the transducer at each time (for example, a value proportional to the sound pressure).
光音響波を構成する周波数成分は、典型的には100KHzから100MHzであり、トランスデューサ121として、これらの周波数を検出することのできるものを採用することができる。 The frequency component constituting the photoacoustic wave is typically 100 KHz to 100 MHz, and a transducer capable of detecting these frequencies can be employed as the transducer 121.
支持体122は、機械的強度が高い金属材料などから構成されていてもよい。照射光を被検体に多く入射させるために、支持体122の被検体100側の表面に鏡面もしくは光散乱させる加工が行われていてもよい。本実施形態において支持体122は半球殻形状であり、半球殻上に複数のトランスデューサ121を支持できるように構成されている。この場合、支持体122に配置されたトランスデューサ121の指向軸は半球の曲率中心付近に集まる。そして、複数のトランスデューサ121から出力された信号を用いて画像化したときに曲率中心付近の画質が高くなる。なお、支持体122はトランスデューサ121を支持できる限り、いかなる構成であってもよい。支持体122は、1Dアレイ、1.5Dアレイ、1.75Dアレイ、2Dアレイと呼ばれるような平面又は曲面内に、複数のトランスデューサを並べて配置してもよい。複数のトランスデューサ121が複数の受信手段に相当する。 The support body 122 may be made of a metal material having high mechanical strength. In order to make a large amount of irradiation light incident on the subject, the surface of the support 122 on the subject 100 side may be subjected to a mirror surface or light scattering process. In the present embodiment, the support body 122 has a hemispherical shell shape, and is configured to support a plurality of transducers 121 on the hemispherical shell. In this case, the directivity axes of the transducers 121 arranged on the support 122 are gathered around the center of curvature of the hemisphere. Then, when imaged using signals output from the plurality of transducers 121, the image quality near the center of curvature is improved. The support 122 may have any configuration as long as it can support the transducer 121. The support 122 may have a plurality of transducers arranged side by side in a plane or curved surface called a 1D array, 1.5D array, 1.75D array, or 2D array. The plurality of transducers 121 correspond to a plurality of receiving means.
また、支持体122は音響マッチング材210を貯留する容器として機能してもよい。すなわち、支持体122をトランスデューサ121と被検体100との間に音響マッチング材210を配置するための容器としてもよい。 Further, the support body 122 may function as a container for storing the acoustic matching material 210. That is, the support 122 may be a container for arranging the acoustic matching material 210 between the transducer 121 and the subject 100.
また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、受信部120が後述する信号収集部140を備えてもよい。 The receiving unit 120 may include an amplifier that amplifies the time-series analog signal output from the transducer 121. The receiving unit 120 may include an A / D converter that converts a time-series analog signal output from the transducer 121 into a time-series digital signal. That is, the receiving unit 120 may include a signal collecting unit 140 described later.
なお、音響波を様々な角度で検出できるようにするために、理想的には被検体100を全周囲から囲むようにトランスデューサ121を配置してもよい。ただし、被検体100が大きく全周囲を囲むようにトランスデューサを配置できない場合は、半球状の支持体122上にトランスデューサを配置して全周囲を囲む状態に近づけてもよい。 In order to be able to detect acoustic waves at various angles, the transducer 121 may be ideally arranged so as to surround the subject 100 from the entire periphery. However, when the subject 100 is large and the transducer cannot be disposed so as to surround the entire periphery, the transducer may be disposed on the hemispherical support 122 so as to approximate the entire periphery.
なお、トランスデューサの配置や数及び支持体の形状は被検体に応じて最適化すればよく、本発明に関してはあらゆる受信部120を採用することができる。 Note that the arrangement and number of transducers and the shape of the support may be optimized according to the subject, and any receiving unit 120 can be employed in the present invention.
受信部120と被検体100との間の空間は、光音響波が伝播することができる媒質で満たす。この媒質には、音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。 The space between the receiving unit 120 and the subject 100 is filled with a medium through which photoacoustic waves can propagate. For this medium, a material that can propagate an acoustic wave, has matching acoustic characteristics at the interface with the subject 100 and the transducer 121, and has a photoacoustic wave transmittance as high as possible is used. For example, water, ultrasonic gel, or the like can be used as this medium.
図6(a)は、プローブ180の側面図を示し、図6(b)は、プローブ180の上面図(図6(a)の紙面上方向から見た図)を示す。図6に示された本実施形態に係るプローブ180は、開口を有する半球状の支持体122に複数のトランスデューサ121が三次元に配置された受信部120を有する。また、図6に示されたプローブ180は、支持体122の底部に光学系112の光射出部が配置されている。 6A shows a side view of the probe 180, and FIG. 6B shows a top view of the probe 180 (viewed from above in FIG. 6A). A probe 180 according to this embodiment shown in FIG. 6 includes a receiving unit 120 in which a plurality of transducers 121 are three-dimensionally arranged on a hemispherical support body 122 having an opening. In the probe 180 shown in FIG. 6, the light emitting part of the optical system 112 is arranged at the bottom of the support 122.
本実施形態においては、図6に示すように被検体100は、保持部200に接触することにより、その形状が保持される。本実施形態では、被検体100が乳房の場合に、伏臥位の被検者を支持する寝台に乳房を挿入するための開口を設けて、開口から鉛直方向に垂らされた乳房を測定する形態を想定している。 In the present embodiment, the shape of the subject 100 is held by contacting the holding unit 200 as shown in FIG. In the present embodiment, when the subject 100 is a breast, an embodiment is provided in which an opening for inserting the breast is provided in a bed that supports a subject in a prone position, and a breast that is suspended vertically from the opening is measured. Assumed.
受信部120と保持部200の間の空間は、光音響波が伝播することができる媒質(音響マッチング材210)で満たされる。この媒質には、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、ひまし油、超音波ジェルなどを採用することができる。 The space between the receiving unit 120 and the holding unit 200 is filled with a medium (acoustic matching material 210) through which photoacoustic waves can propagate. For this medium, a material that can propagate a photoacoustic wave, has matching acoustic characteristics at the interface with the subject 100 and the transducer 121, and has a high photoacoustic wave transmittance as much as possible is adopted. For example, water, castor oil, ultrasonic gel, or the like can be used as this medium.
保持手段としての保持部200は被検体100の形状を測定中に保持するために使用される。保持部200により被検体100を保持することによって、被検体100の動きの抑制および被検体100の位置を保持部200内に留めることができる。保持部200の材料には、ポリカーボネートやポリエチレン、ポリエチレンテレフタレート等、樹脂材料を用いることができる。 A holding unit 200 as a holding unit is used to hold the shape of the subject 100 during measurement. By holding the subject 100 by the holding unit 200, the movement of the subject 100 can be suppressed and the position of the subject 100 can be held in the holding unit 200. A resin material such as polycarbonate, polyethylene, or polyethylene terephthalate can be used as the material of the holding unit 200.
保持部200は、被検体100を保持できる硬度を有する材料であることが好ましい。保持部200は、測定に用いる光を透過する材料であってもよい。保持部200は、インピーダンスが被検体100と同程度の材料で構成されていてもよい。乳房等の曲面を有するものを被検体100とする場合、凹型に成型した保持部200であってもよい。この場合、保持部200の凹部分に被検体100を挿入することができる。 The holding unit 200 is preferably a material having a hardness capable of holding the subject 100. The holding unit 200 may be a material that transmits light used for measurement. The holding unit 200 may be made of a material having the same impedance as that of the subject 100. When the subject 100 has a curved surface such as a breast, the holding unit 200 molded into a concave shape may be used. In this case, the subject 100 can be inserted into the concave portion of the holding unit 200.
保持部200は、取り付け部201に取り付けられている。取り付け部201は、被検体の大きさに合わせて複数種類の保持部200を交換可能に構成されていてもよい。例えば、取り付け部201は、曲率半径や曲率中心などの異なる保持部に交換できるように構成されていてもよい。 The holding part 200 is attached to the attachment part 201. The attachment unit 201 may be configured such that a plurality of types of holding units 200 can be exchanged according to the size of the subject. For example, the attachment portion 201 may be configured to be exchangeable with a different holding portion such as a curvature radius or a curvature center.
また、保持部200には保持部200の情報が登録されたタグ202が設置されていてもよい。例えば、タグ202には、保持部200の曲率半径、曲率中心、音速、識別ID等の情報を登録することができる。タグ202に登録された情報は、読み取り部203により読み出され、コンピュータ150に転送される。保持部200が取り付け部201に取り付けられたときに容易にタグ202を読み取るために、読み取り部203は取り付け部201に設置されていてもよい。例えば、タグ202はバーコードであり、読み取り部203はバーコードリーダである。 The holding unit 200 may be provided with a tag 202 in which information on the holding unit 200 is registered. For example, information such as the radius of curvature, the center of curvature, the speed of sound, and the identification ID of the holding unit 200 can be registered in the tag 202. Information registered in the tag 202 is read by the reading unit 203 and transferred to the computer 150. In order to easily read the tag 202 when the holding unit 200 is attached to the attachment unit 201, the reading unit 203 may be installed in the attachment unit 201. For example, the tag 202 is a barcode, and the reading unit 203 is a barcode reader.
(駆動部130)
駆動部130は、被検体100と受信部120との相対位置を変更する部分である。本実施形態では、駆動部130は、支持体122をXY方向に移動させる装置であり、ステッピングモーターを搭載した電動のXYステージある。駆動部130は、駆動力を発生させるステッピングモーターなどのモーターと、駆動力を伝達させる駆動機構と、受信部120の位置情報を検出する位置センサとを含む。駆動機構としては、リードスクリュー機構、リンク機構、ギア機構、油圧機構、などを用いることができる。また、位置センサとしては、エンコーダー、可変抵抗器、リニアスケール、磁気センサ、赤外線センサ、超音波センサなどを用いたポテンショメータなどを用いることができる。
(Driver 130)
The driving unit 130 is a part that changes the relative position between the subject 100 and the receiving unit 120. In the present embodiment, the drive unit 130 is a device that moves the support 122 in the XY directions, and is an electric XY stage equipped with a stepping motor. The driving unit 130 includes a motor such as a stepping motor that generates a driving force, a driving mechanism that transmits the driving force, and a position sensor that detects position information of the receiving unit 120. As the drive mechanism, a lead screw mechanism, a link mechanism, a gear mechanism, a hydraulic mechanism, or the like can be used. In addition, as the position sensor, a potentiometer using an encoder, a variable resistor, a linear scale, a magnetic sensor, an infrared sensor, an ultrasonic sensor, or the like can be used.
なお、駆動部130は被検体100と受信部120との相対位置をXY方向(二次元)に変更させるものに限らず、一次元または三次元に変更させてもよい。移動経路は平面的にスパイラル状やライン&スペースで走査してもよいし、さらに三次元的に体表に沿うように傾けてもよい。また、被検体100の表面からの距離を一定に保つようにしてプローブ180を移動させてもよい。このとき駆動部130は、モーターの回転数をモニターするなどしてプローブの移動量を計測してもよい。 The driving unit 130 is not limited to changing the relative position between the subject 100 and the receiving unit 120 in the XY direction (two-dimensional), and may be changed to one-dimensional or three-dimensional. The movement path may be scanned in a spiral or line & space plane, or may be tilted three-dimensionally along the body surface. Further, the probe 180 may be moved so as to keep the distance from the surface of the subject 100 constant. At this time, the driving unit 130 may measure the amount of movement of the probe by monitoring the number of rotations of the motor.
なお、駆動部130は、被検体100と受信部120との相対的な位置を変更できれば、受信部120を固定し、被検体100を移動させてもよい。被検体100を移動させる場合は、被検体100を保持する保持部を動かすことで被検体100を移動させる構成などが考えられる。また、被検体100と受信部120の両方を移動させてもよい。 The driving unit 130 may fix the receiving unit 120 and move the subject 100 as long as the relative position between the subject 100 and the receiving unit 120 can be changed. When the subject 100 is moved, a configuration in which the subject 100 is moved by moving a holding unit that holds the subject 100 may be considered. Further, both the subject 100 and the receiving unit 120 may be moved.
駆動部130は、相対位置を連続的に移動させてもよいし、ステップアンドリピートによって移動させてもよい。駆動部130は、プログラムされた軌跡で移動させる電動ステージであってもよいし、手動ステージであってもよい。すなわち、光音響装置は、駆動部130を有さずに、ユーザーがプローブ180を把持して操作するハンドヘルドタイプであってもよい。 The drive unit 130 may move the relative position continuously or may be moved by step-and-repeat. The drive unit 130 may be an electric stage that moves along a programmed trajectory, or may be a manual stage. That is, the photoacoustic apparatus may be a handheld type in which the user holds and operates the probe 180 without having the driving unit 130.
また、本実施形態では、駆動部130は光照射部110と受信部120を同時に駆動して走査を行っているが、光照射部110だけを駆動したり、受信部120だけを駆動したりしてもよい。 In this embodiment, the drive unit 130 drives the light irradiation unit 110 and the reception unit 120 simultaneously to perform scanning. However, the drive unit 130 drives only the light irradiation unit 110 or only the reception unit 120. May be.
(信号収集部140)
信号収集部140は、トランスデューサ121から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140は、FPGA(Field Programmable Gate Array)チップなどで構成されてもよい。信号収集部140から出力されるデジタル信号は、コンピュータ150内の記憶部152に記憶される。信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。なお、フォトダイオードなどの光検出センサが、光照射部110から光射出を検出し、信号収集部140がこの検出結果をトリガーに同期して上記処理を開始してもよい。また、信号収集部140は、フリーズボタンなどを用いてなされる指示をトリガーに同期して、当該処理を開始してもよい。
(Signal collection unit 140)
The signal collection unit 140 includes an amplifier that amplifies an electrical signal that is an analog signal output from the transducer 121 and an A / D converter that converts the analog signal output from the amplifier into a digital signal. The signal collection unit 140 may be configured by an FPGA (Field Programmable Gate Array) chip or the like. The digital signal output from the signal collection unit 140 is stored in the storage unit 152 in the computer 150. The signal collection unit 140 is also referred to as a data acquisition system (DAS). In this specification, an electric signal is a concept including both an analog signal and a digital signal. Note that a light detection sensor such as a photodiode may detect light emission from the light irradiation unit 110, and the signal collection unit 140 may start the above process in synchronization with the detection result. In addition, the signal collection unit 140 may start the process in synchronization with an instruction given using a freeze button or the like.
(コンピュータ150)
表示制御装置としてのコンピュータ150は、演算部151、記憶部152、制御部153を含む。各構成の機能については処理フローの説明の際に説明する。
(Computer 150)
A computer 150 serving as a display control device includes a calculation unit 151, a storage unit 152, and a control unit 153. The function of each component will be described when the processing flow is described.
演算部151としての演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。演算部151は、入力部170から、被検体音速や保持部の構成などの各種パラメータを受けて、受信信号を処理してもよい。 The unit responsible for the calculation function as the calculation unit 151 can be configured by a processor such as a CPU or a GPU (Graphics Processing Unit), or an arithmetic circuit such as an FPGA (Field Programmable Gate Array) chip. These units are not only composed of a single processor and arithmetic circuit, but may be composed of a plurality of processors and arithmetic circuits. The computing unit 151 may process the received signal by receiving various parameters such as the subject sound speed and the configuration of the holding unit from the input unit 170.
記憶部152は、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体で構成することができる。また、記憶部152は、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、記憶部152は、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。 The storage unit 152 can be configured by a non-temporary storage medium such as a ROM (Read only memory), a magnetic disk, or a flash memory. Further, the storage unit 152 may be a volatile medium such as a RAM (Random Access Memory). Note that the storage medium storing the program is a non-temporary storage medium. Note that the storage unit 152 may be configured not only from one storage medium but also from a plurality of storage media.
記憶部152は、後述する方法で演算部151により生成される光音響画像を示す画像データを保存することができる。 The storage unit 152 can store image data indicating a photoacoustic image generated by the calculation unit 151 by a method described later.
制御部153は、CPUなどの演算素子で構成される。制御部153は、光音響装置の各構成の動作を制御する。制御部153は、入力部170からの測定開始などの各種操作による指示信号を受けて、光音響装置の各構成を制御してもよい。また、制御部153は、記憶部152に格納されたプログラムコードを読み出し、光音響装置の各構成の作動を制御する。例えば、制御部153が制御線を介して、光源111の発光タイミングを制御してもよい。また、光学系112がシャッターを含む場合、制御部153が制御線を介して、シャッターの開閉を制御してもよい。 The control unit 153 includes an arithmetic element such as a CPU. The control unit 153 controls the operation of each component of the photoacoustic apparatus. The control unit 153 may control each component of the photoacoustic apparatus in response to instruction signals from various operations such as measurement start from the input unit 170. In addition, the control unit 153 reads out the program code stored in the storage unit 152 and controls the operation of each component of the photoacoustic apparatus. For example, the control unit 153 may control the light emission timing of the light source 111 via a control line. When the optical system 112 includes a shutter, the control unit 153 may control opening and closing of the shutter via a control line.
コンピュータ150は専用に設計されたワークステーションであってもよい。また、コンピュータ150の各構成は異なるハードウェアによって構成されてもよい。また、コンピュータ150の少なくとも一部の構成は単一のハードウェアで構成されてもよい。 The computer 150 may be a specially designed workstation. Each configuration of the computer 150 may be configured by different hardware. Further, at least a part of the configuration of the computer 150 may be configured by a single hardware.
図7は、本実施形態に係るコンピュータ150の具体的な構成例を示す。本実施形態に係るコンピュータ150は、CPU154、GPU155、RAM156、ROM157、外部記憶装置158から構成される。また、コンピュータ150には、表示部160としての液晶ディスプレイ161、入力部170としてのマウス171、キーボード172が接続されている。 FIG. 7 shows a specific configuration example of the computer 150 according to the present embodiment. A computer 150 according to this embodiment includes a CPU 154, a GPU 155, a RAM 156, a ROM 157, and an external storage device 158. In addition, a liquid crystal display 161 as a display unit 160, a mouse 171 and a keyboard 172 as input units 170 are connected to the computer 150.
また、コンピュータ150および複数のトランスデューサ121は、共通の筺体に収められた構成で提供されてもよい。ただし、筺体に収められたコンピュータで一部の信号処理を行い、残りの信号処理を筺体の外部に設けられたコンピュータで行ってもよい。この場合、筺体の内部および外部に設けられたコンピュータを総称して、本実施形態に係るコンピュータとすることができる。すなわち、コンピュータを構成するハードウェアが一つの筺体に収められていなくてもよい。 The computer 150 and the plurality of transducers 121 may be provided in a configuration housed in a common housing. However, a part of signal processing may be performed by a computer housed in the housing, and the remaining signal processing may be performed by a computer provided outside the housing. In this case, the computers provided inside and outside the housing can be collectively referred to as the computer according to the present embodiment. That is, the hardware constituting the computer may not be housed in a single housing.
(表示部160)
表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)FED、メガネ型ディスプレイ、ヘッドマウントディスプレイなどのディスプレイである。コンピュータ150により得られたボリュームデータに基づいた画像や特定位置の数値等を表示する装置である。表示部160は、ボリュームデータに基づいた画像や装置を操作するためのGUIを表示してもよい。なお、被検体情報の表示にあたっては、表示部160またはコンピュータ150において画像処理(輝度値の調整等)を行った上で表示することもできる。表示部160は、光音響装置とは別に提供されていてもよい。コンピュータ150は、光音響画像データを有線または無線で表示部160へ送信することができる。
(Display unit 160)
The display unit 160 is a display such as a liquid crystal display, an organic EL (Electro Luminescence) FED, a glasses-type display, or a head-mounted display. This is an apparatus for displaying an image based on volume data obtained by the computer 150, a numerical value at a specific position, and the like. The display unit 160 may display a GUI for operating an image or device based on the volume data. Note that the subject information can be displayed after image processing (such as adjustment of luminance values) is performed on the display unit 160 or the computer 150. The display unit 160 may be provided separately from the photoacoustic apparatus. The computer 150 can transmit the photoacoustic image data to the display unit 160 in a wired or wireless manner.
(入力部170)
入力部170としては、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールを採用することができる。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。
(Input unit 170)
As the input unit 170, an operation console that can be operated by a user and configured with a mouse, a keyboard, or the like can be employed. The display unit 160 may be configured with a touch panel, and the display unit 160 may be used as the input unit 170.
入力部170は、観察したい位置や深さの情報などを入力できるように構成されていてもよい。入力方法としては、数値を入力してもよいし、スライダーバーを操作することにより入力ができてもよい。また、入力された情報に応じて表示部160に表示される画像が更新されていってもよい。これにより、ユーザーは自身の操作によって決定されたパラメータにより生成された画像を確認しながら、適切なパラメータに設定できる。 The input unit 170 may be configured to be able to input information on a position or depth to be observed. As an input method, numerical values may be input, or input may be performed by operating a slider bar. Further, the image displayed on the display unit 160 may be updated according to the input information. Thereby, the user can set to an appropriate parameter while confirming the image generated by the parameter determined by his / her operation.
また、ユーザーが光音響装置の遠隔に設けられた入力部170を操作し、入力部170を用いて入力された情報を、ネットワークを介して光音響装置に送信してもよい。 Moreover, the user may operate the input unit 170 provided remotely from the photoacoustic apparatus, and information input using the input unit 170 may be transmitted to the photoacoustic apparatus via a network.
なお、光音響装置の各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、光音響装置の少なくとも一部の構成が一体となった1つの装置として構成されてもよい。 In addition, each structure of a photoacoustic apparatus may be comprised as a respectively different apparatus, and may be comprised as one apparatus united. Moreover, you may comprise as one apparatus with which at least one part structure of the photoacoustic apparatus was united.
また、光音響装置の各構成間で送受信される情報は、有線または無線でやりとりがなされる。 Information transmitted and received between the components of the photoacoustic apparatus is exchanged by wire or wirelessly.
(被検体100)
被検体100は光音響装置を構成するものではないが、以下に説明する。本実施形態に係る光音響装置は、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指および足指を含む四肢などの診断の対象部位が想定される。例えば、人体が測定対象であれば、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管や腫瘍の近傍に形成される新生血管などを光吸収体の対象としてもよい。また、頸動脈壁のプラークなどを光吸収体の対象としてもよい。また、皮膚等に含まれるメラニン、コラーゲン、脂質などを光吸収体の対象としてもよい。また、メチレンブルー(MB)、インドシニアングリーン(ICG)などの色素、金微粒子、またはそれらを集積あるいは化学的に修飾した外部から導入した物質を光吸収体としてもよい。また、生体を模したファントムを被検体100としてもよい。
(Subject 100)
The subject 100 does not constitute a photoacoustic apparatus, but will be described below. The photoacoustic apparatus according to the present embodiment can be used for the purpose of diagnosing malignant tumors, vascular diseases, etc. of humans and animals, and monitoring the progress of chemical treatment. Therefore, the subject 100 is assumed to be a target site for diagnosis such as a living body, specifically breasts of human bodies or animals, each organ, blood vessel network, head, neck, abdomen, extremities including fingers and toes. The For example, if the human body is an object to be measured, oxyhemoglobin or deoxyhemoglobin, a blood vessel containing many of them, a new blood vessel formed in the vicinity of a tumor, or the like may be used as a light absorber. Further, a plaque of the carotid artery wall or the like may be a target of the light absorber. In addition, melanin, collagen, lipid, and the like contained in the skin or the like may be targeted for the light absorber. In addition, a dye such as methylene blue (MB) or indocyanine green (ICG), gold fine particles, or a substance introduced from the outside, which is accumulated or chemically modified, may be used as the light absorber. A phantom that simulates a living body may be used as the subject 100.
次に、本実施形態に係る情報処理を含む画像表示方法を、図8を参照して説明する。なお、各工程は、コンピュータ150が光音響装置の構成の動作を制御することにより実行される。 Next, an image display method including information processing according to the present embodiment will be described with reference to FIG. Each step is executed by the computer 150 controlling the operation of the configuration of the photoacoustic apparatus.
(S100:制御パラメータを設定する工程)
ユーザーが、被検体情報の取得のために必要な光照射部110の照射条件(繰り返し周波数や波長など)やプローブ180の位置などの制御パラメータを、入力部170を用いて指定する。コンピュータ150は、ユーザーの指示に基づいて決定された制御パラメータを設定する。
(S100: Step of setting control parameters)
The user designates control parameters such as the irradiation condition (repetition frequency, wavelength, etc.) of the light irradiation unit 110 and the position of the probe 180 necessary for acquiring the subject information using the input unit 170. The computer 150 sets control parameters determined based on user instructions.
(S200:プローブを指定位置に移動させる工程)
制御部153が、ステップS100で指定された制御パラメータに基づいて、駆動部130にプローブ180を指定の位置へ移動させる。ステップS100において複数位置での撮像が指定された場合には、駆動部130は、まずプローブ180を最初の指定位置へ移動させる。なお、駆動部130は、測定の開始指示がなされたときに、あらかじめプログラムされた位置にプローブ180を移動させてもよい。なお、ハンドヘルド型の場合、ユーザーがプローブ180を把持して所望の位置まで移動させてもよい。
(S200: Step of moving the probe to the designated position)
The control unit 153 causes the drive unit 130 to move the probe 180 to a specified position based on the control parameter specified in step S100. When imaging at a plurality of positions is designated in step S100, the drive unit 130 first moves the probe 180 to the first designated position. Note that the driving unit 130 may move the probe 180 to a preprogrammed position when an instruction to start measurement is given. In the case of the handheld type, the user may hold the probe 180 and move it to a desired position.
(S300:光を照射する工程)
光照射部110は、S100で指定された制御パラメータに基づいて、被検体100に光を照射する。
(S300: Step of irradiating light)
The light irradiation unit 110 irradiates the subject 100 with light based on the control parameter specified in S100.
光源111から発生した光は、光学系112を介してパルス光として被検体100に照射される。そして、被検体100内部でパルス光が吸収され、光音響効果により光音響波が生じる。光照射部110はパルス光の伝送と併せて信号収集部140へ同期信号を送信する。 Light generated from the light source 111 is irradiated to the subject 100 as pulsed light through the optical system 112. Then, the pulsed light is absorbed inside the subject 100, and a photoacoustic wave is generated by the photoacoustic effect. The light irradiation unit 110 transmits a synchronization signal to the signal collection unit 140 together with the transmission of the pulsed light.
(S400:光音響波を受信する工程)
信号収集部140は、光照射部110から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された、音響波に由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を記憶部152に保存する。ステップS100で複数の走査位置での撮像を指定した場合には、指定した走査位置において、S200−S400のステップを繰り返し実行し、パルス光の照射と音響波に由来するデジタル信号の生成を繰り返す。なお、コンピュータ150は、発光をトリガーとして、発光時の受信部120の位置情報を駆動部130の位置センサからの出力に基づいて取得し、記憶してもよい。
(S400: Step of receiving photoacoustic wave)
When the signal collection unit 140 receives the synchronization signal transmitted from the light irradiation unit 110, the signal collection unit 140 starts a signal collection operation. That is, the signal collection unit 140 generates an amplified digital electric signal by amplifying and AD converting the analog electric signal derived from the acoustic wave output from the receiving unit 120 and outputs the amplified digital electric signal to the computer 150. The computer 150 stores the signal transmitted from the signal collection unit 140 in the storage unit 152. When imaging at a plurality of scanning positions is designated in step S100, the steps S200 to S400 are repeatedly executed at the designated scanning positions, and the generation of digital signals derived from irradiation with pulsed light and acoustic waves is repeated. The computer 150 may acquire and store the position information of the receiving unit 120 at the time of light emission based on the output from the position sensor of the driving unit 130 using light emission as a trigger.
(S500:光音響画像データを生成する工程)
画像データ生成手段としてのコンピュータ150の演算部151は、記憶部152に記憶された信号データに基づいて、光音響画像データを生成し、記憶部152に保存する。
(S500: Step of generating photoacoustic image data)
The computing unit 151 of the computer 150 serving as image data generating means generates photoacoustic image data based on the signal data stored in the storage unit 152 and stores it in the storage unit 152.
信号データを空間分布としてのボリュームデータに変換する再構成アルゴリズムとしては、タイムドメインでの逆投影法やフーリエドメインでの逆投影法などの解析的な再構成法やモデルベース法(繰り返し演算法)を採用することができる。例えば、タイムドメインでの逆投影法として、Universal back−projection(UBP)、Filtered back−projection(FBP)、または整相加算(Delay−and−Sum)などが挙げられる。 Reconstruction algorithms for converting signal data into volume data as a spatial distribution include analytical reconstruction methods such as back projection in the time domain and back projection in the Fourier domain, and model-based methods (repetitive computation). Can be adopted. For example, as a back projection method in the time domain, Universal back-projection (UBP), Filtered back-projection (FBP), or delay-and-sum (Delay-and-Sum) can be cited.
また、演算部151は、被検体100に照射された光の被検体100の内部での光フルエンス分布を計算し、初期音圧分布を光フルエンス分布で除算することにより、吸収係数分布情報を取得してもよい。この場合、吸収係数分布情報を光音響画像データとして取得してもよい。コンピュータ150は、光を吸収、散乱する媒質における光エネルギーの挙動を示す輸送方程式や拡散方程式を数値的に解く方法により、被検体100の内部における光フルエンスの空間分布を算出することができる。数値的に解く方法としては、有限要素法、差分法、モンテカルロ法等を採用することができる。例えば、コンピュータ150は、式(1)に示す光拡散方程式を解くことにより、被検体100の内部における光フルエンスの空間分布を算出してもよい。 In addition, the calculation unit 151 obtains absorption coefficient distribution information by calculating a light fluence distribution inside the subject 100 of light irradiated on the subject 100 and dividing the initial sound pressure distribution by the light fluence distribution. May be. In this case, absorption coefficient distribution information may be acquired as photoacoustic image data. The computer 150 can calculate the spatial distribution of the light fluence inside the subject 100 by a method of numerically solving a transport equation and a diffusion equation indicating the behavior of light energy in a medium that absorbs and scatters light. As a numerical solution method, a finite element method, a difference method, a Monte Carlo method, or the like can be employed. For example, the computer 150 may calculate the spatial distribution of the light fluence inside the subject 100 by solving the light diffusion equation shown in Expression (1).
ここで、Dは拡散係数、μaは吸収係数、Sは照射光の入射強度、φは到達する光フルエンス、rは位置、tは時間を示す。 Here, D is the diffusion coefficient, μa is the absorption coefficient, S is the incident intensity of the irradiated light, φ is the reaching fluence, r is the position, and t is the time.
また、複数の波長の光を用いて、S300、S400の工程を実行し、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報を取得してもよい。そして、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報に基づいて、分光情報として被検体100を構成する物質の濃度の空間分布情報を、光音響画像データとして取得してもよい。すなわち、演算部151は、複数の波長の光に対応する信号データを用いて、分光情報を取得してもよい。 Moreover, the process of S300 and S400 may be performed using light of a plurality of wavelengths, and the calculation unit 151 may acquire absorption coefficient distribution information corresponding to each of the lights of a plurality of wavelengths. Then, the calculation unit 151 acquires, as photoacoustic image data, spatial distribution information of the concentration of the substance constituting the subject 100 as spectroscopic information based on the absorption coefficient distribution information corresponding to each of a plurality of wavelengths of light. May be. That is, the calculation unit 151 may acquire spectral information using signal data corresponding to light having a plurality of wavelengths.
(S600:光音響画像データに基づいた画像を生成・表示する工程)
表示制御手段としてのコンピュータ150は、S500で得られた光音響画像データに基づいて画像を生成し、表示部160に表示させる。画像データの画像値は、そのまま表示画像の輝度値としてもよい。また、画像データの画像値に所定の処理を加えて、表示画像の輝度を決定してもよい。例えば、画像値が正値の場合は画像値を輝度に割り当てとし、画像値が負値の場合は輝度を0とする表示画像を生成してもよい。
(S600: Step of generating / displaying an image based on photoacoustic image data)
The computer 150 as display control means generates an image based on the photoacoustic image data obtained in S500 and causes the display unit 160 to display the image. The image value of the image data may be used as the brightness value of the display image as it is. Further, the luminance of the display image may be determined by applying a predetermined process to the image value of the image data. For example, a display image in which the image value is assigned to the luminance when the image value is positive and the luminance is 0 when the image value is negative may be generated.
次に、S500における本発明の特徴的な画像生成方法を、図9に示す画像生成方法のフローチャートを用いて説明する。 Next, the characteristic image generation method of the present invention in S500 will be described using the flowchart of the image generation method shown in FIG.
(S510:受信信号に対して時間微分信号及び反転処理を行う工程)
信号処理手段としてのコンピュータ150は、記憶部152に記憶された受信信号に対して、時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う。これらの信号処理が行われた受信信号を投影信号とも呼ぶ。本工程では、記憶部152に記憶された各受信信号に対して、これらの信号処理を実行する。その結果、複数回の光照射及び複数のトランスデューサ121のそれぞれに対応する投影信号が生成される。
(S510: Step of performing time differential signal and inversion processing on received signal)
The computer 150 as signal processing means performs signal processing including time differentiation processing and inversion processing that inverts the sign of the signal level on the received signal stored in the storage unit 152. A reception signal subjected to these signal processings is also called a projection signal. In this step, these signal processes are executed for each received signal stored in the storage unit 152. As a result, a plurality of light irradiations and projection signals corresponding to the plurality of transducers 121 are generated.
例えば、コンピュータ150は、式(2)に示すように、受信信号p(r,t)に対して時間微分処理及び反転処理(時間微分信号にマイナスを付与)を行い、投影信号b(r,t)を生成し、投影信号b(r,t)を記憶部152に記憶する。 For example, the computer 150 performs time differentiation processing and inversion processing (adding a minus to the time differentiation signal) on the received signal p (r, t), as shown in Expression (2), and the projection signal b (r, t t) and the projection signal b (r, t) is stored in the storage unit 152.
ここで、rは受信位置、tは光照射からの経過時間、p(r,t)は受信位置rで経過時間tに受信された音響波の音圧を示す受信信号、b(r,t)は投影信号である。なお、時間微分処理及び反転処理に加えてその他の信号処理を行ってもよい。例えば、その他の信号処理は、周波数フィルタリング(ローパス、ハイパス、バンドパス等)、デコンボリューション、包絡線検波、ウェーブレットフィルタリングの少なくとも一つである。 Here, r is a receiving position, t is an elapsed time from light irradiation, p (r, t) is a received signal indicating a sound pressure of an acoustic wave received at the receiving position r at an elapsed time t, and b (r, t ) Is a projection signal. In addition to time differentiation processing and inversion processing, other signal processing may be performed. For example, the other signal processing is at least one of frequency filtering (low pass, high pass, band pass, etc.), deconvolution, envelope detection, and wavelet filtering.
なお、本工程で反転処理については実行しなくてもよい。この場合、後述するS540での負成分強調処理を正成分強調処理に置き換えることで本実施形態の効果は損なわれない。 Note that the reversal process may not be executed in this step. In this case, the effect of this embodiment is not impaired by substituting the negative component enhancement processing in S540 described later with the positive component enhancement processing.
(S520:信号処理後の受信信号に基づいて画像データを生成する工程)
画像データ生成手段としてのコンピュータ150は、S510で生成された複数回の光照射及び複数のトランスデューサ121のそれぞれに対応する受信信号(投影信号)に基づいて、複数の光音響画像データを生成する。複数の光音響画像データを生成できる限り、光照射毎に光音響画像データを生成してもよいし、複数回の光照射に由来する投影信号から1つの光音響画像データを生成してもよい。
(S520: Step of generating image data based on the received signal after the signal processing)
The computer 150 as image data generation means generates a plurality of photoacoustic image data based on a plurality of light irradiations generated in S510 and reception signals (projection signals) corresponding to the plurality of transducers 121, respectively. As long as a plurality of photoacoustic image data can be generated, the photoacoustic image data may be generated for each light irradiation, or one photoacoustic image data may be generated from a projection signal derived from a plurality of times of light irradiation. .
例えば、コンピュータ150は、式(3)に示すように、投影信号b(ri,t)に基づいて、光照射毎の初期音圧p0の空間分布を示す画像データを生成する。その結果、複数回の光照射のそれぞれに対応する画像データが生成され、複数の画像データを取得することができる。 For example, the computer 150 generates image data indicating the spatial distribution of the initial sound pressure p 0 for each light irradiation, based on the projection signal b (r i , t) as shown in Expression (3). As a result, image data corresponding to each of a plurality of times of light irradiation is generated, and a plurality of image data can be acquired.
ここで、r0は再構成する位置(再構成位置、注目位置とも呼ぶ)を示す位置ベクトル、p0(r0)は再構成する位置での初期音圧、cは伝搬経路の音速を示す。また、ΔΩiは再構成する位置からi番目のトランスデューサ121を見込む立体角、Nは再構成に用いるトランスデューサ121の個数を示す。式(3)は、投影信号に立体角の加重をかけて整相加算すること(逆投影)を示している。 Here, r 0 is a position vector indicating a position to be reconstructed (also referred to as a reconstructed position or a target position), p 0 (r 0 ) is the initial sound pressure at the position to be reconstructed, and c is the sound velocity of the propagation path. . Further, ΔΩ i is a solid angle at which the i-th transducer 121 is viewed from the position to be reconstructed, and N is the number of transducers 121 used for reconstruction. Equation (3) indicates that the projection signal is subjected to phasing addition by applying a solid angle weight (back projection).
なお、本実施形態では、前述したように解析的な再構成法やモデルベース再構成法により、画像データを生成することができる。特に、解析的な再構成法を採用する場合に、本発明を好適に適用することができる。解析的な再構成法においては、Limited Viewの条件で音響波を受信した場合、音源を正確に再現できないため、ターゲット以外の領域が負値で再構成される場合がある。 In the present embodiment, as described above, image data can be generated by an analytical reconstruction method or a model-based reconstruction method. In particular, the present invention can be suitably applied when an analytical reconstruction method is employed. In the analytical reconstruction method, when an acoustic wave is received under the conditions of the limited view, the sound source cannot be accurately reproduced, and the region other than the target may be reconstructed with a negative value.
(S530:複数の画像データに対して負成分強調処理を行う工程)
重み付け手段としてのコンピュータ150は、S520で取得された複数の画像データの負値に対する重みを正値に対する重みよりも大きくする負成分強調処理(重み付け処理)を行う。
(S530: Step of performing negative component enhancement processing on a plurality of image data)
The computer 150 as the weighting means performs a negative component enhancement process (weighting process) that makes the weight for the negative values of the plurality of image data acquired in S520 larger than the weight for the positive values.
ここで、S520で4つの画像データが生成され、ターゲット以外の領域のある位置における各画像データの画像値がD1、−D2、D3、−D4である場合を考える。 Here, consider a case where four image data are generated in S520, and the image values of each image data at a position where there is a region other than the target are D1, -D2, D3, and -D4.
例えば、コンピュータ150は、正値であるD1及びD3に対して、1の重みを乗算し、負値である−D2及び−D4に対して、1より大きい重みを乗算する重み付け処理を行うことにより負成分を強調してもよい。なお、D1及びD3には何も処理を行わないことにより、1の重みを乗算する重み付け処理を行ったとみなしてもよい。 For example, the computer 150 performs weighting processing by multiplying positive values D1 and D3 by a weight of 1, and negative values -D2 and -D4 by a weight greater than 1. Negative components may be emphasized. Note that D1 and D3 may be regarded as having been subjected to a weighting process of multiplying a weight of 1 by performing no process.
また、コンピュータ150は、正値であるD1及びD3に対して、1より小さい重みを乗算し、負値である−D2及び−D4に対して、1より大きい重みを乗算する重み付け処理を行うことにより負成分を強調してもよい。 In addition, the computer 150 performs weighting processing of multiplying positive values D1 and D3 by weights smaller than 1, and negative values -D2 and -D4 by weights greater than 1. Thus, the negative component may be emphasized.
この他、複数の画像データの負値に対する重みを正値に対する重みよりも大きくする限り、いかなる重みを適用した重み付け処理を行ってもよい。 In addition, as long as the weights for the negative values of the plurality of image data are made larger than the weights for the positive values, any weighting process may be applied.
本工程の重み付け処理を適用する画像データは、1回の光照射により得られた画像データであってもよいし、2回以上の光照射により得られたデータ(信号データまたは画像データ)に基づいた画像データであってもよい。 The image data to which the weighting process in this step is applied may be image data obtained by one light irradiation, or based on data (signal data or image data) obtained by two or more light irradiations. It may be image data.
コンピュータ150は、予め記憶部152に格納された正値及び負値の少なくとも一方の重みに関する情報を読み出し、当該情報に基づいて重みを設定してもよい。また、ユーザーが入力部170を用いて正値及び負値の少なくとも一方の重みに関する情報を指示し、コンピュータ150が入力部170から受け取った重みに関する情報に基づいて重みを設定してもよい。 The computer 150 may read information on the weight of at least one of a positive value and a negative value stored in the storage unit 152 in advance, and set the weight based on the information. Alternatively, the user may use the input unit 170 to instruct information regarding at least one of the positive value and the negative value, and the computer 150 may set the weight based on the information regarding the weight received from the input unit 170.
また、コンピュータ150は、画像データの位置毎に重みを設定してもよい。すなわち、コンピュータ150は、画像データを複数の領域に分割し、分割された領域毎に独立して重みを設定してもよい。 The computer 150 may set a weight for each position of the image data. That is, the computer 150 may divide the image data into a plurality of areas and set the weights independently for each of the divided areas.
また、コンピュータ150は、画像データの画像値に応じて重みを変更してもよい。例えば、コンピュータ150は、画像データの負値の大きさ(絶対値)が大きくなるにつれて、負値の重みを小さくしてもよい。また、コンピュータ150は、画像データの負値の大きさ(絶対値)が閾値よりも大きい場合の重みを、画像データの負値の大きさ(絶対値)が閾値よりも小さい場合の重みより小さくしてもよい。このような重みの制御を行うことにより、負成分の強調度合いを調整することができる。特に負成分を強調しすぎることにより、ターゲットの画像値が相殺されてしまうことを抑制することができる。 The computer 150 may change the weight according to the image value of the image data. For example, the computer 150 may decrease the weight of the negative value as the magnitude (absolute value) of the negative value of the image data increases. Further, the computer 150 makes the weight when the negative value size (absolute value) of the image data is larger than the threshold value smaller than the weight when the negative value size (absolute value) of the image data is smaller than the threshold value. May be. By performing such weight control, the enhancement degree of the negative component can be adjusted. In particular, it is possible to prevent the target image value from being canceled by overemphasizing the negative component.
また、コンピュータ150は、光照射毎または2つ以上の光照射からなるグループ毎に重みを変更してもよい。 The computer 150 may change the weight for each light irradiation or for each group of two or more light irradiations.
(S540:負成分強調処理が行われた複数の画像データを合成する工程)
合成手段としてのコンピュータ150は、S530で取得された負成分強調処理が行われた複数の画像データを合成することにより、新たな画像データ(第1の画像データに相当)を生成し、記憶部152に記憶する。コンピュータ150は、複数の画像データを単純加算や加算平均する加算処理により合成してもよい。
(S540: Step of synthesizing a plurality of image data subjected to negative component enhancement processing)
The computer 150 as the synthesis unit generates new image data (corresponding to the first image data) by synthesizing the plurality of pieces of image data on which the negative component enhancement processing acquired in S530 is performed, and the storage unit Store in 152. The computer 150 may synthesize a plurality of image data by simple addition or addition processing for averaging.
ターゲットの領域の画像データは正値が支配的であるのに対し、ターゲット以外の領域の画像データは負値を含むため、S530の負成分強調処理ではターゲット以外の領域の画像データの負値が優位に強調される。そのため、S540の合成処理により、ターゲット以外の領域では、アーティファクトの原因となる画像データの正値を、強調された負値で相殺することができる。一方、ターゲットの領域では、画像データは正値が支配的であるため、負成分強調処理の影響が限定的である。このように本実施形態に係る画像生成方法によれば、ターゲット領域とそれ以外の領域との画像コントラストが高くなる。 While the image data in the target area has a dominant positive value, the image data in the area other than the target includes a negative value. Therefore, in the negative component enhancement processing in S530, the negative value of the image data in the area other than the target is It is emphasized by superiority. For this reason, in the region other than the target, the positive value of the image data that causes the artifact can be canceled with the emphasized negative value by the combining process in S540. On the other hand, in the target area, since the positive value is dominant in the image data, the influence of the negative component enhancement processing is limited. As described above, according to the image generation method according to the present embodiment, the image contrast between the target area and the other areas is increased.
負成分強調の結果得られた画像データに基づいた画像は、単独で表示してもよいし、負成分強調を施さずに得られた画像データに基づいた画像と並べて表示してもよい。なお、並べて表示する場合に、各画像の表示色を異ならせてもよい。また、並べて表示する場合には、負成分強調の有無の区別ができるよう、文字や記号でラベルをつける、もしくは表示ウインドウの形状、大きさを異ならせるような表示としてもよい。 The image based on the image data obtained as a result of the negative component enhancement may be displayed alone or may be displayed side by side with the image based on the image data obtained without performing the negative component enhancement. Note that when displaying the images side by side, the display colors of the images may be different. In the case of displaying side by side, a label may be provided with characters or symbols, or the display window may have a different shape and size so that the presence or absence of negative component emphasis can be distinguished.
また、負成分強調の結果得られた画像データに基づいた画像と、負成分強調を施さずに得られた画像データに基づいた画像を重畳表示してもよい。その際、各画像の色を異ならせて表示してもよい。すなわち、一方の画像の彩度をもう一方の画像の彩度よりも低くすることにより、表示色を区別してもよい。また、互いに異なる色相で複数の画像を表示することにより、表示色を区別してもよい。例えば、一方の画像をグレースケール(無彩色)で表示し、もう一方の画像をカラー(有彩色)で表示してもよい。また、画像間で差分のある領域をカラーで表示させてもよい。 Further, an image based on the image data obtained as a result of the negative component enhancement and an image based on the image data obtained without performing the negative component enhancement may be superimposed and displayed. At this time, the images may be displayed with different colors. That is, display colors may be distinguished by making the saturation of one image lower than the saturation of the other image. In addition, display colors may be distinguished by displaying a plurality of images with different hues. For example, one image may be displayed in gray scale (achromatic color) and the other image may be displayed in color (chromatic color). Further, an area having a difference between images may be displayed in color.
また、負成分強調の結果得られた画像データに基づいた画像と、負成分強調を施さずに得られた画像データに基づいた画像とを、同じ表示位置で切り替えて表示してもよい。 Further, an image based on image data obtained as a result of negative component enhancement and an image based on image data obtained without performing negative component enhancement may be switched and displayed at the same display position.
なお、負成分強調の結果得られた画像データに基づいた画像と、負成分強調を施さずに得られた画像データに基づいた画像とを区別できる限り、並列、重畳、切り換えに限らず、いかなる表示態様であってもよい。 As long as it is possible to distinguish between an image based on image data obtained as a result of negative component enhancement and an image based on image data obtained without performing negative component enhancement, it is not limited to parallel, superimposition, and switching. It may be a display mode.
また、所定の重みまたはユーザーの指示に基づいて設定された重みで負成分強調が行われたときの第1の画像が表示されているときに、ユーザーからの新たな指示に基づいて新たな重みが設定されてもよい。この場合、第1の画像から、新たな重みが適用された第2の画像に表示画像を更新してもよい。また、第1の画像と第2の画像とを並列または重畳して表示させてもよい。 Further, when the first image when the negative component enhancement is performed with the predetermined weight or the weight set based on the user's instruction is displayed, the new weight is based on the new instruction from the user. May be set. In this case, the display image may be updated from the first image to the second image to which the new weight is applied. Further, the first image and the second image may be displayed in parallel or superimposed.
なお、異なる重みが適用された画像を、重みの大きさ順(昇順または降順)に並列、重畳、または切り換えで表示させてもよい。 Note that images to which different weights are applied may be displayed in parallel, superimposed, or switched in order of weights (ascending or descending).
なお、本実施形態では、光音響波の受信信号に対して時間微分処理を行った後に、信号レベルの正負の反転処理を行う例を説明したが、反転処理を行わなくてもよい。反転処理を行わない場合、負成分強調処理の代わりに、複数の画像データの正値の重みを負値の重みよりも大きくする正成分強調処理(重み付け処理)を行えばよい。負成分強調処理の代わりに正成分強調処理を行う場合も、前述した負成分強調処理で負成分を強調する手法と同様の手法で正成分を強調させることができる。 In this embodiment, the example in which the signal level positive / negative inversion processing is performed after the time differentiation processing is performed on the photoacoustic wave reception signal has been described, but the inversion processing may not be performed. When the inversion process is not performed, instead of the negative component enhancement process, a positive component enhancement process (weighting process) for making the positive value weights of the plurality of image data larger than the negative value weights may be performed. Even when the positive component emphasis process is performed instead of the negative component emphasis process, the positive component can be emphasized by the same method as the method of emphasizing the negative component by the negative component emphasis process described above.
[第2の実施形態]
本実施形態は、互いに異なる複数の重みを適用して得られた画像データに基づいて、最適な重みを決定する点で第1の実施形態とは異なる。第2の実施形態においても、第1の実施形態で説明した光音響装置と同様の装置を用いる。既に説明した構成には同じ符号を付し、詳細な説明は省略する。
[Second Embodiment]
This embodiment is different from the first embodiment in that an optimum weight is determined based on image data obtained by applying a plurality of different weights. In the second embodiment, the same apparatus as the photoacoustic apparatus described in the first embodiment is used. The components already described are denoted by the same reference numerals, and detailed description thereof is omitted.
図10は、図4に示すモデルを用いたシミュレーションにより作成された受信信号に対して、互いに異なる複数の重みをそれぞれ適用して得られた画像データのコントラストの変動の例を示す。図10に示すグラフは、図4に示す投影領域1020のMIP画像中の血管1011とその周囲の領域とのコントラストの変動を表す。ここで、コントラストは、血管1011の画像値の平均値と血管1011の周囲の画像値の平均値との差であると定義した。また、重みとしては、光照射毎の画像データの正値の重みを1とし、画像データの負値の重みを変化させたものを採用した。すなわち、図10に示すグラフの横軸は、画像データの負値に対する重みを表す。 FIG. 10 shows an example of contrast fluctuation of image data obtained by applying a plurality of different weights to the received signal created by the simulation using the model shown in FIG. The graph shown in FIG. 10 represents the contrast fluctuation between the blood vessel 1011 in the MIP image of the projection area 1020 shown in FIG. 4 and the surrounding area. Here, the contrast is defined as the difference between the average value of the image values of the blood vessel 1011 and the average value of the image values around the blood vessel 1011. As the weight, a positive value weight of the image data for each light irradiation is set to 1, and a negative value weight of the image data is changed. That is, the horizontal axis of the graph shown in FIG. 10 represents the weight for the negative value of the image data.
図10に示すように、重みを変更したときにコントラストが極大点を持つ場合がある。これは、負成分強調処理によるアーティファクトの抑制効果が、ターゲットの画像値(正値)を相殺してしまう効果よりも優位である場合とそうではない場合とが存在するからである。そこで、コンピュータ150は、互いに異なる複数の重みを適用して複数の画像データを生成し、それぞれの画像データのコントラストを算出する。そして、コンピュータ150は、コントラストが最大となった画像データに適用した重みを重みの最適値として決定してもよい。また、コンピュータ150は、複数の画像データのうち、コントラストが最大となった画像データを最適な画像データとして決定し、表示させてもよい。また、コンピュータ150は、重みを引数として最適化問題を解くことにより、コントラストが最適となる重み、すなわち最適化された画像データを決定してもよい。 As shown in FIG. 10, the contrast may have a maximum point when the weight is changed. This is because there are cases where the artifact suppression effect by the negative component enhancement processing is superior to the effect of canceling the target image value (positive value) and when it is not. Therefore, the computer 150 generates a plurality of image data by applying a plurality of different weights, and calculates the contrast of each image data. Then, the computer 150 may determine the weight applied to the image data having the maximum contrast as the optimum weight value. Further, the computer 150 may determine and display the image data having the maximum contrast among the plurality of image data as the optimum image data. Further, the computer 150 may determine the weight that optimizes the contrast, that is, the optimized image data, by solving the optimization problem using the weight as an argument.
また、コンピュータ150は、画像データ内の各位置で重みの最適値を求めてもよい。すなわち、コンピュータ150は、画像データを複数の領域に分割し、分割された各領域で最適な重み(最適な画像データ)を決定してもよい。また、コンピュータ150は、光照射毎または2つ以上の光照射からなるグループ毎に最適な重みを求めてもよい。 Further, the computer 150 may obtain the optimum value of the weight at each position in the image data. That is, the computer 150 may divide the image data into a plurality of areas and determine an optimum weight (optimum image data) in each divided area. In addition, the computer 150 may obtain an optimum weight for each light irradiation or for each group including two or more light irradiations.
本実施形態に係る画像生成方法によれば、最適な重みが不明な場合であっても、適応的に最適な重み、または、最適な重みを適用した画像データを決定することができる。 According to the image generation method according to the present embodiment, even when the optimum weight is unknown, the optimum weight or the image data to which the optimum weight is applied can be determined adaptively.
[第3の実施形態]
本実施形態では、重み付け手段としてのコンピュータ150が、第1または第2の実施形態に示す方法で取得された複数の画像データに対して、負値の画像値に対して重み付け係数Mで重み付け処理を行う場合の画像生成方法を説明する。本実施形態は、重み付け処理の前に、同一の領域における画像値の負値を累積加算したデータを生成、保存し、累積加算された負値の画像値を重み付け処理に用いる点が、第1または第2の実施形態と異なる。以下、本実施形態の内容について具体的に説明する。
[Third Embodiment]
In the present embodiment, the computer 150 serving as a weighting unit weights a plurality of pieces of image data acquired by the method described in the first or second embodiment with a weighting coefficient M for negative image values. An image generation method when performing the above will be described. The first embodiment is that, prior to the weighting process, data obtained by accumulatively adding negative values of image values in the same region is generated and stored, and the negatively-added negative image values are used for the weighting process. Or, it is different from the second embodiment. Hereinafter, the contents of the present embodiment will be specifically described.
まず、演算部151は、複数の画像データを参照し、ある領域の画像値の変動を調べる際に、画像値の負値を判別し、すべての負の画像値の累積値Dnを示す情報を生成し、記憶部152に保存する。また、演算部151は、複数の画像データを参照した場合に、ある領域に関する有効な画像値が存在する数、言い換えると、ある領域に関する画像値の加算回数Nを示す情報を生成し、記憶部152に保存する。 First, the calculation unit 151 refers to a plurality of image data, determines the negative value of the image value when examining the fluctuation of the image value in a certain area, and displays information indicating the accumulated value Dn of all the negative image values. Generated and stored in the storage unit 152. Further, when referring to a plurality of image data, the calculation unit 151 generates information indicating the number of effective image values related to a certain region, in other words, information indicating the number N of additions of image values related to a certain region, and the storage unit Save to 152.
次に、演算部151は、全ての光照射で得られた複数の画像データのある領域における画像値の平均値Daを示す情報を生成し、記憶部152に保存する。図11は、光照射を10回行って10個の画像データを得た場合における、ある領域に該当する画素値の変動をプロットしたものである。ここでは、光照射の1回目におけるある領域の画素値はP1、光照射の2回目におけるある領域の画素値はP2、といった具合に、画像値が光照射毎に変動することが示されている。この場合、ある領域に関する有効な画像値が存在する数、言い換えると、ある領域に関する画像値の加算回数Nは10である。また、負の画像値の累積値は、Dn=P3+P5+P6+P8+P10となる。また、画像値の平均値Daは、Da=(P1+P2+・・+P10)/N=(P1+P2+・・+P10)/10となる。このように、予め負の画像値の累積値Dn、加算回数N、平均値Daを示す情報を生成しておくことにより、これらの情報を利用して、負値を任意の重み付け係数で重み付けする負成分強調処理を行うことができる。以下、負成分の重み付け係数をMとする場合の演算方法を説明する。なお、負成分の重み付け係数をMとする場合の負成分部強調処理を、M倍負成分強調と呼ぶことにする。演算部151は、記憶部152から負の画像値の累積値Dn、加算回数N、平均値Daを読み出し、M倍負成分強調時の画像値Dm={Da*N+(M―1)*Dn}/Nを算出する。M倍負成分強調時の画像値Dmは、重み付けされた画像データに相当する。このように予め算出された情報を利用してM倍負成分強調処理を行うことにより、複数の画像データを全て記憶しておく必要がないため、処理に必要なデータを保存しておくメモリ容量を低減することができる。 Next, the calculation unit 151 generates information indicating an average value Da of image values in a certain region of a plurality of image data obtained by all light irradiation, and stores the information in the storage unit 152. FIG. 11 is a plot of changes in pixel values corresponding to a certain area when 10 pieces of image data are obtained by performing light irradiation 10 times. Here, it is shown that the pixel value of a certain region in the first light irradiation is P1, the pixel value of a certain region in the second light irradiation is P2, and the like, and the image value varies with each light irradiation. . In this case, the number of effective image values related to a certain area, in other words, the number N of additions of image values related to a certain area is 10. Further, the cumulative value of the negative image values is Dn = P3 + P5 + P6 + P8 + P10. The average value Da of the image values is Da = (P1 + P2 +... + P10) / N = (P1 + P2 +. + P10) / 10. In this way, by generating information indicating the cumulative value Dn of negative image values, the number N of additions, and the average value Da in advance, the negative values are weighted by an arbitrary weighting coefficient using these pieces of information. Negative component enhancement processing can be performed. Hereinafter, a calculation method when the negative component weighting coefficient is M will be described. Note that the negative component portion enhancement processing when the negative component weighting coefficient is M is referred to as M-fold negative component enhancement. The calculation unit 151 reads out the cumulative value Dn of negative image values, the number of additions N, and the average value Da from the storage unit 152, and the image value Dm = {Da * N + (M−1) * Dn at the time of M-fold negative component enhancement. } / N is calculated. The image value Dm when the M-fold negative component is emphasized corresponds to weighted image data. By performing the M-fold negative component enhancement processing using information calculated in advance in this way, it is not necessary to store all of a plurality of image data, so a memory capacity for storing data necessary for processing Can be reduced.
また、撮像を行った際に、一旦負の画像値の累積値Dn、加算回数N、平均値Daの情報を生成しておけば、再度撮像を行って複数の画像データを再取得する必要なしに、M倍負成分強調の処理を行うことができ、余計な撮像の手間が省略できる。 Further, once information about the cumulative value Dn of negative image values, the number N of additions, and the average value Da is generated when imaging is performed, it is not necessary to perform imaging again to re-acquire a plurality of image data. In addition, the process of emphasizing the M-fold negative component can be performed, and an extra imaging effort can be omitted.
ここまで、累積値Dnについては、負の画像値の累積値と定義してきたが、正の画像値の累積値としてもよい。その場合においても、Da*N−(正の画像値の累積値)によって、負の画像値の累積値Dnを求めることができるため、M倍負成分強調の処理を行うことができる。すなわち、正の画像値の累積値、加算回数N、平均値Daを用いて負成分強調を行うことは、負の画像値の累積値Dn、加算回数N、平均値Daを用いて負成分強調を行うことと実質的に等価である。 Up to this point, the cumulative value Dn has been defined as a cumulative value of negative image values, but may be a cumulative value of positive image values. Even in such a case, the accumulated value Dn of negative image values can be obtained by Da * N- (accumulated value of positive image values), and therefore M-fold negative component enhancement processing can be performed. That is, performing negative component enhancement using the cumulative value of positive image values, the number of additions N, and the average value Da means that negative component enhancement is performed using the cumulative value Dn of negative image values, the number of additions N, and the average value Da. Is substantially equivalent to
以上、本実施形態に係る画像生成方法によれば、予め算出した画像値の累積値を示す情報を利用することにより、少ないデータ量で任意の重み係数による負成分強調処理を行うことができる。 As described above, according to the image generation method according to the present embodiment, it is possible to perform negative component enhancement processing using an arbitrary weighting coefficient with a small amount of data by using information indicating a cumulative value of image values calculated in advance.
なお、信号処理として正負反転処理を行わない場合、本実施形態の説明における負値と正値とを入れ替えることにより、アーティファクト成分を抑制した画像データを生成することができる。すなわち、M倍負成分強調処理と同様に、正成分の重み付け係数をMとする場合のM倍正成分強調処理を行うことができる。 In the case where the positive / negative inversion processing is not performed as the signal processing, the image data in which the artifact component is suppressed can be generated by switching the negative value and the positive value in the description of the present embodiment. That is, similarly to the M-fold negative component enhancement processing, M-fold positive component enhancement processing can be performed when the positive component weighting coefficient is M.
[第4の実施形態]
本実施形態においては、表示制御手段としてのコンピュータ150が行う負成分強調画像の表示の態様について述べる。図12に、負成分強調画像を表示するビューワー300の例を示す。ビューワー300においては、画像表示領域310と、負成分強調のパラメータ設定領域320、さらには、画像特性情報表示領域330が存在する。
[Fourth Embodiment]
In the present embodiment, a display mode of a negative component emphasized image performed by the computer 150 as a display control unit will be described. FIG. 12 shows an example of the viewer 300 that displays a negative component emphasized image. In the viewer 300, there are an image display area 310, a negative component emphasis parameter setting area 320, and an image characteristic information display area 330.
画像表示領域310においては、光音響画像を表示する。表示の態様については、一次元画像、二次元画像、三次元画像、動画など、診断にとって適当なものであれば、特定の態様に限定されない。さらに、画像処理手法も特定のものに限定されず、ボリュームレンダリング、サーフェスレンダリング、MIP(MAXIMUM INTENSITY PROJECTION)など、いかなる手法で生成された画像も表示可能なものとする。また、本実施形態においては、光音響画像をXY断面画像311、XZ断面画像312、YZ断面画像313に分割して、画像表示領域310に3断面表示している。また、ユーザーが任意の平面を選択して表示することも可能である。 In the image display area 310, a photoacoustic image is displayed. The display mode is not limited to a specific mode as long as it is suitable for diagnosis, such as a one-dimensional image, a two-dimensional image, a three-dimensional image, and a moving image. Furthermore, the image processing method is not limited to a specific one, and an image generated by any method such as volume rendering, surface rendering, MIP (MAXIMUM INTERNITY PROJECTION) can be displayed. In the present embodiment, the photoacoustic image is divided into an XY cross-sectional image 311, an XZ cross-sectional image 312, and a YZ cross-sectional image 313, and three cross-sections are displayed in the image display area 310. It is also possible for the user to select and display an arbitrary plane.
パラメータ設定領域320においては、負成分強調処理を行う場合に必要なパラメータを設定する。例えば、図12に示すように、パラメータ設定省域320においては、負成分強調処理のON/OFF、負値増幅率、画像値に加算するオフセット値をユーザーが入力できる。入力可能なパラメータは、負成分強調処理に関するパラメータであればいかなるものであってもよい。入力の態様は必ずしも図12に示したものに限られない。負値増幅率、画像値に加算するオフセット値を数値で入力するかわりに、スライダーやダイヤルで入力値を指定できるようにしてもよく、特定の様式に限定されない。また、パラメータ値は、入力部170より、ユーザーが操作可能なマウスやキーボードなどで構成される操作コンソールから行われてもよい。また、パラメータ値は、入力部170の操作コンソールに設けられた、ユーザーが接触して調整可能なスライダーやダイヤルなどによって行われてもよい。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。 In the parameter setting area 320, parameters necessary for performing negative component enhancement processing are set. For example, as shown in FIG. 12, in the parameter setting area 320, the user can input ON / OFF of the negative component enhancement processing, the negative gain, and the offset value to be added to the image value. The parameters that can be input may be any parameters that are related to the negative component enhancement processing. The input mode is not necessarily limited to that shown in FIG. Instead of inputting the negative value amplification factor and the offset value to be added to the image value as numerical values, the input value may be designated with a slider or dial, and is not limited to a specific format. In addition, the parameter value may be performed from the input unit 170 from an operation console including a mouse and a keyboard that can be operated by the user. The parameter value may be provided by a slider or dial that is provided on the operation console of the input unit 170 and that can be adjusted by contact with the user. The display unit 160 may be configured with a touch panel, and the display unit 160 may be used as the input unit 170.
画像特性情報表示領域330においては、生体の深さ方向に関する画像値の特性情報を表示する。光音響画像においては、生体組織における光の拡散や減衰の影響により、照射位置から生体深部になるほど照射される光の強度が低下するため、生体深部の血管等の画像値が低下する傾向がある。そこで、生体の深さ方向の画像値の変動特性を画像特性情報表示領域330に表示し、ユーザーが任意に画像値の補正をできるようにしてもよい。これにより、視認性の向上した光音響画像を表示できるようになる。 In the image characteristic information display area 330, the characteristic information of the image value regarding the depth direction of the living body is displayed. In photoacoustic images, the intensity of light emitted decreases from the irradiation position to the deep part of the living body due to the influence of diffusion and attenuation of light in the living tissue, so that the image values of blood vessels and the like in the deep part of the living body tend to decrease. . Therefore, the variation characteristic of the image value in the depth direction of the living body may be displayed in the image characteristic information display area 330 so that the user can arbitrarily correct the image value. Thereby, a photoacoustic image with improved visibility can be displayed.
例えば、ユーザーが被検体画像350に関して、XY断面画像311上で、生体の深さ方向の画像値の変動特性を確認したい領域334−1(以下、「特性確認領域」と記載)を指定する。特性確認領域334−1が指定されると、XZ断面画像312、YZ断面画像313にも、特性確認領域334−1に対応する領域334−2、334−3が表示される。なお、ユーザーがXZ断面画像312における指定領域334−2、もしくはYZ断面画像313における指定領域334−3の範囲を調整することで、深さ方向、すなわちZ方向においてユーザーが確認したい領域が指定されてもよい。ユーザーが数値で指定できるようにしてもよい。 For example, with respect to the subject image 350, the user designates an area 334-1 (hereinafter referred to as “characteristic confirmation area”) on the XY cross-sectional image 311 where the fluctuation characteristic of the image value in the depth direction of the living body is to be confirmed. When the characteristic confirmation area 334-1 is designated, areas 334-2 and 334-3 corresponding to the characteristic confirmation area 334-1 are also displayed in the XZ cross-sectional image 312 and the YZ cross-sectional image 313. The user adjusts the range of the designated area 334-2 in the XZ cross-sectional image 312 or the designated area 334-3 in the YZ cross-sectional image 313, thereby specifying the area that the user wants to check in the depth direction, that is, the Z direction. May be. The user may be able to specify numerical values.
ユーザー指定領域334は、一つである必要はなく、複数設定できるようにしてもよい。 The user designation area 334 need not be one, and a plurality of user designation areas 334 may be set.
複数設定した場合は、複数領域の画像値の特性情報を重畳して画像特性情報表示領域330に表示してもよいし、ユーザーが選択した領域の特性情報のみを画像特性情報表示領域330に表示してもよい。 When a plurality of settings are set, the characteristic information of the image values of the plurality of areas may be superimposed and displayed on the image characteristic information display area 330, or only the characteristic information on the area selected by the user may be displayed on the image characteristic information display area 330. May be.
一旦ユーザーが特性確認領域334を設定すると、本発明の光音響装置が被検体画像350の表面のZ座標値であるZ1から、Z方向の画像値の変動特性331を表示する。変動特性の算出手法は特定のものに限定されず、生体のZ方向の画像値の変動特性が把握できる指標を用いればよい。例えば、あるZ座標値におけるXY平面において、特性確認領域334に含まれる領域の画像データの最大値を用いてもよい。そして、ユーザーが指定した減衰補正カーブ332、もしくは被検体画像350の表面の輝度値レベル333に合わせるように画像の輝度値を補正することができる。なお、線分335は被検体画像350の表面のZ座標値を示す。パラメータ設定領域320において、減衰係数補正をON/OFFするかを選択することにより、当該減衰補正の実行の有無を設定してもよい。また、パラメータ設定領域320において、ユーザーが指定した減衰補正カーブ332、もしくは被検体350の表面の輝度値レベル333のいずれに合わせて補正を行うかを選択することができる。 Once the user sets the characteristic confirmation region 334, the photoacoustic apparatus of the present invention displays the fluctuation characteristic 331 of the image value in the Z direction from Z1, which is the Z coordinate value of the surface of the subject image 350. The calculation method of the fluctuation characteristic is not limited to a specific one, and an index that can grasp the fluctuation characteristic of the image value in the Z direction of the living body may be used. For example, the maximum value of the image data of the area included in the characteristic confirmation area 334 may be used on the XY plane at a certain Z coordinate value. Then, the luminance value of the image can be corrected to match the attenuation correction curve 332 specified by the user or the luminance value level 333 of the surface of the subject image 350. A line segment 335 indicates the Z coordinate value of the surface of the subject image 350. In the parameter setting area 320, whether or not to execute the attenuation correction may be set by selecting whether or not the attenuation coefficient correction is turned ON / OFF. In the parameter setting area 320, it is possible to select whether the correction is performed according to the attenuation correction curve 332 specified by the user or the luminance value level 333 of the surface of the subject 350.
負成分強調画像の表示態様においては、必ずしも画像表示領域310、負成分強調のパラメータ設定領域320、画像特性情報表示領域330のみを表示しなければならないというわけではない。従来の超音波診断装置、光音響診断装置のビューワにおいて表示されるいかなる項目も併せて表示できるものとし、かつ、ユーザーが表示したい項目を任意に選択して表示できるようにしてもよい。 In the display mode of the negative component emphasized image, it is not always necessary to display only the image display area 310, the negative component emphasized parameter setting area 320, and the image characteristic information display area 330. Any item displayed on the viewer of the conventional ultrasonic diagnostic apparatus and photoacoustic diagnostic apparatus can be displayed together, and the item that the user wants to display can be arbitrarily selected and displayed.
また、負成分強調画像の表示態様においては、必ずしも画像表示領域310、負成分強調のパラメータ設定領域320、特性情報表示領域330の全てを表示しなければならないというわけではない。ユーザーが任意に表示したい領域を選択して表示できるようにしてもよい。すなわち、画像表示領域310、負成分強調のパラメータ設定領域320、画像特性情報表示領域330の少なくとも一つを表示してもよい。 Further, in the display mode of the negative component emphasized image, it is not always necessary to display all of the image display area 310, the negative component emphasized parameter setting area 320, and the characteristic information display area 330. The user may arbitrarily select and display an area to be displayed. That is, at least one of the image display area 310, the negative component emphasis parameter setting area 320, and the image characteristic information display area 330 may be displayed.
なお、本発明の第4の実施形態において説明を行ったビューワにおいては、本発明の第1、第2の実施形態にて説明を行った態様にて画像表示を行ってもよい。また、図12に示したビューワに表示される領域や項目のレイアウト、ビューワに表示されている文言や字体などは、必ずしも図12に示したものに限定されない。 Note that in the viewer described in the fourth embodiment of the present invention, image display may be performed in the manner described in the first and second embodiments of the present invention. Further, the areas and item layouts displayed in the viewer shown in FIG. 12, the wordings and fonts displayed in the viewer are not necessarily limited to those shown in FIG.
このように、本実施形態に係る画像生成方法によれば、ユーザーの所望する処理パラメータで負成分強調が行うことができる。 Thus, according to the image generation method according to the present embodiment, it is possible to perform negative component enhancement with a processing parameter desired by the user.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
150 コンピュータ
160 表示部
150 Computer 160 Display unit
Claims (20)
前記複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う信号処理手段と、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成する画像データ生成手段と、
前記複数の画像データの負値の重みを正値の重みよりも大きくする重み付け処理を行う重み付け処理手段と、
前記重み付け処理が行われた前記複数の画像データを合成することにより、第1の画像データを生成する合成手段と、
を有することを特徴とする画像生成装置。 An image for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A generating device,
Signal processing means for performing signal processing including time differentiation processing and inversion processing for inverting the sign of the signal level for each of the plurality of received signals;
Image data generating means for generating a plurality of image data based on the plurality of received signals subjected to the signal processing;
Weighting processing means for performing weighting processing for making negative weights of the plurality of image data larger than positive weights;
Synthesizing means for generating first image data by synthesizing the plurality of image data subjected to the weighting processing;
An image generation apparatus comprising:
前記複数の受信信号のそれぞれに対して時間微分処理を含む信号処理を行う信号処理手段と、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成する画像データ生成手段と、
前記複数の画像データの正値の重みを負値の重みよりも大きくする重み付け処理を行う重み付け処理手段と、
前記重み付け処理が行われた前記複数の画像データを合成することにより、第1の画像データを生成する合成手段と、
を有することを特徴とする画像生成装置。 An image for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A generating device,
Signal processing means for performing signal processing including time differentiation on each of the plurality of received signals;
Image data generating means for generating a plurality of image data based on the plurality of received signals subjected to the signal processing;
Weighting processing means for performing weighting processing for making positive weights of the plurality of image data larger than negative weights;
Synthesizing means for generating first image data by synthesizing the plurality of image data subjected to the weighting processing;
An image generation apparatus comprising:
ことを特徴とする請求項1に記載の画像生成装置。 The image generation apparatus according to claim 1, wherein the weighting processing unit changes the weight of the negative value according to the magnitude of the negative value.
ことを特徴とする請求項3に記載の画像生成装置。 The image generating apparatus according to claim 3, wherein the weighting processing unit reduces the weight of the negative value as the magnitude of the negative value increases.
ことを特徴とする請求項2に記載の画像生成装置。 The image generating apparatus according to claim 2, wherein the weighting processing unit changes the weight of the positive value of the plurality of image data in accordance with the size of the positive value.
ことを特徴とする請求項5に記載の画像生成装置。 The image generating apparatus according to claim 5, wherein the weighting processing unit decreases the weight of the positive value as the size of the positive value increases.
ことを特徴とする請求項1から6のいずれか1項に記載の画像生成装置。 The weighting processing means determines at least one weight of the positive value and the negative value based on a user instruction, and performs the weighting processing according to the weight. The image generating apparatus according to claim 1.
前記重み付け処理手段は、前記第1の画像が前記表示手段に表示されている間のユーザーの指示に基づいて、前記正値及び前記負値の少なくとも一方の重みを決定し、当該重みにしたがって前記重み付け処理を行い、
前記合成手段は、ユーザーの指示に基づいて決定された前記重みにしたがって前記重み付け処理が行われた前記複数の画像データを合成することにより、第2の画像データを生成し、
前記表示制御手段は、前記表示手段に表示される画像を、前記第1の画像から前記第2の画像データに基づいた第2の画像に更新する
ことを特徴とする請求項7に記載の画像生成装置。 Display control means for causing the display means to display a first image based on the first image data;
The weighting processing unit determines a weight of at least one of the positive value and the negative value based on a user instruction while the first image is displayed on the display unit, and the weighting processing unit determines the weight according to the weight. Perform weighting,
The synthesizing unit generates second image data by synthesizing the plurality of image data subjected to the weighting process according to the weight determined based on a user instruction,
The image according to claim 7, wherein the display control unit updates the image displayed on the display unit from the first image to a second image based on the second image data. Generator.
前記重み付け処理手段は、前記第1の画像が前記表示手段に表示されている間のユーザーの指示に基づいて、前記正値及び前記負値の少なくとも一方の重みを決定し、当該重みにしたがって前記重み付け処理を行い、
前記合成手段は、ユーザーの指示に基づいて決定された前記重みにしたがって前記重み付け処理が行われた前記複数の画像データを合成することにより、第2の画像データを生成し、
前記表示制御手段は、前記第1の画像と、前記第2の画像データに基づいた第2の画像とを並列または重畳して前記表示手段に表示させる
ことを特徴とする請求項7に記載の画像生成装置。 Display control means for causing the display means to display a first image based on the first image data;
The weighting processing unit determines a weight of at least one of the positive value and the negative value based on a user instruction while the first image is displayed on the display unit, and the weighting processing unit determines the weight according to the weight. Perform weighting,
The synthesizing unit generates second image data by synthesizing the plurality of image data subjected to the weighting process according to the weight determined based on a user instruction,
8. The display control unit according to claim 7, wherein the display control unit causes the display unit to display the first image and a second image based on the second image data in parallel or superimposed. Image generation device.
前記複数の画像データの複数の位置のそれぞれに対して互いに異なる重みを設定し、当該重みにしたがって前記複数の画像データに対する前記重み付け処理を行う
ことを特徴とする請求項1から9のいずれか1項に記載の画像生成装置。 The weighting processing means includes
The weights different from each other are set for each of a plurality of positions of the plurality of image data, and the weighting process is performed on the plurality of image data according to the weights. The image generation apparatus according to item.
ことを特徴とする請求項1から10のいずれか1項に記載の画像生成装置。 11. The image generation apparatus according to claim 1, wherein the weighting processing unit performs the weighting processing to increase a weight of at least one of the positive value and the negative value to be greater than 1. 11.
前記複数回の光照射により発生した前記光音響波を受信することにより、前記複数の受信信号を出力する受信部と、
を有する
ことを特徴とする請求項1から11のいずれか1項に記載の画像生成装置。 A light irradiation means for irradiating the subject with the light multiple times;
By receiving the photoacoustic wave generated by the multiple times of light irradiation, a receiving unit that outputs the plurality of received signals;
The image generating apparatus according to claim 1, wherein the image generating apparatus includes:
ことを特徴とする請求項12に記載の画像生成装置。 The image generating apparatus according to claim 12, further comprising a moving unit configured to move the receiving unit so that the position of the receiving unit with respect to the subject is changed by each of the plurality of times of light irradiation.
ことを特徴とする請求項1から13のいずれか1項に記載の画像生成装置。 The said image data production | generation means produces | generates the said several image data comprised from the image data corresponding to each of these said multiple times of light irradiation, The one of Claim 1 to 13 characterized by the above-mentioned. Image generation device.
前記複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う信号処理手段と、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成する画像データ生成手段と、
前記複数の画像データの加算回数を示す情報、前記複数の画像データの正値または負値の累積値を示す情報、および前記複数の画像データの画像値の平均値を示す情報生成し、
前記加算回数を示す情報、前記累積値を示す情報、および前記平均値を示す情報を用いて、重み付けされた画像データを生成する重み付け手段と、
ことを特徴とする画像生成装置。 An image for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A generating device,
Signal processing means for performing signal processing including time differentiation processing and inversion processing for inverting the sign of the signal level for each of the plurality of received signals;
Image data generating means for generating a plurality of image data based on the plurality of received signals subjected to the signal processing;
Generating information indicating the number of additions of the plurality of image data, information indicating a cumulative positive or negative value of the plurality of image data, and information indicating an average value of the image values of the plurality of image data;
Weighting means for generating weighted image data using information indicating the number of additions, information indicating the cumulative value, and information indicating the average value;
An image generation apparatus characterized by that.
ことを特徴とする請求項15に記載の画像生成装置。 In the case where the number of additions is N, the cumulative value is Dn, the average value is Da, the weighting coefficient is M, and the weighted image data is the image value Dm, the weighting means is Dm = {Da * N + ( 16. The image generation apparatus according to claim 15, wherein the weighted image data is generated according to M-1) * Dn} / N.
前記複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行い、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成し、
前記複数の画像データの負値の重みを正値の重みよりも大きくする重み付け処理を行い、
前記重み付け処理が行われた前記複数の画像データを合成することにより、第1の画像データを生成する
ことを特徴とする画像生成方法。 Information for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A processing method,
Perform signal processing including time differentiation processing and inversion processing to invert the signal level for each of the plurality of received signals,
Based on the plurality of received signals subjected to the signal processing, generate a plurality of image data,
Performing a weighting process for making negative weights of the plurality of image data larger than positive weights,
An image generation method, wherein the first image data is generated by combining the plurality of image data subjected to the weighting process.
前記複数の受信信号のそれぞれに対して時間微分処理を含む信号処理を行い、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成し、
前記複数の画像データの正値の重みを負値の重みよりも大きくする重み付け処理を行い、
前記重み付け処理が行われた前記複数の画像データを合成することにより、第1の画像データを生成する
ことを特徴とする画像生成方法。 Information for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A processing method,
Perform signal processing including time differentiation processing for each of the plurality of received signals,
Based on the plurality of received signals subjected to the signal processing, generate a plurality of image data,
Performing a weighting process for making the positive weight of the plurality of image data larger than the negative weight;
An image generation method, wherein the first image data is generated by combining the plurality of image data subjected to the weighting process.
前記複数の受信信号のそれぞれに対して時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行い、
前記信号処理が行われた前記複数の受信信号に基づいて、複数の画像データを生成し、
前記複数の画像データの加算回数を示す情報、前記複数の画像データの正値または負値の累積値を示す情報、および前記複数の画像データの画像値の平均値を示す情報を生成し、
前記加算回数を示す情報、前記累積値を示す情報、および前記平均値を示す情報を用いて、重み付けされた画像データを生成する
ことを特徴とする画像生成方法。 Information for generating image data based on a plurality of reception signals corresponding to the plurality of times of light irradiation obtained by receiving photoacoustic waves generated from the subject by a plurality of times of light irradiation on the subject. A processing method,
Perform signal processing including time differentiation processing and inversion processing to invert the signal level for each of the plurality of received signals,
Based on the plurality of received signals subjected to the signal processing, generate a plurality of image data,
Generating information indicating the number of additions of the plurality of image data, information indicating a cumulative positive value or negative value of the plurality of image data, and information indicating an average value of the image values of the plurality of image data;
A weighted image data is generated using information indicating the number of additions, information indicating the cumulative value, and information indicating the average value.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017039656 | 2017-03-02 | ||
| JP2017039656 | 2017-03-02 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018143764A true JP2018143764A (en) | 2018-09-20 |
Family
ID=63588501
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018037685A Pending JP2018143764A (en) | 2017-03-02 | 2018-03-02 | Image generation device, image generation method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018143764A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020082934A1 (en) * | 2018-10-25 | 2020-04-30 | 南京大学 | Photoacoustic image reconstruction method for inhibiting artifact |
-
2018
- 2018-03-02 JP JP2018037685A patent/JP2018143764A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020082934A1 (en) * | 2018-10-25 | 2020-04-30 | 南京大学 | Photoacoustic image reconstruction method for inhibiting artifact |
| US11763500B2 (en) | 2018-10-25 | 2023-09-19 | Nanjing University | Photoacoustic image reconstruction method for suppressing artifacts |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6576424B2 (en) | Display control apparatus, image display method, and program | |
| US20180344262A1 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
| JP6742745B2 (en) | Information acquisition device and display method | |
| EP3329843B1 (en) | Display control apparatus, display control method, and program | |
| JP2018061716A (en) | Information processing apparatus, information processing method, and program | |
| JP2019024733A (en) | Image processing apparatus, image processing method, and program | |
| US10607366B2 (en) | Information processing apparatus, information processing method, and non-transitory storage medium | |
| JP2019000387A (en) | Information processing apparatus, information processing method, and program | |
| JP6921782B2 (en) | Display control device, image display method, and program | |
| US20200275840A1 (en) | Information-processing apparatus, method of processing information, and medium | |
| JP6882108B2 (en) | Image generator, image generation method, and program | |
| JP2018143764A (en) | Image generation device, image generation method and program | |
| JP2019118686A (en) | Information processor, information processing method and program | |
| JP7118718B2 (en) | SUBJECT INFORMATION ACQUISITION APPARATUS, SUBJECT INFORMATION PROGRAM, AND PROGRAM | |
| JP6929204B2 (en) | Information processing equipment, information processing methods, and programs | |
| JP7314371B2 (en) | SUBJECT INFORMATION ACQUISITION APPARATUS, SUBJECT INFORMATION PROGRAM, AND PROGRAM | |
| US20200305727A1 (en) | Image processing device, image processing method, and program | |
| US11526982B2 (en) | Image processing device, image processing method, and program | |
| JP2019097804A (en) | Information processing device, information processing method, and program | |
| JP6929048B2 (en) | Display control device, display method, and program | |
| JP2020110362A (en) | Information processing device, information processing method, and program |