[go: up one dir, main page]

JP2020062215A - Medical image browsing device, medical image processing device and medical image diagnostic device - Google Patents

Medical image browsing device, medical image processing device and medical image diagnostic device Download PDF

Info

Publication number
JP2020062215A
JP2020062215A JP2018195988A JP2018195988A JP2020062215A JP 2020062215 A JP2020062215 A JP 2020062215A JP 2018195988 A JP2018195988 A JP 2018195988A JP 2018195988 A JP2018195988 A JP 2018195988A JP 2020062215 A JP2020062215 A JP 2020062215A
Authority
JP
Japan
Prior art keywords
display
image
display image
medical image
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018195988A
Other languages
Japanese (ja)
Other versions
JP7154098B2 (en
Inventor
昂彦 西岡
Takahiko Nishioka
昂彦 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018195988A priority Critical patent/JP7154098B2/en
Publication of JP2020062215A publication Critical patent/JP2020062215A/en
Application granted granted Critical
Publication of JP7154098B2 publication Critical patent/JP7154098B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

【課題】診断や治療といった医用画像の本来の目的を損ねることなく、医用画像から個人を判別し特定されることを防止する。【解決手段】一実施形態に係る医用画像閲覧装置は、ディスプレイと、生成部と、判定部と、処理部とを備える。生成部は、被検体が撮像された医療用の画像データから、前記ディスプレイに表示するための表示画像を、ユーザ指示に応じて生成する。判定部は、前記表示画像の表示状態が前記ユーザ指示に応じて変更される毎に、前記表示画像から前記被検体の個人を特定できるか否かを判定する。処理部は、前記表示画像から個人が特定できると判定された場合に、前記表示画像から個人が特定できないようにする匿名化処理を、前記表示画像の表示状態が変更される毎にリアルタイムで行い、前記匿名化処理後の前記表示画像を前記ディスプレイに表示させる。【選択図】 図2PROBLEM TO BE SOLVED: To prevent an individual from being identified and identified from a medical image without impairing the original purpose of the medical image such as diagnosis and treatment. A medical image viewing device according to an embodiment includes a display, a generation unit, a determination unit, and a processing unit. The generation unit generates a display image to be displayed on the display from the medical image data in which the subject is imaged according to the user's instruction. The determination unit determines whether or not the individual of the subject can be identified from the display image each time the display state of the display image is changed according to the user instruction. When it is determined that an individual can be identified from the displayed image, the processing unit performs anonymization processing for preventing the individual from being identified from the displayed image in real time each time the display state of the displayed image is changed. , The display image after the anonymization process is displayed on the display. [Selection diagram] Fig. 2

Description

本発明の実施形態は、医用画像閲覧装置、医用画像処理装置、及び、医用画像診断装置に関する。   Embodiments of the present invention relate to a medical image browsing apparatus, a medical image processing apparatus, and a medical image diagnostic apparatus.

X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、或いは超音波診断装置等のモダリティで被検体を撮像して生成された画像データは、例えば、PACS(Picture Archiving and Communication Systems)と呼ばれる医用画像管理システムに送られ、PACS内の画像サーバに保存される。   Image data generated by imaging a subject with a modality such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is, for example, PACS (Picture Archiving and Communication Systems). It is sent to a so-called medical image management system and stored in the image server in PACS.

PACS内の画像サーバに保存された画像データは、医用画像閲覧装置(所謂、画像ビューワ)を介して、撮像を依頼した担当医や、読影医など病院関係者によって読み出される。医用画像閲覧装置では、読み出された画像データに対して、ユーザ(担当医や読影医など)の指示に基づく画像処理が行われる。ここでの画像処理とは、例えば、3次元の画像データを所望の方向に回転させてボリュームレンダリング画像を生成したり、MIP(Maximum Intensity Projection)画像を生成したりする処理や、3次元の画像データを所望のスライス断面で切り出す処理(所謂、MPR法:Multi Planer Reconstruction)等を含む。これらの画像処理によって生成された画像は、医用画像閲覧装置が具備するディスプレイに表示され、担当医による診断や、読影医による読影に供され、患者の診断や治療に用いられることになる。   The image data stored in the image server in the PACS is read by a doctor in charge of imaging or a person involved in hospital such as an image interpretation doctor via a medical image browsing device (so-called image viewer). The medical image browsing apparatus performs image processing on the read image data based on an instruction from a user (a doctor in charge or an image interpreting doctor). The image processing here is, for example, processing of rotating three-dimensional image data in a desired direction to generate a volume rendering image, generation of a MIP (Maximum Intensity Projection) image, or three-dimensional image. It includes a process of cutting out data in a desired slice section (so-called MPR method: Multi Planer Reconstruction) and the like. The images generated by these image processes are displayed on the display provided in the medical image browsing apparatus, and are used for diagnosis by a medical doctor in charge and interpretation by an image interpretation doctor and used for diagnosis and treatment of patients.

一方、各種モダリティで取得された画像データは、患者の診断や治療に用いられる他、病院内での研究、大学の医学部や病院等を含む各種医療研究機関での研究に用いられたり、医学関連の学会発表に用いられたりすることも多い。また、医学部の学生の教材として用いられることもある。   On the other hand, image data acquired by various modalities are used for diagnosis and treatment of patients, research in hospitals, research in various medical research institutes including university medical departments and hospitals, and medical-related It is often used for academic conference presentations. It may also be used as a teaching material for medical students.

このように、モダリティで撮像された被検体(例えば、患者)の画像データは、潜在的には、多数の観察者に提供される可能性を有している。   As described above, the image data of the subject (for example, patient) imaged by the modality potentially has a possibility of being provided to a large number of observers.

他方、今日のX線CT装置やMRI装置等のモダリティの高精細化技術の進歩は著しいものがある。この結果、例えば、X線CT装置で取得した頭部の3次元画像から、撮像対象の個人を容易に特定することが可能となってきている。このため、患者の氏名や住所といった個人情報、即ち、テキスト情報としての個人情報を秘匿化する技術だけでは不十分であり、医用画像自体からも、個人を特定できなくする技術が求められてきている。   On the other hand, there is a remarkable progress in high-definition technology for modalities such as X-ray CT apparatuses and MRI apparatuses today. As a result, for example, it has become possible to easily specify an individual to be imaged from a three-dimensional image of the head acquired by the X-ray CT apparatus. For this reason, the technology of concealing personal information such as the patient's name and address, that is, the personal information as text information is not sufficient, and there is a demand for technology that makes it impossible to identify an individual from the medical image itself. There is.

例えば、3次元画像データから被検体の体表面を検出し、画像データのうち、体表面から所定の厚みの部分の画素値をマスク処理やモザイク処理等で加工することにより、即ち、3次元画像データ自体を予め加工することにより、ボリュームレンダリング等の3次元画像処理によって3次元画像を生成した場合でも、生成した3次元画像から個人を判別することを困難とする技術が提案されている。   For example, by detecting the body surface of the subject from the three-dimensional image data and processing the pixel value of the portion of the image data having a predetermined thickness from the body surface by masking or mosaic processing, that is, the three-dimensional image. A technique has been proposed in which it is difficult to discriminate an individual from the generated three-dimensional image even when the three-dimensional image is generated by three-dimensional image processing such as volume rendering by processing the data itself in advance.

しかしながら、医用画像データの本来の目的は、被検体を診断し、治療を支援することである。したがって、個人の判別を困難化するために顔の表面から所定の厚み部分の画素値をマスク処理やモザイク処理等で加工してしまうと、眼、鼻、耳、口、といった顔の部分や頭部の診断や治療に大きな支障をきたすことなる。   However, the original purpose of medical image data is to diagnose a subject and support treatment. Therefore, if the pixel value of a predetermined thickness part from the surface of the face is processed by mask processing or mosaic processing in order to make it difficult to identify an individual, face parts such as eyes, nose, ears, mouth, and the head, and the head. The diagnosis and treatment of the department will be seriously hindered.

特開2013−138800号公報JP, 2013-138800, A

本発明が解決しようとする課題は、診断や治療といった医用画像の本来の目的を損ねることなく、医用画像から個人を判別し特定されることを防止することである。   The problem to be solved by the present invention is to prevent an individual from being discriminated and specified from a medical image without impairing the original purpose of the medical image such as diagnosis and treatment.

実施形態に係る医用画像閲覧装置は、ディスプレイと、生成部と、判定部と、処理部とを備える。生成部は、被検体が撮像された医療用の画像データから、前記ディスプレイに表示するための表示画像を、ユーザ指示に応じて生成する。判定部は、前記表示画像の表示状態が前記ユーザ指示に応じて変更される毎に、前記表示画像から前記被検体の個人を特定できるか否かを判定する。処理部は、前記表示画像から個人が特定できると判定された場合に、前記表示画像から個人が特定できないようにする匿名化処理を、前記表示画像の表示状態が変更される毎にリアルタイムで行い、前記匿名化処理後の前記表示画像を前記ディスプレイに表示させる。   The medical image browsing device according to the embodiment includes a display, a generation unit, a determination unit, and a processing unit. The generation unit generates a display image to be displayed on the display from medical image data obtained by imaging the subject according to a user instruction. The determination unit determines whether or not the individual of the subject can be identified from the display image every time the display state of the display image is changed in response to the user instruction. When it is determined that the individual can be identified from the display image, the processing unit performs anonymization processing that prevents the individual from being identified from the display image in real time every time the display state of the display image is changed. The display image after the anonymization process is displayed on the display.

第1の実施形態に係る医用画像閲覧装置を含む医用画像処理システムの構成例を示す図。FIG. 1 is a diagram showing a configuration example of a medical image processing system including a medical image browsing device according to a first embodiment. 第1の実施形態に係る医用画像閲覧装置の構成例を示すブロック図。The block diagram which shows the structural example of the medical image browsing apparatus which concerns on 1st Embodiment. 第1の実施形態の医用画像閲覧装置の動作例を示すフローチャート。3 is a flowchart showing an operation example of the medical image browsing apparatus according to the first embodiment. 画像データを取得し、表示画像を生成するまでの処理の概念を説明する図。The figure explaining the concept of the process until image data is acquired and a display image is produced | generated. 判定処理の概念を説明するための判定テーブルを例示する図。The figure which illustrates the determination table for demonstrating the concept of determination processing. 判定処理及び匿名化処理の第1の具体例を説明する図。The figure explaining the 1st example of determination processing and anonymization processing. 判定処理及び匿名化処理の第2の具体例を説明する図。The figure explaining the 2nd example of determination processing and anonymization processing. 判定処理及び匿名化処理の第3の具体例を説明する図。The figure explaining the 3rd example of determination processing and anonymization processing. 判定処理及び匿名化処理の第4の具体例を説明する図。The figure explaining the 4th example of determination processing and anonymization processing. 判定処理及び匿名化処理の第5の具体例を説明する図。The figure explaining the 5th example of determination processing and anonymization processing. 判定処理及び匿名化処理の第6の具体例を説明する図。The figure explaining the 6th example of determination processing and anonymization processing. 第2の実施形態の医用画像閲覧装置の動作例を示すフローチャート。The flowchart which shows the operation example of the medical image browsing apparatus of 2nd Embodiment. 第3の実施形態の医用画像閲覧装置の動作例を示すフローチャート。The flowchart which shows the operation example of the medical image browsing apparatus of 3rd Embodiment. 他の実施形態に係る医用画像処理装置の構成例を示すブロック図。The block diagram which shows the structural example of the medical image processing apparatus which concerns on other embodiment. 他の実施形態に係る医用画像診断装置の構成例を示すブロック図。The block diagram which shows the structural example of the medical image diagnostic apparatus which concerns on other embodiment.

実施形態に係る医用画像閲覧装置、医用画像処理装置、及び、医用画像診断装置について、添付図面を参照して説明する。図1は、実施形態に係る医用画像閲覧装置100、医用画像診断装置510、及び、医用画像処理装置530を含む、医用画像処理システムの一構成例を示す図である。医用画像処理システムは、例えば、病院内において、医用画像を取得し、画像処理し、保存し、閲覧等をする、医用画像に関する一連の処理システムである。   A medical image browsing apparatus, a medical image processing apparatus, and a medical image diagnostic apparatus according to embodiments will be described with reference to the accompanying drawings. FIG. 1 is a diagram showing a configuration example of a medical image processing system including a medical image browsing apparatus 100, a medical image diagnostic apparatus 510, and a medical image processing apparatus 530 according to an embodiment. The medical image processing system is, for example, a series of processing systems related to medical images that acquire, image-process, store, and browse medical images in a hospital.

医用画像診断装置510は、患者等の被検体を撮像し、撮像によって収集したデータに対して再構成等の処理を施して医用画像を生成する装置である。医用画像診断装置510は、モダリティ510とも呼ばれ、X線CT装置511、MRI装置512、超音波診断装置513などを含む。   The medical image diagnostic apparatus 510 is an apparatus that images a subject such as a patient and performs processing such as reconstruction on the data collected by the imaging to generate a medical image. The medical image diagnostic apparatus 510 is also called a modality 510 and includes an X-ray CT apparatus 511, an MRI apparatus 512, an ultrasonic diagnostic apparatus 513, and the like.

画像サーバ520は、医用画像診断装置510で取得し、生成した医用画像や画像データを保存する装置である。医用画像処理装置530は、画像サーバ520から読み出した医用画像や画像データに対して、或いは、医用画像診断装置510から取得した医用画像や画像データに対して画像処理を行い、処理後の医用画像を画像サーバ520に保存する装置である。   The image server 520 is a device that stores the medical images and image data acquired and generated by the medical image diagnostic apparatus 510. The medical image processing apparatus 530 performs image processing on the medical image or image data read from the image server 520 or the medical image or image data acquired from the medical image diagnostic apparatus 510, and the processed medical image. Is stored in the image server 520.

医用画像閲覧装置100は、画像サーバ520から読み出した医用画像や画像データに対して、或いは、医用画像診断装置510から取得した医用画像や画像データに対して画像処理を行って、医用画像閲覧装置100が具備するディスプレイ装置に表示するための表示画像を生成し、ディスプレイ装置に表示させる装置である。   The medical image browsing apparatus 100 performs image processing on the medical image or image data read from the image server 520 or the medical image or image data acquired from the medical image diagnostic apparatus 510 to obtain the medical image browsing apparatus. It is a device that generates a display image to be displayed on a display device included in 100 and causes the display device to display it.

医用画像診断装置510、画像サーバ500、医用画像処理装置530、及び、医用画像閲覧装置100は、各種のデータや医用画像を授受できるように、例えば病院内のネットワーク500を介して互いに接続されている。   The medical image diagnostic apparatus 510, the image server 500, the medical image processing apparatus 530, and the medical image browsing apparatus 100 are connected to each other, for example, via a network 500 in a hospital so that various data and medical images can be exchanged. There is.

実施形態に係る医用画像閲覧装置100、医用画像処理装置530、及び、医用画像診断装置510のうち、以下では、先ず、医用画像閲覧装置100を取り上げて、その構成及び動作について説明する。その後、医用画像処理装置530及び医用画像診断装置510について簡単に説明する。   Of the medical image browsing apparatus 100, the medical image processing apparatus 530, and the medical image diagnostic apparatus 510 according to the embodiment, first, the medical image browsing apparatus 100 will be taken up and the configuration and operation thereof will be described below. After that, the medical image processing apparatus 530 and the medical image diagnostic apparatus 510 will be briefly described.

(第1の実施形態の構成)
図2は、第1の実施形態に係る医用画像閲覧装置100の構成例を示すブロック図である。医用画像閲覧装置100は、例えば、通信インターフェース回路10、記録媒体インターフェース回路11、処理回路20、記憶回路30、入力デバイス40、及び、ディスプレイ50を備えて構成される。医用画像閲覧装置100は、例えば、所謂ワークステーション、或いは、高性能パーソナルコンピュータとして構成される。
(Configuration of the first embodiment)
FIG. 2 is a block diagram showing a configuration example of the medical image browsing apparatus 100 according to the first embodiment. The medical image browsing apparatus 100 includes, for example, a communication interface circuit 10, a recording medium interface circuit 11, a processing circuit 20, a storage circuit 30, an input device 40, and a display 50. The medical image browsing apparatus 100 is configured as, for example, a so-called workstation or a high performance personal computer.

通信インターフェース回路10は、有線又は無線のローカルネットワークや広域ネットワーク、インターネット、或いは、専用又は汎用の通信回線を介してデータを入出力するインターフェース回路である。また、記録媒体インターフェース回路11は、光ディスク、USBメモリ、SDメモリカード等の記憶媒体を介してデータを入出力するインターフェース回路である。   The communication interface circuit 10 is an interface circuit that inputs / outputs data via a wired or wireless local network, a wide area network, the Internet, or a dedicated or general-purpose communication line. The recording medium interface circuit 11 is an interface circuit that inputs / outputs data via a storage medium such as an optical disk, a USB memory, an SD memory card.

第1の実施形態の医用画像閲覧装置100では、通信インターフェース回路10或いは記録媒体インターフェース回路11を介して、被検体が撮像された医療用の画像データを入力する。   In the medical image browsing apparatus 100 according to the first embodiment, medical image data of an image of a subject is input via the communication interface circuit 10 or the recording medium interface circuit 11.

記憶回路30は、ROM(Read Only Memory)やRAM(Random Access Memory)の他、HDD(Hard Disk Drive)や光ディスク装置等の外部記憶装置を含む記憶媒体である。記憶回路30は、後述する各種機能の実現に必要となるデータを記憶する他、処理回路20が具備するプロセッサが実行する各種のプログラムを記憶する。   The storage circuit 30 is a storage medium including a ROM (Read Only Memory) and a RAM (Random Access Memory) as well as an external storage device such as a HDD (Hard Disk Drive) and an optical disk device. The memory circuit 30 stores data necessary for realizing various functions described below, and also stores various programs executed by a processor included in the processing circuit 20.

入力デバイス40は、例えば、マウス、キーボード、トラックボール、タッチパネル等であり、各種の情報やデータを操作者が入力するための種々のデバイスを含む。   The input device 40 is, for example, a mouse, a keyboard, a trackball, a touch panel, or the like, and includes various devices for the operator to input various information and data.

ディスプレイ50は、液晶ディスプレイパネル、プラズマディスプレイパネル、有機ELパネル等の表示デバイスである。   The display 50 is a display device such as a liquid crystal display panel, a plasma display panel, and an organic EL panel.

処理回路20は、例えば、CPUや、専用又は汎用のプロセッサを備える回路である。プロセッサは、記憶回路30に記憶した各種のプログラムを実行することによって、後述する各種の機能を実現する。処理回路20は、FPGA(field programmable gate array)やASIC(application specific integrated circuit)等のハードウェアで構成してもよい。これらのハードウェアによっても後述する各種の機能を実現することができる。また、処理回路20は、プロセッサとプログラムによるソフトウェア処理と、ハードウェア処理とを組み合わせて、各種の機能を実現することもできる。   The processing circuit 20 is, for example, a circuit including a CPU and a dedicated or general-purpose processor. The processor implements various functions described below by executing various programs stored in the storage circuit 30. The processing circuit 20 may be configured by hardware such as FPGA (field programmable gate array) or ASIC (application specific integrated circuit). Various functions described below can also be realized by these hardware. Further, the processing circuit 20 can realize various functions by combining software processing by a processor and a program, and hardware processing.

また、複数の独立したプロセッサを組み合わせて処理回路20を構成し、各プロセッサが各機能を実現してもよい。また、プロセッサが複数設けられる場合、プログラムを記憶する記憶媒体は、プロセッサごとに個別に設けられてもよいし、1つの記憶媒体が全てのプロセッサの機能に対応するプログラムを一括して記憶してもよい。   Alternatively, the processing circuit 20 may be configured by combining a plurality of independent processors, and each processor may realize each function. When a plurality of processors are provided, the storage medium for storing the program may be provided individually for each processor, or one storage medium may collectively store the programs corresponding to the functions of all the processors. Good.

(第1の実施形態の動作)
第1の実施形態の処理回路20は、図2に示す各機能、即ち、画像データ取得機能21、画像処理機能22、判定機能23、及び、匿名化処理機能24を実現する。これらの各機能は、例えば、処理回路20が具備するプロセッサが、記憶回路30に記憶される所定のプログラムを実行することによって実現される。
(Operation of the first embodiment)
The processing circuit 20 of the first embodiment realizes the respective functions shown in FIG. 2, that is, the image data acquisition function 21, the image processing function 22, the determination function 23, and the anonymization processing function 24. Each of these functions is realized, for example, by a processor included in the processing circuit 20 executing a predetermined program stored in the storage circuit 30.

画像データ取得機能21は、通信インターフェース回路10或いは記録媒体インターフェース回路11を介して入力した画像データを処理回路20に取り込む機能である。画像データ取得機能21によって取得する画像データは、例えば、被検体の頭部を含む部位が撮像された医療用の画像データである。画像データの種類は、例えば、X線CT装置511、MRI装置512、或いは超音波診断装置513で撮像した3次元画像データであるが、これらに限定するものではなく、2次元のX線画像データでもよい。   The image data acquisition function 21 is a function of taking in the image data input via the communication interface circuit 10 or the recording medium interface circuit 11 to the processing circuit 20. The image data acquired by the image data acquisition function 21 is, for example, medical image data in which a region including the head of the subject is imaged. The type of image data is, for example, three-dimensional image data captured by the X-ray CT apparatus 511, the MRI apparatus 512, or the ultrasonic diagnostic apparatus 513, but is not limited to these, and two-dimensional X-ray image data. But it's okay.

画像処理機能22は、入力した画像データから、ディスプレイ50に表示するための表示画像を、ユーザ指示に応じて生成する。例えば、表示画像としてMPR画像を生成する場合には、ユーザ指示に基づく切断断面の位置や向きに応じて3次元画像データからMPR画像を生成することになる。   The image processing function 22 generates a display image to be displayed on the display 50 from the input image data according to a user instruction. For example, when the MPR image is generated as the display image, the MPR image is generated from the three-dimensional image data according to the position and the direction of the cutting section based on the user's instruction.

また、表示画像としてボリュームレンダリング画像を生成する場合には、ユーザ指示に基づく投影方向に応じて3次元画像データに対してボリュームレンダリング処理を施して、ボリュームレンダリング画像を生成することになる。この場合、ユーザによる回転指示に応じて投影方向が変更され、投影方向の変更にほぼリアルタイムで追従して、ボリュームレンダリング画像が逐次更新される。また、ユーザによる拡大や縮小或いは移動の指示に応じて、ボリュームレンダリング画像に対する拡大、縮小、移動処理がほぼリアルタイムで行われることになる。   Further, when a volume rendering image is generated as a display image, volume rendering processing is performed on the three-dimensional image data according to the projection direction based on the user instruction, and the volume rendering image is generated. In this case, the projection direction is changed according to the rotation instruction from the user, and the volume rendering image is sequentially updated by following the change in the projection direction in almost real time. In addition, the enlargement, reduction, or movement processing for the volume rendering image is performed in substantially real time in response to a user's instruction for enlargement, reduction, or movement.

判定機能23は、表示画像から被検体の個人を特定できるか否かを判定する。そして、表示画像の表示状態がユーザ指示に応じて変更される毎に、表示画像から被検体の個人を特定できるか否かを判定する。判定機能23のより具体的な処理については後述する。   The determination function 23 determines whether the individual of the subject can be identified from the display image. Then, every time the display state of the display image is changed according to the user instruction, it is determined whether or not the individual of the subject can be specified from the display image. More specific processing of the determination function 23 will be described later.

匿名化処理機能24は、判定機能23によって表示画像から個人が特定できると判定された場合に、表示画像から個人が特定できないようにする匿名化処理を行う。表示画像から被検体の個人を特定できるか否かの判定は、表示画像の表示状態が変更される毎にリアルタイムで行われるため、これに応じて、匿名化処理も、表示画像の表示状態が変更される毎にリアルタイムで行われる。また、匿名化処理機能24は、匿名化処理後の表示画像をディスプレイ50に表示させる。   The anonymization processing function 24 performs anonymization processing that prevents an individual from being identified from the display image when the determination function 23 determines that the individual can be identified from the display image. The determination of whether or not the individual of the subject can be identified from the display image is performed in real time every time the display state of the display image is changed, and accordingly, the anonymization process also determines the display state of the display image. Every time it is changed, it is done in real time. Further, the anonymization processing function 24 causes the display 50 to display the display image after the anonymization processing.

図3は、第1の実施形態の医用画像閲覧装置100の動作例を示すフローチャートである。また、図4乃至図11は、第1の実施形態の医用画像閲覧装置100の動作概念を説明する図である。以下、図3のフローに沿って、図4乃至図11を参照しつつ、医用画像閲覧装置100の動作をより具体的に説明していく。   FIG. 3 is a flowchart showing an operation example of the medical image browsing apparatus 100 according to the first embodiment. Further, FIG. 4 to FIG. 11 are diagrams illustrating the operation concept of the medical image browsing apparatus 100 according to the first embodiment. Hereinafter, the operation of the medical image browsing apparatus 100 will be described more specifically along the flow of FIG. 3 and with reference to FIGS. 4 to 11.

まず、図3のステップST100で、画像データ取得機能21が、通信インターフェース回路10或いは記録媒体インターフェース回路11を介して入力した画像データを取得する。次に、ステップST101で、ユーザ指示に関する情報を取得する。さらに、ステップST102で、ユーザ指示に基づいた表示画像が生成される。   First, in step ST100 of FIG. 3, the image data acquisition function 21 acquires the image data input via the communication interface circuit 10 or the recording medium interface circuit 11. Next, in step ST101, information regarding the user instruction is acquired. Further, in step ST102, a display image based on the user instruction is generated.

図4は、画像データを取得し表示画像を生成するまでの処理(上記のステップST100からステップST102までの処理)の処理概念を説明する図である。ステップST100では、例えば、図4の左側に示すような画像データを取得する。画像データの種類は特に限定するものでないが、以下では、例えば、X線CT装置511で被検体を撮像した3次元画像データを、ステップST100で取得する画像データの例として説明する。図4に示す例では、頭部を含む男性の上半身の3次元画像データを取得している。   FIG. 4 is a diagram illustrating the processing concept of the processing from the acquisition of image data to the generation of a display image (the processing from step ST100 to step ST102 described above). In step ST100, for example, image data as shown on the left side of FIG. 4 is acquired. The type of image data is not particularly limited, but in the following, for example, three-dimensional image data obtained by imaging the subject with the X-ray CT apparatus 511 will be described as an example of the image data acquired in step ST100. In the example shown in FIG. 4, three-dimensional image data of the upper half of the body of a man including the head is acquired.

ステップST101及びステップST102では、画像処理機能22が、ユーザ指示に応じて表示画像を生成する。例えば、図4の左側に示す男性の上半身の3次元画像データの頭部を拡大し、更に、顔が正面を向くように回転させるユーザ指示を行う。ユーザ指示は、例えば、医師等のユーザによるマウスやタッチパネルの操作によって行われる。このようなユーザ指示により、図4の右上段に示す、男性が正面を向いた状態の頭部のボリュームレンダリング画像を表示画像として生成することができる。   In step ST101 and step ST102, the image processing function 22 generates a display image according to a user instruction. For example, a user's instruction to enlarge the head of the three-dimensional image data of the upper half of the body of the man shown on the left side of FIG. The user instruction is given, for example, by operating a mouse or a touch panel by a user such as a doctor. By such a user instruction, the volume rendering image of the head of the man in the state of facing the front shown in the upper right part of FIG. 4 can be generated as a display image.

また、例えば、図4の左側に示す男性の上半身の3次元画像データの頭部を拡大し、顔が左を向くように回転させるユーザ指示を行うことにより、図4の右中段に示す、男性が左真横を向いた状態の頭部のボリュームレンダリング画像を表示画像として生成することができる。   Further, for example, by enlarging the head of the three-dimensional image data of the upper half of the body of the male shown on the left side of FIG. 4 and giving a user instruction to rotate the face so as to face the left side, the male shown in the right middle stage of FIG. It is possible to generate a volume rendering image of the head in a state in which is facing right to the left as a display image.

また、例えば、図4の左側に示す男性の上半身の3次元画像データの、首から下の上半身を切り出すユーザ指示を行うことにより、図4の右下段に示す、首から下の上半身のボリュームレンダリング画像を表示画像として生成することができる。   Further, for example, volume rendering of the upper body from the neck shown in the lower right part of FIG. 4 is performed by instructing the user to cut out the upper body from the neck of the three-dimensional image data of the upper body of the male shown on the left side of FIG. The image can be generated as a display image.

ステップST101及びステップST102では、ユーザがディスプレイ50に表示された表示画像を見ながら、マウスやタッチパネル等の操作を介して、3次元画像データに対して拡大、縮小、回転、移動、切り取り等のユーザ指示を行い、このユーザ指示に応じて、リアルタイムでボリュームレンダリング画像等の表示画像が生成されることになる。   In step ST101 and step ST102, the user views the display image displayed on the display 50 and operates the mouse, the touch panel, or the like to enlarge, reduce, rotate, move, or cut the three-dimensional image data. An instruction is given, and a display image such as a volume rendering image is generated in real time in response to this user instruction.

図3に戻り、ステップST103において、表示画像の最初の表示状態だけでなく、表示画像の表示状態がユーザ指示に応じて変更される毎に、表示画像から個人を特定できるか否かを判定する。   Returning to FIG. 3, in step ST103, it is determined whether or not an individual can be identified from the display image each time the display state of the display image is changed in accordance with a user instruction, not only the initial display state of the display image. .

例えば、表示画像から個人を特定するために必要な解剖学的部位を検出し、検出した解剖学的部位毎に、個人の特定のし易さを表わす部位別判定指標値を算出し、算出した部位別判定指標値を用いて表示画像から個人が特定できるか否かを判定する。   For example, the anatomical region necessary for identifying the individual is detected from the display image, and the determination index value for each region representing the ease of identifying the individual is calculated and calculated for each detected anatomical region. It is determined whether or not the individual can be identified from the display image using the region-specific determination index value.

より具体的には、上記の部位別判定指標値を、解剖学的部位毎に割り当てられた基礎値に重み付けして算出する。更に、重みづけによって算出された解剖学的部位ごとの部位別判定指標値を加算して総合判定指標値を求める。そして、この総合判定指標値に対して閾値判定を行って、表示画像から個人が特定できるか否かを判定する。   More specifically, the above-mentioned region-specific determination index value is calculated by weighting the basic value assigned to each anatomical region. Furthermore, the site-specific determination index values for each anatomical site calculated by weighting are added to obtain a total determination index value. Then, threshold determination is performed on this comprehensive determination index value to determine whether an individual can be identified from the display image.

図5は、ステップST103で行われる判定処理の概念を説明するための判定テーブルである。なお、この判定テーブルの一部を記憶回路30に保存しておき、ステップST103の判定処理に用いてもよい。   FIG. 5 is a determination table for explaining the concept of the determination process performed in step ST103. A part of this determination table may be stored in the storage circuit 30 and used for the determination process of step ST103.

判定テーブルの第1行は、表示画像から個人を特定するために必要な解剖学的部位として、「目」、「口」、「鼻」、及び「耳」を例示している。これら4つの解剖学的部位は、表示画像から個人を特定するために必要な、典型的な部位であると考えられる。   The first row of the determination table exemplifies “eyes”, “mouths”, “nose”, and “ears” as anatomical parts necessary for identifying an individual from the display image. These four anatomical parts are considered to be typical parts necessary for identifying an individual from the displayed image.

判定テーブルの第2行は、各解剖学的部位に対して割り付けた基礎値が示している。ここで、基礎値とは、該当する解剖学的部位が表示画像の中に見えているか否かを示す指標値である。図5に示す判定テーブルの例では、「目」、「口」、「鼻」、及び「耳」に対して、一律に「25」ポイントを割りつけている。   The second row of the determination table shows the basic value assigned to each anatomical part. Here, the basic value is an index value indicating whether or not the corresponding anatomical part is visible in the display image. In the example of the determination table shown in FIG. 5, “25” points are uniformly assigned to “eye”, “mouth”, “nose”, and “ear”.

基礎値は、表示画像の中における解剖学的部位が「どの程度見えているか」を示すものではなく、該当する解剖学的部位が表示画像中に少しでも見えていれば、フルのポイント、例えば「25」ポイントを割り付け、該当する解剖学的部位が表示画像中に全く見えていない場合に「0」ポイントを割り付けるものとしている。   The basic value does not indicate “how much the anatomical part in the display image is visible”, but if the corresponding anatomical part is slightly visible in the display image, a full point, for example, "25" points are assigned, and "0" points are assigned when the corresponding anatomical part is not visible at all in the display image.

言い換えると、基礎値は、解剖学的部位が表示画像中に見えているか否かを示す指標値である。したがって、例えば、図4の右側に示す表示画像のうち、男性が正面を向いている上段の例では、「目」、「口」、「鼻」、及び「耳」の全てが見えているため、4つの解剖学的部位の全てに対して、一律に「25」ポイントが割り付けられることになる。また、図4の右側に示す表示画像のうち、男性が横を向いている中段の例においても、「目」、「口」、「鼻」、及び「耳」の夫々の解剖学的部位の少なくとも一部が見えているため、4つの解剖学的部位の全てに対して、一律に「25」ポイントが割り付けられることになる。   In other words, the basic value is an index value indicating whether or not the anatomical part is visible in the display image. Therefore, for example, in the display image shown on the right side of FIG. 4, in the example of the upper row in which the man faces the front, all of the “eyes”, “mouths”, “nose”, and “ears” are visible. All the four anatomical parts will be uniformly assigned with “25” points. In the display image shown on the right side of FIG. 4, also in the example of the middle stage in which the man is looking sideways, the anatomical parts of the “eye”, “mouth”, “nose”, and “ear” are displayed. Since at least a part is visible, “25” points are uniformly assigned to all four anatomical parts.

これに対して、図4の右側に示す表示画像のうち、下段の例では、頭部そのものが見えておらず、当然、この表示画像には、「目」、「口」、「鼻」、及び「耳」のいずれの解剖学的部位も見えない。したがって、図4の右側の下段の表示画像に対しては、「目」、「口」、「鼻」、及び「耳」の4つの解剖学的部位の全てに対して、一律に「0」ポイントが割り付けられることになる。   On the other hand, of the display images shown on the right side of FIG. 4, in the lower example, the head itself is not visible, and of course, in this display image, “eyes”, “mouths”, “nose”, And neither anatomy of the "ear" is visible. Therefore, in the lower display image on the right side of FIG. 4, “0” is uniformly applied to all four anatomical parts of “eye”, “mouth”, “nose”, and “ear”. Points will be allocated.

表示画像において、「目」、「口」、「鼻」、及び「耳」などの解剖学的部位が見えているか否かの判定は、例えば、テンプレートマッチングや機械学習等の公知の手法を利用することができる。テンプレートマッチングでは、解剖学的部位の夫々の形状に対応するテンプレートと、表示画像とをテンプレートマッチングすることによって、各解剖学的部位が表示画像の中に存在するか否かを判定することができる。また、機械学習では、予め、「目」、「口」、「鼻」、及び「耳」などを含む教師画像で学習させた学習済みモデルに対して表示画像を適用することにより、各解剖学的部位が表示画像の中に存在するか否かを判定することができる。   To determine whether or not anatomical parts such as “eyes”, “mouths”, “nose”, and “ears” are visible in the display image, for example, a known method such as template matching or machine learning is used. can do. In template matching, it is possible to determine whether or not each anatomical part is present in the display image by performing template matching with the display image and the template corresponding to each shape of the anatomical part. . In machine learning, the display image is applied in advance to the learned model learned by the teacher image including the “eye”, “mouth”, “nose”, “ear”, etc. It can be determined whether or not the target portion is present in the display image.

判定テーブルの第3行と第4行は、表示画像における解剖学的部位の露出の度合いを示す重みとして、面積比重みW1及び透明度重みW2を示している。露出の度合いを示す重みWは、面積比重みW1と透明度重みW2の積となる。   The third row and the fourth row of the determination table show the area ratio weight W1 and the transparency weight W2 as weights indicating the exposure degree of the anatomical part in the display image. The weight W indicating the degree of exposure is the product of the area ratio weight W1 and the transparency weight W2.

面積比重みW1は、解剖学的部位のそれぞれの全体が見えているときの当該解剖学的部位の面積に対する、表示画像の表示状態において見えている解剖学的部位の面積の比である。例えば、ある拡大率の表示画像において正面を向いた両目の面積がAであるとするとき、同じ拡大率の表示画像において、正面を向いた片目のみが見えている場合には、表示画像の表示状態での目の面積はA/2である。したがって、この場合には、面積比重みW1は、0.5となる。   The area ratio weight W1 is the ratio of the area of the anatomical site that is visible in the display state of the display image to the area of the anatomical site when the entire anatomical site is visible. For example, when the area of both eyes facing the front is A in a display image with a certain magnification, and when only one eye facing the front is visible in the display image with the same magnification, the display of the display image is displayed. The area of the eyes in the state is A / 2. Therefore, in this case, the area ratio weight W1 is 0.5.

また、透明度重みW2は、表示画像において、「目」、「口」、「鼻」、及び「耳」などの解剖学的部位に対して設定されている透明度の値に対応する重みである。即ち、該当する解剖学的部位が完全に透明で、その下の組織が完全に透けて見えている場合は、透明度重みW2は0.0となる。逆に、該当する解剖学的部位が完全に不透明で、その下の組織が全く見えていない場合は、透明度重みW2は1.0となる。   The transparency weight W2 is a weight corresponding to the transparency value set for the anatomical parts such as “eyes”, “mouths”, “nose”, and “ears” in the display image. That is, when the corresponding anatomical part is completely transparent and the tissue therebelow is completely transparent and visible, the transparency weight W2 is 0.0. On the contrary, when the corresponding anatomical part is completely opaque and the tissue thereunder is completely invisible, the transparency weight W2 is 1.0.

面積比重みW1と透明度重みW2は、表示画像と、その表示状態に基づいて、処理回路20の判定機能23によって決定される。   The area ratio weight W1 and the transparency weight W2 are determined by the determination function 23 of the processing circuit 20 based on the display image and its display state.

判定テーブルの第5行は、個性重みW3を示している。個性重みW3は、該当する解剖学的部位の形状が標準的な形状とどの程度異なっているかを示す個性の強さを表す重みである。個性重みW3は、例えば、ユーザによって設定される。   The fifth row of the determination table shows the individual weight W3. The individuality weight W3 is a weight representing the strength of individuality indicating how different the shape of the corresponding anatomical part is from the standard shape. The individuality weight W3 is set by the user, for example.

判定テーブルの第6行は、部位別判定指標値を示している。部位別判定指標値は、解剖学的部位の夫々の基礎値に、面積比重みW1、透明度重みW2、及び、個性重みW3によって重み付けした値、即ち、基礎値に各重みを乗じた値である。   The sixth row of the determination table shows the determination index value for each part. The region-specific determination index value is a value obtained by weighting each basic value of the anatomical region with the area ratio weight W1, the transparency weight W2, and the individuality weight W3, that is, the basic value multiplied by each weight. .

判定テーブルの第7行は、解剖学的部位の夫々の部位別判定指標値を加算して得られる総合判定指標値を示している。   The seventh row of the determination table shows the total determination index value obtained by adding the determination index values for each part of the anatomical part.

このようにして算出された総合判定指標値に対して、所定の閾値を用いた閾値判定を行うことにより、そのときの表示状態における表示画像に対して匿名化処理を行うか否かを判定する。即ち、ステップST103による上記の判定により、総合判定指標値が閾値を超えている場合は、その表示状態における表示画像から個人を特定できると判定され、ステップST104に進んで、その表示状態の表示画像に対して匿名化処理を実施する。その後、ステップST105において、匿名化処理された表示画像をディスプレイ50に表示する。ステップST104及びステップST105の処理は、図2の匿名化処理機能24が行う。   By performing threshold value determination using a predetermined threshold value on the comprehensive determination index value calculated in this way, it is determined whether or not to perform anonymization processing on the display image in the display state at that time. . That is, when the comprehensive determination index value exceeds the threshold value by the above determination in step ST103, it is determined that the individual can be identified from the display image in the display state, and the process proceeds to step ST104 to display the display image in the display state. Anonymization processing is performed on. Thereafter, in step ST105, the anonymized display image is displayed on the display 50. The processing of step ST104 and step ST105 is performed by the anonymization processing function 24 of FIG.

一方、ステップST103による判定により、総合判定指標値が閾値を超えていない場合は、その表示状態における表示画像からは個人を特定できないと判定され、匿名化処理を行うことなく、ステップST105において、その表示状態における表示画像をディスプレイ50に表示する。   On the other hand, if the comprehensive determination index value does not exceed the threshold value by the determination in step ST103, it is determined that the individual cannot be identified from the display image in the display state, and the anonymization process is not performed in step ST105. The display image in the display state is displayed on the display 50.

その後、ステップST106でユーザ指示情報を継続的に取得し続け、ステップST107で、表示状態が変更されたか否かを判定する。表示状態が変更されたと判定された場合には、ステップST102に戻り、ユーザ指示に基づいて変更された表示画像を生成する。例えば、マウスやタッチパネルによって、3次元画像データに対して拡大や回転処理等の表示画像を変更するためのユーザ指示を行った場合には、そのユーザ指示に基づいて、ステップST102において新たな表示画像が生成される。そして、この新たな表示画像に対して、個人を特定できるか否かの判定が行われ、個人を特定できると判定された場合には、そのときの表示画像に対して匿名化処理が行われる。   Then, in step ST106, the user instruction information is continuously acquired, and in step ST107, it is determined whether or not the display state is changed. When it is determined that the display state is changed, the process returns to step ST102, and the changed display image is generated based on the user instruction. For example, when a user's instruction to change the display image such as enlargement or rotation processing is given to the three-dimensional image data with a mouse or a touch panel, a new display image is displayed in step ST102 based on the user instruction. Is generated. Then, a determination is made as to whether or not the individual can be specified for this new display image, and if it is determined that the individual can be specified, anonymization processing is performed for the display image at that time. .

つまり、判定機能23は、表示画像の表示状態がユーザ指示に応じて変更される毎に、表示画像から前記被検体の個人を特定できるか否かを判定する。そして、匿名化処理機能24は、表示画像から個人が特定できると判定された場合に、その表示画像から個人が特定できないようにする匿名化処理を、表示画像の表示状態が変更される毎にリアルタイムで行い、匿名化処理後の表示画像をディスプレイ50に表示させる。   That is, the determination function 23 determines whether or not the individual of the subject can be identified from the display image every time the display state of the display image is changed in response to a user instruction. Then, when it is determined that the individual can be identified from the display image, the anonymization processing function 24 performs anonymization processing that prevents the individual from being identified from the display image each time the display state of the display image is changed. The display image after the anonymization process is displayed on the display 50 in real time.

ここで、匿名化処理は、表示画像又は3次元画像データの解剖学的部位の上皮領域に対して、マスキング処理、透明化処理、平滑化処理、変形処理、脱毛処理、及び、増毛処理の少なくとも1つの処理を行って、被検体の個人の特定を困難化する処理である。なお、3次元画像データに対してこれらの匿名化処理を行う場合は、表示画像を生成するために3次元画像データを一時的に加工してレンダリング処理を行うだけであり、元の3次元画像データを恒久的に加工するわけではない。   Here, the anonymization process is at least a masking process, a transparentizing process, a smoothing process, a deforming process, a hair removing process, and a hair increasing process for the epithelial region of the anatomical part of the display image or the three-dimensional image data. This is a process that makes it difficult to identify the individual of the subject by performing one process. Note that when these anonymization processes are performed on the three-dimensional image data, the three-dimensional image data is only temporarily processed and rendering processing is performed to generate a display image. It does not process the data permanently.

また、上記の匿名化処理を行う解剖学的部位を、部位別判定指標値の大きさに基づいて選択してもよい。例えば、「耳」や「鼻」の部位別判定指標値が、「目」や「口」の部位別判定指標値より小さい場合、「目」や「口」に対しては匿名化処理を行い、「耳」や「鼻」に対しては匿名化処理を行わない、といった処理も考えられる。   Further, the anatomical part to be subjected to the anonymization process may be selected based on the size of the part-specific determination index value. For example, if the region-specific determination index values for “ears” and “nose” are smaller than the region-based determination index values for “eyes” and “mouths”, anonymization processing is performed for “eyes” and “mouths”. It is also conceivable that the anonymization process is not performed on the “ears” and the “nose”.

以下、図6乃至図11を用いて、上述した動作の具体例について説明する。図6は第1の具体例を示す図である。図6の左上に示すように、第1の具体例の表示画像は、正面を向いた被検体の頭部が拡大されたボリュームレンダリング画像である。   Hereinafter, a specific example of the above operation will be described with reference to FIGS. 6 to 11. FIG. 6 is a diagram showing a first specific example. As shown in the upper left of FIG. 6, the display image of the first specific example is a volume rendering image in which the head of the subject facing forward is enlarged.

図6の下部中央に、第1の具体例の表示画像に対応する判定テーブルを例示している。第1の具体例の表示画像では、「目」、「口」、「鼻」、及び「耳」の全てが見えているため、これらに対応する全ての基礎値に対して、「25」ポイントが割り付けられている。また、被検体が正面を向いているため、すべての部位が隠れることなく、また、傾きによる面積の減少もないことから、「目」、「口」、「鼻」、及び「耳」のすべての面積比重みW1に対して、「1.0」の重みが割り付けられている。   In the lower center of FIG. 6, a determination table corresponding to the display image of the first specific example is illustrated. In the display image of the first specific example, all the “eyes”, “mouths”, “nose”, and “ears” are visible, so “25” points are set for all the basic values corresponding to these. Is assigned. Also, since the subject is facing the front, all parts are not hidden, and there is no reduction in area due to tilting, so all of the “eyes”, “mouths”, “nose”, and “ears” A weight of “1.0” is assigned to the area ratio weight W1 of.

また、この表示画像の「目」、「口」、「鼻」、及び「耳」に対しては透明処理が施されておらず、完全な不透明となっているため、「目」、「口」、「鼻」、及び「耳」のすべての透明度重みW2に対しても、「1.0」の重みが割り付けられている。   In addition, the "eyes", "mouths", "nose", and "ears" of this display image are completely opaque because they are not transparent. A weight of “1.0” is also assigned to all the transparency weights W2 of “”, “nose”, and “ear”.

一方、この被検体は、目と口に個性が強く現れており、これらに対して鼻と耳に関しては比較的一般的な形状であり個性がそれほど強く現れていないと考えられる。このため、「目」と「口」に対しては、個性重みW3として「1.0」が割り付けられ、「鼻」と「耳」に対しては「0.4」が割り付けられている。   On the other hand, it is considered that this subject has strong individuality in the eyes and mouth, whereas the nose and ears have relatively common shapes, and the individuality is not so strong. Therefore, "1.0" is assigned to the "eyes" and "mouths" as the individuality weight W3, and "0.4" is assigned to the "nose" and "ears".

この結果、部位別判定指標値は、「目」、「口」、「鼻」、及び「耳」に対して、夫々、「25」、「25」、「10」、及び「10」と算出される。さらに、これらの部位別判定指標値を加算して、総合判定指標値が「70」として算出される。   As a result, the region-specific determination index values are calculated as “25”, “25”, “10”, and “10” for “eye”, “mouth”, “nose”, and “ear”, respectively. To be done. Further, the determination index value for each part is added to calculate the overall determination index value as "70".

この総合判定指標値は、予め定めている閾値「30.0」よりも大きいため、匿名化処理を実施する、と判定される。   Since this comprehensive determination index value is larger than the predetermined threshold value “30.0”, it is determined that the anonymization process is performed.

図6右上部の表示画像は、匿名化処理後の表示画像を例示している。図6右上部の表示画像では、目、鼻、及び口を白抜きするマスキング処理を施すことにより、匿名化処理を行っている。   The display image in the upper right part of FIG. 6 exemplifies the display image after the anonymization process. In the display image in the upper right part of FIG. 6, anonymization processing is performed by performing masking processing that outlines the eyes, nose, and mouth.

図7は第2の具体例を示す図である。図7の中央上部に示すように、第2の具体例の表示画像は、第1の具体例の表示画像の頭部を、左向きに45度回転させたボリュームレンダリング画像である。 FIG. 7 is a diagram showing a second specific example. As shown in the upper center of FIG. 7, the display image of the second specific example is a volume rendering image in which the head of the display image of the first specific example is rotated leftward by 45 degrees.

図7の下部中央には、第2の具体例の表示画像に対応する判定テーブルを例示している。第2の具体例の表示画像においても、「目」、「口」、「鼻」、及び「耳」の夫々の少なくとも一部は見えているため、これらの各部位に対応する全ての基礎値に対して、「25」ポイントが割り付けられている。   In the lower center of FIG. 7, a determination table corresponding to the display image of the second specific example is illustrated. Also in the display image of the second specific example, at least a part of each of the “eye”, “mouth”, “nose”, and “ear” is visible, so all the basic values corresponding to each of these parts are displayed. , “25” points are allocated to.

一方、面積比重みW1に関しては、被検体が45度だけ左側を向いているため左耳が隠れている。したがって、「耳」に対する面積比重みW1を「0.5」に設定している。また、「目」、「口」、「鼻」が見えている面積は、被検体が45度だけ左側を向いているため、正面を向いた時の面積に比べて減少している。そこで、「目」、「口」、「鼻」に対する面積比重みW1を、夫々「0.7」に設定している。なお、透明度重みW2と個性重みW3は、第1の具体例を同じ値を割り付けている。   On the other hand, regarding the area ratio weight W1, the left ear is hidden because the subject is facing left by 45 degrees. Therefore, the area ratio weight W1 for the "ears" is set to "0.5". In addition, the area in which the "eyes", "mouths", and "nose" are visible is smaller than the area when facing the front because the subject faces 45 degrees to the left. Therefore, the area ratio weight W1 for the "eye", "mouth", and "nose" is set to "0.7", respectively. The same value is assigned to the transparency weight W2 and the individuality weight W3 as in the first specific example.

この結果、部位別判定指標値は、「目」、「口」、「鼻」、及び「耳」に対して、夫々、「17.5」、「17.5」、「7.0」、及び「5.0」と算出される。そして、これらの部位別判定指標値を加算して、総合判定指標値が「47.0」として算出される。   As a result, the region-specific determination index values are “17.5”, “17.5”, “7.0”, and “eye”, “mouth”, “nose”, and “ear”, respectively. And “5.0”. Then, the determination index value for each part is added to calculate the overall determination index value as “47.0”.

この総合判定指標値は、閾値「30.0」よりも大きいため、匿名化処理を実施する、と判定される。   Since this comprehensive determination index value is larger than the threshold value “30.0”, it is determined that the anonymization process is performed.

図7右上部の表示画像は、匿名化処理後の表示画像を例示している。図7右上部の表示画像では、第1の具体例を同様に、目、鼻、及び口を白抜きするマスキング処理を施すことにより、匿名化処理を行っている。   The display image in the upper right part of FIG. 7 exemplifies the display image after the anonymization process. In the display image in the upper right part of FIG. 7, similarly, the anonymization process is performed by performing the masking process for blanking the eyes, nose, and mouth similarly to the first specific example.

図8は第3の具体例を示す図である。図8の中央上部に示すように、第3の具体例の表示画像は、第1の具体例の表示画像の頭部を、左向きに90度回転させたボリュームレンダリング画像である。   FIG. 8 is a diagram showing a third specific example. As shown in the upper center of FIG. 8, the display image of the third specific example is a volume rendering image in which the head of the display image of the first specific example is rotated 90 degrees to the left.

図8の下部中央には、第3の具体例の表示画像に対応する判定テーブルを例示している。第3の具体例の表示画像においても、「目」、「口」、「鼻」、及び「耳」の夫々の少なくとも一部は見えているため、これらの各部位に対応する全ての基礎値に対して、「25」ポイントが割り付けられている。   In the lower center of FIG. 8, a determination table corresponding to the display image of the third specific example is illustrated. Also in the display image of the third specific example, at least some of the “eyes”, “mouths”, “nose”, and “ears” are visible, so all the basic values corresponding to these respective parts , “25” points are allocated to.

一方、面積比重みW1に関しては、被検体が90度だけ左側を向いているため左目と左耳が隠れている。また、「目」、「口」、「鼻」が見えている面積は、被検体が90度だけ左側を向いているため、正面を向いた時の面積に比べて減少している。そこで、「目」、「口」、「鼻」、「耳」に対する面積比重みW1を、夫々、「0.4、」、「0.4、」、「0.6」、及び「0.5、」設定している。なお、透明度重みW2と個性重みW3は、第1の具体例を同じ値を割り付けている。   On the other hand, regarding the area ratio weight W1, the left eye and the left ear are hidden because the subject is facing leftward by 90 degrees. In addition, the area in which the "eyes", "mouths", and "nose" are visible is smaller than the area when facing the front because the subject is facing 90 degrees to the left. Therefore, the area ratio weights W1 for “eyes”, “mouths”, “nose”, and “ears” are set to “0.4,”, “0.4,”, “0.6”, and “0. 5, ”is set. The same value is assigned to the transparency weight W2 and the individuality weight W3 as in the first specific example.

この結果、部位別判定指標値は、「目」、「口」、「鼻」、及び「耳」に対して、夫々、「10.0」、「10.0」、「6.0」、及び「5.0」と算出される。そして、これらの部位別判定指標値を加算して、総合判定指標値が「31.0」として算出される。   As a result, the region-based determination index values are “10.0”, “10.0”, “6.0”, and “eye”, “mouth”, “nose”, and “ear”, respectively. And “5.0”. Then, the determination index value for each part is added to calculate the comprehensive determination index value as “31.0”.

この総合判定指標値は、閾値「30.0」よりも大きいため、匿名化処理を実施する、と判定される。   Since this comprehensive determination index value is larger than the threshold value “30.0”, it is determined that the anonymization process is performed.

図8右上部の表示画像は、匿名化処理後の表示画像を例示している。図8右上部の表示画像では、第1、第2の具体例を同様に、目、鼻、及び口を白抜きするマスキング処理を施すことにより、匿名化処理を行っている。   The display image in the upper right part of FIG. 8 exemplifies the display image after the anonymization process. In the display image in the upper right part of FIG. 8, the anonymization process is performed by performing the masking process for blanking the eyes, nose, and mouth in the same manner as the first and second specific examples.

図9は第4の具体例を示す図である。図9の中央上部に示すように、第4の具体例の表示画像は、第1の具体例の表示画像の頭部を、左向きに135度回転させたボリュームレンダリング画像である。   FIG. 9 is a diagram showing a fourth specific example. As shown in the upper center of FIG. 9, the display image of the fourth specific example is a volume rendering image obtained by rotating the head of the display image of the first specific example leftward by 135 degrees.

図9の下部中央には、第4の具体例の表示画像に対応する判定テーブルを例示している。第4の具体例の表示画像では、「目」、「口」、「鼻」は全く見えておらず、右耳の一部が見えているだけである。そこで、「目」、「口」、「鼻」及び「耳」の夫々の基礎値に対して、「0」、「0」、「0」及び「25」ポイントが割り付けられている。   In the lower center of FIG. 9, a determination table corresponding to the display image of the fourth specific example is illustrated. In the display image of the fourth specific example, “eyes”, “mouths”, and “nose” are not visible at all, and only part of the right ear is visible. Therefore, "0", "0", "0" and "25" points are assigned to the respective basic values of "eye", "mouth", "nose" and "ear".

この結果、「目」、「口」、「鼻」の部位別判定指標値は、重みの値に関わらず、いずれも「0.0」となる。一方、「耳」に関しては、基礎値の「25ポイント」に、面積比重みW1の「0.5」、透明度重みW2の「1.0」及び個性重みW3の「0.4」が夫々乗ぜられて、部位別判定指標値は「5.0」となる。これらの部位別判定指標値を加算して、総合判定指標値が「5.0」として算出される。この総合判定指標値は、閾値「30.0」よりも小さいため、匿名化処理を実施しない、と判定される。   As a result, the site-specific determination index values of “eye”, “mouth”, and “nose” are all “0.0” regardless of the weight value. On the other hand, for “ears”, the basic value “25 points” is multiplied by the area ratio weight W1 of “0.5”, the transparency weight W2 of “1.0”, and the individuality weight W3 of “0.4”, respectively. As a result, the determination index value for each part becomes “5.0”. The determination index value for each part is added to calculate the overall determination index value as "5.0". Since this comprehensive determination index value is smaller than the threshold value “30.0”, it is determined that the anonymization process is not performed.

図9右上部の表示画像は、図9の中央上部の表示画像と同じ画像であり、匿名化処理が行われていないこの画像が、ディスプレイ50に表示される。   The display image in the upper right part of FIG. 9 is the same as the display image in the upper center part of FIG. 9, and this image that has not been anonymized is displayed on the display 50.

図10は第5の具体例を示す図である。図10の中央上部に示すように、第5の具体例の表示画像は、第1の具体例の表示画像の頭部を、左向きに180度回転させた、即ち、後ろ向きの頭部のボリュームレンダリング画像である。   FIG. 10 is a diagram showing a fifth specific example. As shown in the upper center of FIG. 10, in the display image of the fifth specific example, the head of the display image of the first specific example is rotated 180 degrees leftward, that is, the volume rendering of the head facing backward. It is an image.

第5の具体例の表示画像は、第4の具体例の表示画像と同様に、「目」、「口」、「鼻」は全く見えておらず、左右の耳の一部が見えているだけである。そこで、「目」、「口」、「鼻」及び「耳」の夫々の基礎値に対して、「0」、「0」、「0」及び「25」ポイントが割り付けられている。   In the display image of the fifth specific example, like the display image of the fourth specific example, "eyes", "mouths", and "nose" are not visible at all, and part of the left and right ears are visible. Only. Therefore, "0", "0", "0" and "25" points are assigned to the respective basic values of "eye", "mouth", "nose" and "ear".

この結果、「目」、「口」、「鼻」の部位別判定指標値は、重みの値に関わらず、いずれも「0.0」となる。一方、「耳」に関しては、基礎値の「25ポイント」に、面積比重みW1の「1.0」、透明度重みW2の「1.0」及び個性重みW3の「0.4」が夫々乗ぜられて、部位別判定指標値は「10.0」となる。これらの部位別判定指標値を加算して、総合判定指標値が「10.0」として算出される。この総合判定指標値は、閾値「30.0」よりも小さいため、匿名化処理を実施しない、と判定される。   As a result, the site-specific determination index values of “eye”, “mouth”, and “nose” are all “0.0” regardless of the weight value. On the other hand, for “ears”, the basic value “25 points” is multiplied by the area ratio weight W1 of “1.0”, the transparency weight W2 of “1.0”, and the individuality weight W3 of “0.4”, respectively. As a result, the region-specific determination index value becomes “10.0”. The determination index value for each part is added to calculate the overall determination index value as “10.0”. Since this comprehensive determination index value is smaller than the threshold value “30.0”, it is determined that the anonymization process is not performed.

図10右上部の表示画像は、図10の中央上部の表示画像と同じ画像であり、匿名化処理が行われていないこの画像が、ディスプレイ50に表示される。   The display image in the upper right portion of FIG. 10 is the same image as the display image in the upper center of FIG. 10, and this image that has not been anonymized is displayed on the display 50.

図11は第6の具体例を示す図である。図11の中央上部に示すように、第6の具体例の表示画像は、第1の具体例の表示画像の頭部のうち、左目の部分だけが表示されるように拡大させたボリュームレンダリング画像である。   FIG. 11 is a diagram showing a sixth specific example. As shown in the upper center of FIG. 11, the display image of the sixth specific example is a volume rendering image enlarged so that only the left eye portion of the head of the display image of the first specific example is displayed. Is.

第6の具体例の表示画像では、第4の具体例の表示画像と同様に、「口」、「鼻」及び「耳」は全く見えておらず、左目のみが見えているだけである。そこで、「口」、「鼻」及び「耳」の基礎値には「0」ポイントが割り付けられ、「目」の基礎値のみに「25」ポイントが割り付けられている。   In the display image of the sixth specific example, like the display image of the fourth specific example, the "mouth", "nose", and "ear" are not visible at all, and only the left eye is visible. Therefore, “0” points are assigned to the basic values of “mouth”, “nose” and “ear”, and “25” points are assigned only to the basic values of “eye”.

この結果、「「口」、「鼻」及び「耳」の部位別判定指標値は、重みの値に関わらず、いずれも「0.0」となる。一方、「目」に関しては、基礎値の「25ポイント」に、面積比重みW1の「0.5」、透明度重みW2の「1.0」及び個性重みW3の「1.0」が夫々乗ぜられて、部位別判定指標値は「12.5」となる。これらの部位別判定指標値を加算して、総合判定指標値が「12.5」として算出される。この総合判定指標値は、閾値「30.0」よりも小さいため、匿名化処理を実施しない、と判定される。   As a result, the region-based determination index values of ““ mouth ”,“ nose ”and“ ear ”are all“ 0.0 ”regardless of the weight value. On the other hand, for the “eye”, the basic value “25 points” is multiplied by the area ratio weight W1 of “0.5”, the transparency weight W2 of “1.0”, and the individuality weight W3 of “1.0”, respectively. As a result, the region-specific determination index value becomes “12.5”. The determination index value for each part is added to calculate the overall determination index value as “12.5”. Since this comprehensive determination index value is smaller than the threshold value “30.0”, it is determined that the anonymization process is not performed.

図11右上部の表示画像は、図11の中央上部の表示画像と同じ画像であり、匿名化処理が行われていないこの画像が、ディスプレイ50に表示される。   The display image in the upper right part of FIG. 11 is the same as the display image in the upper center of FIG. 11, and this image that has not been anonymized is displayed on the display 50.

以上説明してきた第1の実施形態の医用画像閲覧装置100によれば、表示画像から被検体の個人を特定できるか否かを判定し、個人を特定できると判定された場合に表示画像に対して匿名化処理を施すものとしている。そして、回転/移動、拡大/縮小等のユーザの指示に応じて表示画像の表示状態が変更される毎に、個人を特定できるか否かをリアルタイムで判定し、その判定結果に応じて、匿名化処理をリアルタイムで行うものとしている。   According to the medical image browsing apparatus 100 of the first embodiment described above, it is determined whether the individual of the subject can be identified from the display image, and if it is determined that the individual can be identified, the display image is compared with the display image. Anonymization processing is performed. Then, each time the display state of the display image is changed in response to a user's instruction such as rotation / movement or enlargement / reduction, it is determined in real time whether or not an individual can be identified, and anonymity is determined according to the determination result. The conversion process is supposed to be performed in real time.

このような処理により、第1の実施形態の医用画像閲覧装置100を用いて、例えば、ある被検体の画像データを学会発表や医学部の教材等に使用するためにディスプレイ50を介して表示させる場合でも、表示画像から個人を特定することを防止することができる。また、匿名化処理は、元々の画像データを恒久的に加工するのではなく、画像データから生成した表示画像を加工する、或いは、画像データを加工する場合でも、表示画像を生成し、ディスプレイ50に表示している期間にだけ画像データを加工するものである。したがって、目、鼻、口、耳等の頭部の診断や治療に大きな支障をきたすことはない。例えば、顔全体を表示する第1の具体例(図6参照)の表示画像では、目、鼻、口等がマスキングされるものの、その後、ユーザ操作によって表示画像の表示状態を変更することによって、例えば目の診断や治療のために左目のみを拡大した第6の具体例(図11参照)の表示画像の表示状態に変更することにより、匿名化処理を簡単に解除することができる。   With such processing, when the medical image browsing apparatus 100 of the first embodiment is used to display image data of a certain subject through the display 50 for use in academic conference presentations, teaching materials of medical departments, etc. However, it is possible to prevent the individual from being specified from the displayed image. Further, the anonymization process does not permanently process the original image data, but processes the display image generated from the image data, or even when the image data is processed, generates the display image and displays it on the display 50. The image data is processed only during the period displayed in. Therefore, the diagnosis and treatment of the head such as eyes, nose, mouth, and ears will not be seriously affected. For example, in the display image of the first specific example (see FIG. 6) that displays the entire face, the eyes, nose, mouth, etc. are masked, but after that, by changing the display state of the display image by a user operation, For example, the anonymization process can be canceled easily by changing the display state of the display image of the sixth specific example (see FIG. 11) in which only the left eye is enlarged for eye diagnosis and treatment.

(第2の実施形態)
図12は、第2の実施形態の医用画像閲覧装置100の動作例を示すフローチャートである。第1の実施形態との相違点は、表示画像から個人を特定できるか否かの判定において、第1の実施形態で用いた判定テーブルを利用する方法に換えて、ステップST200の処理を付加し、人工知能(AI)技術を含む顔認識技術によって、表示画像から被検体の個人を特定できるか否かを判定する点である。
(Second embodiment)
FIG. 12 is a flowchart showing an operation example of the medical image browsing apparatus 100 according to the second embodiment. The difference from the first embodiment is that in determining whether an individual can be identified from a display image, the process of step ST200 is added instead of the method of using the determination table used in the first embodiment. It is a point to judge whether or not the individual of the subject can be specified from the displayed image by the face recognition technology including the artificial intelligence (AI) technology.

例えば、上述した表示画像に対して、人工知能を用いた顔認識を行わせ、人工知能が判定した個人を特定する際の確実性を示す信頼度等の指標値を取得し、この指標値に対する閾値判定によって、匿名化処理を実施するか否かを判定してもよい。   For example, with respect to the display image described above, face recognition using artificial intelligence is performed, and an index value such as reliability indicating the certainty when identifying an individual for which artificial intelligence is determined is acquired, and the index value Whether or not to perform the anonymization process may be determined by the threshold value determination.

第2の実施形態の医用画像閲覧装置100においても、第1の実施形態と同様の効果を得ることができる。なお、第2の実施形態の構成例は、第1の実施形態の構成例(図2に示すブロック図)と同じである。   Also in the medical image browsing apparatus 100 of the second embodiment, the same effect as that of the first embodiment can be obtained. The configuration example of the second embodiment is the same as the configuration example (block diagram shown in FIG. 2) of the first embodiment.

(第3の実施形態)
図13は、第3の実施形態の医用画像閲覧装置100の動作例を示すフローチャートである。第3の実施形態との相違点は、表示画像から個人を特定できるか否かを判定するステップST103の処理の前に、匿名化処理が必要か否かを判定するステップST300を付加している点である。
(Third Embodiment)
FIG. 13 is a flowchart showing an operation example of the medical image browsing apparatus 100 according to the third embodiment. The difference from the third embodiment is that step ST300 for determining whether anonymization processing is necessary is added before the processing of step ST103 for determining whether an individual can be identified from the display image. It is a point.

例えば、ある被検体の診断のためにその担当医のオーダで撮像した画像をその担当医が閲覧しようとする場合には、その担当医はその被検体個人の顔を知っているため、そもそも匿名化処理は不要である。このような場合には、その画像の撮像をオーダした担当医の識別情報と、閲覧しているユーザ(即ち、同じ担当医)の識別情報とから、匿名化処理が不要であると判定することができる。   For example, if a doctor in charge wants to view an image taken in the order of the doctor in charge for diagnosing a subject, the doctor in charge knows the face of the subject individually, and thus the anonymous No conversion processing is required. In such a case, it is determined that the anonymization process is unnecessary based on the identification information of the doctor in charge of capturing the image and the identification information of the user who is browsing (that is, the same doctor). You can

また、被検体を撮像した病院内で画像データを使用するときには匿名化処理は不要とし、学会発表等、病院外で画像データを使用するときには匿名化処理を必要とするケースもあり得る。このような場合、画像データの規格情報に基づいて、匿名化処理が必要か否かを判定することもできる。例えば、画像データの規格情報が、DICOM規格である場合には病院内での使用が想定されるため、匿名化処理は不要であると判定する。その一方で、画像データの規格情報がJPEG等の汎用的な規格である場合には、匿名化処理が必要であると判定することもできる。   Further, there is a case in which the anonymization process is unnecessary when the image data is used in the hospital where the image of the subject is imaged, and the anonymization process is necessary when the image data is used outside the hospital, such as at a conference presentation. In such a case, it is possible to determine whether the anonymization process is necessary based on the standard information of the image data. For example, when the standard information of the image data is the DICOM standard, use in a hospital is assumed, and therefore it is determined that the anonymization process is unnecessary. On the other hand, if the standard information of the image data is a general-purpose standard such as JPEG, it can be determined that the anonymization process is necessary.

第3の実施形態の医用画像閲覧装置100によれば、第1、第2の実施形態の効果に加えて、匿名化処理の要、不要を、簡便に判定することができる。   According to the medical image browsing apparatus 100 of the third embodiment, in addition to the effects of the first and second embodiments, whether or not the anonymization process is necessary can be easily determined.

(他の実施形態)
図14は、上述した医用画像閲覧装置100から、マウスやキーボード等の入力デバイス40と、ディスプレイ50とを取り除いた構成の医用画像処理装置530の構成例を示す図である。医用画像処理装置530は、いわば、ワークステーション本体部分の構成に該当する装置である。図14に示した構成から判るように、医用画像処理装置530の構成は前述した医用画像閲覧装置100と実質的に同じであり、説明を省略する。医用画像処理装置530によっても、前述した医用画像閲覧装置100の各実施形態と同様の効果が得られる。
(Other embodiments)
FIG. 14 is a diagram showing a configuration example of a medical image processing apparatus 530 in which the input device 40 such as a mouse and a keyboard and the display 50 are removed from the medical image browsing apparatus 100 described above. The medical image processing apparatus 530 is, so to speak, an apparatus corresponding to the configuration of the workstation main body. As can be seen from the configuration shown in FIG. 14, the configuration of the medical image processing apparatus 530 is substantially the same as that of the medical image browsing apparatus 100 described above, and a description thereof will be omitted. The medical image processing apparatus 530 also has the same effects as those of the above-described embodiments of the medical image browsing apparatus 100.

図15は、前述した医用画像閲覧装置100の構成を、X線CT装置511、MRI装置512、超音波診断装置513などの医用画像診断装置510(即ち、モダリティ510)に組み込んだ構成例を示す図である。一般に、医用画像診断装置510は、ガントリやプローブを有する撮像部(即ち、スキャナ)600と、制御部とを有している。制御部は、撮像部600で撮像したデータを処理して画像を生成する処理回路20や、生成した画像を表示するディスプレイ50等を有している。図15に示した構成から判るように、医用画像診断装置510の構成は前述した医用画像閲覧装置100と実質的に同じであり、説明を省略する。医用画像診断装置510によっても、前述した医用画像閲覧装置100の各実施形態と同様の効果が得られる。   FIG. 15 shows a configuration example in which the configuration of the medical image browsing apparatus 100 described above is incorporated into a medical image diagnostic apparatus 510 (that is, modality 510) such as an X-ray CT apparatus 511, an MRI apparatus 512, and an ultrasonic diagnostic apparatus 513. It is a figure. In general, the medical image diagnostic apparatus 510 has an imaging unit (that is, a scanner) 600 having a gantry and a probe, and a control unit. The control unit includes a processing circuit 20 that processes data captured by the image capturing unit 600 to generate an image, a display 50 that displays the generated image, and the like. As can be seen from the configuration shown in FIG. 15, the configuration of the medical image diagnostic apparatus 510 is substantially the same as that of the medical image browsing apparatus 100 described above, and a description thereof will be omitted. The medical image diagnostic apparatus 510 can also achieve the same effects as those of the above-described embodiments of the medical image browsing apparatus 100.

なお、上述した各実施形態では、被検体の個人を特定できるか否かの判定の対象を、主に「顔(或いは頭部)」とし、さらに、判定に用いる要素として、「目」、「口」、「鼻」「耳」等の個々の解剖学的部位を用いる例を説明してきた。   In each of the above-described embodiments, the target of the determination as to whether or not the individual of the subject can be identified is mainly the “face (or head)”, and further, the elements used for the determination are “eyes”, “ Examples have been described using individual anatomical parts such as the "mouth," "nose," "ear."

しかしながら、各実施形態における判定の対象や、判定に用いる要素は、これらに限定されるものではなく、被検体の、より広い範囲を判定の対象にすることもできるし、或いは、逆に、より狭い範囲を判定の対象にすることもできる。   However, the determination target in each embodiment and the elements used for the determination are not limited to these, and a wider range of the subject can be the determination target, or conversely, more It is also possible to set a narrow range as a determination target.

例えば、被検体の個人を特定できるか否かの判定の対象を、「上半身全体」とし、判定に用いる要素として、上半身の内部の1つ又は2つ以上の解剖学的部位、例えば、肋骨走行の形態や頭部形状等を用いてもよい。   For example, the target of the determination as to whether or not the individual of the subject can be identified is the “entire upper body”, and the element used for the determination is one or more anatomical parts inside the upper body, for example, rib running. The shape or the head shape may be used.

また例えば、被検体の個人を特定できるか否かの判定の対象を、「顔の中の特定の部位」、例えば「鼻」とし、判定に用いる要素として、鼻の中の解剖学的部位、例えば、鼻腔や鼻骨等を用いてもよい。   Further, for example, the target of the determination of whether the individual of the subject can be specified is "a specific site in the face", for example, "nose", and as an element used for the determination, an anatomical site in the nose, For example, a nasal cavity or a nasal bone may be used.

以上説明した少なくとも1つの実施形態によれば、診断や治療といった医用画像の本来の目的を損ねることなく、医用画像から個人を判別し特定されることを防止することができる。   According to at least one embodiment described above, it is possible to prevent an individual from being discriminated and specified from a medical image without impairing the original purpose of the medical image such as diagnosis and treatment.

なお、各実施形態の記載における画像データ取得機能及び画像処理機能は、特許請求の範囲の記載における生成部の一例である。また、各実施形態の記載における判定機能及び匿名化処理機能は、特許請求の範囲の記載における判定部及び処理部の一例である。   The image data acquisition function and the image processing function described in each embodiment are examples of the generation unit described in the claims. Further, the determination function and the anonymization processing function described in each embodiment are examples of the determination unit and the processing unit described in the claims.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

20 処理回路
21 画像データ取得機能
22 画像処理機能
23 判定機能
24 匿名化処理機能
30 記憶回路
40 入力デバイス
50 ディスプレイ
100 医用画像閲覧装置
510 医用画像診断装置
520 画像サーバ
530 医用画像処理装置
20 Processing Circuit 21 Image Data Acquisition Function 22 Image Processing Function 23 Judgment Function 24 Anonymization Processing Function 30 Storage Circuit 40 Input Device 50 Display 100 Medical Image Viewing Device 510 Medical Image Diagnostic Device 520 Image Server 530 Medical Image Processing Device

Claims (13)

ディスプレイと、
被検体が撮像された医療用の画像データから、前記ディスプレイに表示するための表示画像を、ユーザ指示に応じて生成する生成部と、
前記表示画像の表示状態が前記ユーザ指示に応じて変更される毎に、前記表示画像から前記被検体の個人を特定できるか否かを判定する判定部と、
前記表示画像から個人が特定できると判定された場合に、前記表示画像から個人が特定できないようにする匿名化処理を、前記表示画像の表示状態が変更される毎にリアルタイムで行い、前記匿名化処理後の前記表示画像を前記ディスプレイに表示させる処理部と、
を備える医用画像閲覧装置。
Display,
A generation unit that generates a display image to be displayed on the display from medical image data of a subject imaged, according to a user instruction,
Every time the display state of the display image is changed according to the user instruction, a determination unit that determines whether the individual of the subject can be specified from the display image,
When it is determined that the individual can be identified from the display image, anonymization processing for preventing the individual from being identified from the display image is performed in real time every time the display state of the display image is changed, and the anonymization is performed. A processing unit for displaying the display image after processing on the display,
A medical image browsing device including.
前記判定部は、
前記表示画像から個人を特定するために必要な解剖学的部位を検出し、
前記解剖学的部位毎に、個人の特定のし易さを表わす部位別判定指標値を算出し、
前記部位別判定指標値を用いて前記表示画像から個人が特定できるか否かを判定する、
請求項1に記載の医用画像閲覧装置。
The determination unit,
Detecting the anatomical site necessary to identify an individual from the display image,
For each of the anatomical parts, calculate a judgment index value for each part representing the ease of individual identification,
It is determined whether an individual can be identified from the display image using the determination index value for each part,
The medical image browsing apparatus according to claim 1.
前記判定部は、
前記解剖学的部位毎に割り当てられた基礎値を重み付けして前記部位別判定指標値を算出し、
前記部位別判定指標値を加算して得られる総合判定指標値に対する閾値判定によって、前記表示画像から個人が特定できるか否かを判定する、
請求項2に記載の医用画像閲覧装置。
The determination unit,
Calculate the determination index value for each site by weighting the basic value assigned to each anatomical site,
By the threshold determination for the total determination index value obtained by adding the region-based determination index value, it is determined whether the individual can be identified from the display image,
The medical image browsing apparatus according to claim 2.
前記判定部は、
前記表示画像における前記解剖学的部位の露出の度合いを用いて前記基礎値に重み付けして、前記部位別判定指標値を算出する、
請求項3に記載の医用画像閲覧装置。
The determination unit,
Weighting the basic value using the degree of exposure of the anatomical region in the display image, to calculate the region-based determination index value,
The medical image browsing apparatus according to claim 3.
前記解剖学的部位の露出の度合いは、前記解剖学的部位のそれぞれの全体が見えているときの前記解剖学的部位の面積に対する、前記表示画像の前記表示状態において見えている前記解剖学的部位の面積の比である、
請求項4に記載の医用画像閲覧装置。
The degree of exposure of the anatomical region is the anatomical region visible in the display state of the display image with respect to the area of the anatomical region when the entire anatomical region is visible. Is the ratio of the area of the parts,
The medical image browsing apparatus according to claim 4.
前記解剖学的部位の露出の度合いは、前記解剖学的部位のそれぞれの全体が見えているときの面積に対する、前記表示画像の前記表示状態において見えている前記解剖学的部位の面積の比と、前記解剖学的部位に割り付けられている透明度との積である、
請求項4に記載の医用画像閲覧装置。
The degree of exposure of the anatomical region is the ratio of the area of the anatomical region visible in the display state of the display image to the area when the entire anatomical region is visible. , The product of the transparency assigned to the anatomical part,
The medical image browsing apparatus according to claim 4.
前記判定部は、
前記解剖学的部位の形状が標準的な形状とどの程度異なっているかを示す個性の強さを重みとして、前記部位別判定指標値に更に重み付けし、前記総合判定指標値を算出する、
請求項4に記載の医用画像閲覧装置。
The determination unit,
As the weight of the individuality indicating how different the shape of the anatomical part is from the standard shape, the part-based judgment index value is further weighted, and the total judgment index value is calculated.
The medical image browsing apparatus according to claim 4.
前記処理部は、
個人の特定のし易さを表わす前記部位別判定指標値の大きさに基づいて、前記表示画像及び前記画像データの少なくとも一方の、解剖学的部位に対応する領域を加工して、前記匿名化処理を行う、
請求項2に記載の医用画像閲覧装置。
The processing unit is
Based on the size of the region-specific determination index value representing the ease of identifying an individual, at least one of the display image and the image data is processed into a region corresponding to an anatomical region, and the anonymization is performed. Do the processing,
The medical image browsing apparatus according to claim 2.
前記匿名化処理は、前記解剖学的部位の上皮領域に対する、マスキング処理、透明化処理、平滑化処理、変形処理、脱毛処理、及び、増毛処理の少なくとも1つの処理を含む、
請求項8に記載の医用画像閲覧装置。
The anonymization process includes at least one process of a masking process, a clarification process, a smoothing process, a deforming process, a hair removing process, and a hair increasing process for the epithelial region of the anatomical site,
The medical image browsing apparatus according to claim 8.
前記判定部は、人工知能技術を含む顔認識技術によって、前記表示画像から前記被検体の個人を特定できるか否かを判定する、
請求項1に記載の医用画像閲覧装置。
The determination unit determines whether or not the individual of the subject can be identified from the display image by a face recognition technique including an artificial intelligence technique,
The medical image browsing apparatus according to claim 1.
前記画像データは、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、又は、超音波診断装置によって取得された2次元、又は、3次元の画像データである、
請求項1乃至10のいずれか1項に記載の医用画像閲覧装置。
The image data is two-dimensional or three-dimensional image data acquired by an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus.
The medical image browsing apparatus according to any one of claims 1 to 10.
被検体が撮像された医療用の画像データから、ディスプレイに表示するための表示画像を、ユーザ指示に応じて生成する生成部と、
前記表示画像の表示状態が前記ユーザ指示に応じて変更される毎に、前記表示画像から前記被検体の個人を特定できるか否かを判定する判定部と、
前記表示画像から個人が特定できると判定された場合に、前記表示画像及び前記画像データの少なくとも一方を加工して、前記表示画像から個人が特定できないようにする匿名化処理を、前記表示画像の表示状態が変更される毎にリアルタイムで行う、処理部と、
を備える医用画像処理装置。
A generation unit that generates a display image to be displayed on a display from medical image data obtained by imaging an object according to a user instruction,
Every time the display state of the display image is changed according to the user instruction, a determination unit that determines whether the individual of the subject can be specified from the display image,
When it is determined that the individual can be identified from the display image, anonymization processing for processing at least one of the display image and the image data so that the individual cannot be identified from the display image is performed. A processing unit that performs in real time each time the display state is changed,
A medical image processing apparatus comprising:
被検体を撮像する撮像部と、
ディスプレイと、
被検体が撮像された医療用の画像データから、前記ディスプレイに表示するための表示画像を、ユーザ指示に応じて生成する生成部と、
前記表示画像の表示状態が前記ユーザ指示に応じて変更される毎に、前記表示画像から前記被検体の個人を特定できるか否かを判定する判定部と、
前記表示画像から個人が特定できると判定された場合に、前記表示画像及び前記画像データの少なくとも一方を加工して、前記表示画像から個人が特定できないようにする匿名化処理を、前記表示画像の表示状態が変更される毎にリアルタイムで行い、前記匿名化処理後の前記表示画像を前記ディスプレイに表示させる、処理部と、
を備える医用画像診断装置。
An imaging unit for imaging the subject,
Display,
A generation unit that generates a display image to be displayed on the display from medical image data of a subject imaged, according to a user instruction,
Every time the display state of the display image is changed according to the user instruction, a determination unit that determines whether the individual of the subject can be specified from the display image,
When it is determined that the individual can be identified from the display image, anonymization processing for processing at least one of the display image and the image data so that the individual cannot be identified from the display image is performed. Performed in real time every time the display state is changed, and display the display image after the anonymization process on the display, a processing unit,
A medical image diagnostic apparatus comprising:
JP2018195988A 2018-10-17 2018-10-17 Medical image viewing device, medical image processing device, and medical image diagnostic device Active JP7154098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018195988A JP7154098B2 (en) 2018-10-17 2018-10-17 Medical image viewing device, medical image processing device, and medical image diagnostic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018195988A JP7154098B2 (en) 2018-10-17 2018-10-17 Medical image viewing device, medical image processing device, and medical image diagnostic device

Publications (2)

Publication Number Publication Date
JP2020062215A true JP2020062215A (en) 2020-04-23
JP7154098B2 JP7154098B2 (en) 2022-10-17

Family

ID=70387855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195988A Active JP7154098B2 (en) 2018-10-17 2018-10-17 Medical image viewing device, medical image processing device, and medical image diagnostic device

Country Status (1)

Country Link
JP (1) JP7154098B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200117639A (en) * 2019-04-05 2020-10-14 고려대학교 산학협력단 Ultrasonic Imaging Apparatus for guiding ultrasonic inspection position
WO2023002661A1 (en) 2021-07-21 2023-01-26 ソニーグループ株式会社 Information processing system, information processing method, and program
JPWO2023042294A1 (en) * 2021-09-15 2023-03-23

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243256A (en) * 2006-03-06 2007-09-20 Dainippon Printing Co Ltd Medical image encryption device
US20170112439A1 (en) * 2015-10-22 2017-04-27 Tyto Care Ltd. System, method and computer program product for physiological monitoring
EP3188058A1 (en) * 2015-12-30 2017-07-05 Adam Szczepanik A method and a system for anonymizing image data in medical images
US20180046758A1 (en) * 2016-08-09 2018-02-15 General Electric Company Methods and apparatus for recording anonymized volumetric data from medical image visualization software

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243256A (en) * 2006-03-06 2007-09-20 Dainippon Printing Co Ltd Medical image encryption device
US20170112439A1 (en) * 2015-10-22 2017-04-27 Tyto Care Ltd. System, method and computer program product for physiological monitoring
EP3188058A1 (en) * 2015-12-30 2017-07-05 Adam Szczepanik A method and a system for anonymizing image data in medical images
US20180046758A1 (en) * 2016-08-09 2018-02-15 General Electric Company Methods and apparatus for recording anonymized volumetric data from medical image visualization software

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200117639A (en) * 2019-04-05 2020-10-14 고려대학교 산학협력단 Ultrasonic Imaging Apparatus for guiding ultrasonic inspection position
KR102382614B1 (en) 2019-04-05 2022-04-04 고려대학교 산학협력단 Ultrasonic Imaging Apparatus for guiding ultrasonic inspection position
WO2023002661A1 (en) 2021-07-21 2023-01-26 ソニーグループ株式会社 Information processing system, information processing method, and program
JPWO2023042294A1 (en) * 2021-09-15 2023-03-23
WO2023042294A1 (en) * 2021-09-15 2023-03-23 三菱電機株式会社 Air-conditioning operation device, air-conditioning operation program, and air-conditioning system

Also Published As

Publication number Publication date
JP7154098B2 (en) 2022-10-17

Similar Documents

Publication Publication Date Title
US11594002B2 (en) Overlay and manipulation of medical images in a virtual environment
US10129553B2 (en) Dynamic digital image compression based on digital image characteristics
US10222954B2 (en) Image display apparatus, display control apparatus and display control method using thumbnail images
US7376903B2 (en) 3D display system and method
JP4820680B2 (en) Medical image display device
CN106569673B (en) Display method and display equipment for multimedia medical record report
JP5345934B2 (en) Data set selection from 3D rendering for viewing
JP6396310B2 (en) Method and apparatus for displaying to a user a transition between a first rendering projection and a second rendering projection
JP6688560B2 (en) Medical image processing apparatus and medical image processing method
US20050237324A1 (en) Method and system for panoramic display of medical images
JP6445784B2 (en) Image diagnosis support apparatus, processing method thereof, and program
JP2017051591A (en) Information processing device and method thereof, information processing system, and computer program
US8031917B2 (en) System and method for smart display of CAD markers
JP7154098B2 (en) Medical image viewing device, medical image processing device, and medical image diagnostic device
US20050285844A1 (en) 3D display system and method
US10324582B2 (en) Medical image display apparatus, method for controlling the same
Abou El-Seoud et al. An interactive mixed reality ray tracing rendering mobile application of medical data in minimally invasive surgeries
JP5398791B2 (en) Medical image display device
JP2016001372A (en) Information processing device, information processing method and program
JP7187608B2 (en) Apparatus and method for visualizing digital chest tomosynthesis and anonymized display data export
Zörnack et al. Evaluating surface visualization methods in semi-transparent volume rendering in virtual reality
JP6327966B2 (en) MEDICAL IMAGE DISPLAY DEVICE, DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, PROGRAM
Klein et al. Greater benefits of deep learning-based computer-aided detection systems for finding small signals in 3D volumetric medical images
KR20230033165A (en) Apparatus and method for automatically fitting and displaying region of interest in medical image to window
EP4524900A1 (en) Method and system for improved interaction with medical 2d and 3d visualization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150