[go: up one dir, main page]

JP2007044239A - Medical image diagnostic apparatus, medical image processing device and medical image processing program - Google Patents

Medical image diagnostic apparatus, medical image processing device and medical image processing program Download PDF

Info

Publication number
JP2007044239A
JP2007044239A JP2005231692A JP2005231692A JP2007044239A JP 2007044239 A JP2007044239 A JP 2007044239A JP 2005231692 A JP2005231692 A JP 2005231692A JP 2005231692 A JP2005231692 A JP 2005231692A JP 2007044239 A JP2007044239 A JP 2007044239A
Authority
JP
Japan
Prior art keywords
information
image
medical image
extracted
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005231692A
Other languages
Japanese (ja)
Inventor
Nobuyuki Konuma
伸行 小沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2005231692A priority Critical patent/JP2007044239A/en
Publication of JP2007044239A publication Critical patent/JP2007044239A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for suitably erasing accompanying information embedded in a medical image. <P>SOLUTION: The medical image diagnostic apparatus 1 of the present invention comprises an image forming part 10 which forms a medical image based on the data reflecting inside configuration of a subject, an accompanying information extract section 15 for extracting accompanying information embedded in the image for output from the medical image, an accompanying information erasing part 17 for erasing extracted accompanying information from the image for output, a communication interface 18 for outputting the image for output from which accompanying information is erased to the outside database 30, and an image outputting interface 19 for outputting the image for output from which accompanying information is erased to the image outputting medium 40. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、医用画像診断装置、医用画像処理装置及び医用画像処理プログラムに関し、より具体的には、医用画像に埋め込まれた付帯情報を消去する技術に関連するものである。   The present invention relates to a medical image diagnostic apparatus, a medical image processing apparatus, and a medical image processing program, and more specifically to a technique for erasing incidental information embedded in a medical image.

現在、X線撮影装置、X線CT装置、MRI装置、超音波診断装置、核医学診断装置などの各種医用画像診断装置が、医療現場において広く用いられている。このような医用画像診断装置によって取得された医用画像は、各種の付帯情報とともにモニタ表示され、読影作業等に供される。   Currently, various medical image diagnostic apparatuses such as an X-ray imaging apparatus, an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus, and a nuclear medicine diagnostic apparatus are widely used in the medical field. A medical image obtained by such a medical image diagnostic apparatus is displayed on a monitor together with various incidental information, and is used for interpretation work or the like.

この「付帯情報」は、医用画像上に事後的に付加される情報を意味し、任意の言語の表記文字(たとえば漢字、平仮名、片仮名、アルファベット、数字等)の組み合わせを含む文字列情報や、各種の記号(たとえば句読点、括弧、コロン等)からなる記号情報などによって形成されている。なお、記号情報をも含めて「文字」という用語を用いることがある。   This “accompanying information” means information added later on the medical image, and includes character string information including a combination of characters written in any language (for example, kanji, hiragana, katakana, alphabet, numbers, etc.) It is formed by symbol information composed of various symbols (for example, punctuation marks, parentheses, colons, etc.). Note that the term “character” may be used including symbol information.

文字列情報の一例としては、患者ID、生年月日、性別等の患者の個人情報や、検査年月日、検査時刻、検査部位、検査条件、画像番号等の検査情報などがある。   Examples of character string information include patient personal information such as patient ID, date of birth, and sex, and examination information such as examination date, examination time, examination site, examination condition, and image number.

付帯情報が付加された医用画像をモニタ表示する場合、一般に、以下に説明する第1、2の表示態様のいずれかが適用される。   When a medical image to which supplementary information is added is displayed on a monitor, generally, one of the first and second display modes described below is applied.

第1の表示態様は、医用画像診断装置により取得された医用画像の画像データと付帯情報のデータとがそれぞれ別個に形成されている場合(たとえば特許文献1参照)に、それらを重ね合わせて出力用画像を形成し、その出力用画像をモニタ表示する手法である。この手法にて表示される医用画像としては、CT画像やMRI画像のように、被検体の内部形態を反映するデータを収集し、それを再構成して得られる医用画像などがある。   In the first display mode, when the image data of the medical image acquired by the medical image diagnostic apparatus and the data of the incidental information are formed separately (see, for example, Patent Document 1), they are superimposed and output. This is a method of forming a production image and displaying the output image on a monitor. Examples of medical images displayed by this method include medical images obtained by collecting data reflecting the internal form of a subject and reconstructing the data, such as CT images and MRI images.

一方、第2の表示態様は、医用画像に付帯情報を埋め込んで出力用画像を形成し、それをモニタ表示する手法である。すなわち、画像表示時に2つのデータ(医用画像、付帯情報)を重ね合わせる第1の表示態様に対し、この第2の表示態様は、それら2つのデータを事前に単一データ(出力用画像)に加工し、それをモニタ表示する点が異なる。   On the other hand, the second display mode is a technique in which incidental information is embedded in a medical image to form an output image, which is displayed on a monitor. That is, in contrast to the first display mode in which two data (medical image and supplementary information) are overlapped at the time of image display, this second display mode is to convert the two data into a single data (output image) in advance. The difference is that it is processed and displayed on the monitor.

この第2の表示態様が適用される出力用画像としては、医用画像をリアルタイム表示するときの表示画面のキャプチャ画像などがある。たとえば超音波診断装置によるリアルタイム診断時の表示画面には、順次得られる超音波画像とともに患者ID等の付帯情報が同時に表示されている。そのキャプチャ画像は、超音波画像に付帯情報を埋め込んだ単一のデータとして保存される。   An output image to which the second display mode is applied includes a captured image of a display screen when a medical image is displayed in real time. For example, on the display screen at the time of real-time diagnosis by the ultrasonic diagnostic apparatus, accompanying information such as a patient ID is simultaneously displayed together with sequentially obtained ultrasonic images. The captured image is stored as a single data in which incidental information is embedded in an ultrasonic image.

ところで、医用画像を学会や論文等で発表したりホームページ等に掲載する場合、あるいは、医用画像を郵送したりインターネット経由で送信する場合などには、患者のプライバシー保護等の観点から、その医用画像に付加された付帯情報を消去しておく必要がある。なお、「付帯情報を消去する」とは、医用画像を表示させるときに当該付帯情報を隠蔽すること、すなわち当該付帯情報を視認不可能な状態にすることを意味する。   By the way, when presenting medical images in academic societies, papers, etc., posting them on homepages, etc., or when sending medical images by mail or via the Internet, the medical images are used from the viewpoint of protecting patient privacy. It is necessary to delete the incidental information added to. Note that “deleting supplementary information” means concealing the supplementary information when displaying a medical image, that is, making the supplementary information invisible.

上記第1の表示態様にて表示される医用画像については、その医用画像の画像データと付帯情報のデータとがそれぞれ別々に形成されているので、画像データのみを選択的に表示処理に供することにより、付帯情報が消去された医用画像を容易にモニタ表示することが可能である。   For the medical image displayed in the first display mode, the image data of the medical image and the data of the incidental information are formed separately, so that only the image data is selectively subjected to display processing. Thus, it is possible to easily display the medical image from which the supplementary information has been deleted on the monitor.

一方、上記第2の表示態様にて表示される医用画像については、付帯情報が医用画像に埋め込まれているため、医用画像中から付帯情報のみを選択的に消去することは容易でない。現状においては、画像編集用のソフトウェア等を利用して付帯情報を手作業で消去する方法(たとえば、付帯情報に相当する画像領域を塗りつぶす方法等)などが適用されている。   On the other hand, for the medical image displayed in the second display mode, the supplementary information is embedded in the medical image, and therefore it is not easy to selectively delete only the supplementary information from the medical image. At present, a method of manually deleting incidental information using image editing software or the like (for example, a method of painting an image area corresponding to incidental information) is applied.

また、医用画像内の特定の画像領域に付帯情報を表示させるようにし、その特定の画像領域内を自動的に塗りつぶすことでその付帯情報を消去する構成を適用することも可能である。   In addition, it is possible to apply a configuration in which incidental information is displayed in a specific image area in a medical image, and the incidental information is erased by automatically filling the specific image area.

特開2005−81083号公報JP 2005-81083 A

しかしながら、付帯情報の消去を手作業で行う場合、操作者がどんなに注意を払っていたとしても、人為的な消去ミスが発生する可能性を拭い去ることはできない。特に、付帯情報が患者の画像上に重なって表示されている場合に人為的消去ミスが発生すると、画像自体が改ざんされて誤診を引き起こすおそれがある。更に、そのような手作業は煩雑であり、長時間を要することがある。   However, when manually deleting the incidental information, no matter how careful the operator is, the possibility of an artificial deletion error cannot be wiped out. In particular, when ancillary deletion errors occur when incidental information is displayed overlaid on a patient's image, the image itself may be tampered with and cause misdiagnosis. Furthermore, such manual work is cumbersome and may take a long time.

また、特定画像領域に表示された付帯情報を自動消去する構成においては、次のような問題が指摘されている。実用上、付帯情報の表示位置を変更したり、表示させる付帯情報を変更することがある。その場合、付帯情報を消去する度毎に、その表示領域を指定してやる必要がある。したがって、処理の自動化を図ったはずが、結局、手作業が介在してしまい不便である。   In addition, the following problems have been pointed out in the configuration in which the auxiliary information displayed in the specific image area is automatically deleted. In practice, the display position of the supplementary information may be changed, or the supplementary information to be displayed may be changed. In that case, it is necessary to designate the display area every time the auxiliary information is deleted. Therefore, although the process should have been automated, it is inconvenient because it involves manual work after all.

また、消去すべき付帯情報と消去の必要のない付帯情報とが混在する医用画像もあるが、従来の手法では、前者のみを選択的に自動消去することができないため、それらを手動で選択しなければならなかった。   In addition, there are medical images that contain both supplementary information to be deleted and supplementary information that does not need to be deleted. However, in the conventional method, only the former cannot be selectively automatically deleted, so these can be selected manually. I had to.

更に、付帯情報の消去に伴う医用画像の喪失範囲は小さい方が良いが、従来の手法では、喪失範囲が必要以上となる場合があった。たとえば、特定の画像領域を自動的に塗りつぶす構成においては、付帯情報の実際の表示範囲(たとえば氏名の長さ)に関係なくその画像領域全体が塗りつぶされてしまう。   Furthermore, it is better that the loss range of the medical image accompanying the deletion of the supplementary information is small, but in the conventional method, the loss range may be more than necessary. For example, in a configuration in which a specific image area is automatically filled, the entire image area is filled regardless of the actual display range of the supplementary information (for example, the length of the name).

本発明は、以上のような事情に鑑みてなされたもので、医用画像に埋め込まれた付帯情報を好適に自動消去することが可能な技術を提供することを目的としている。   The present invention has been made in view of the circumstances as described above, and an object thereof is to provide a technique capable of suitably automatically erasing incidental information embedded in a medical image.

上記目的を達成するために、請求項1に記載の発明は、被検体の内部形態を反映するデータに基づいて医用画像を形成する画像形成手段を有する医用画像診断装置であって、前記医用画像に付帯情報を埋め込んで形成された出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、前記抽出された付帯情報を前記出力用画像から消去する消去手段と、前記付帯情報が消去された出力用画像を出力する出力手段と、を備えることを特徴とする。   In order to achieve the above object, the invention according to claim 1 is a medical image diagnostic apparatus having an image forming means for forming a medical image based on data reflecting an internal form of a subject, the medical image Extracting means for extracting the supplementary information embedded in the output image formed by embedding the supplementary information, erasing means for erasing the extracted supplementary information from the output image, and the supplementary information has been erased Output means for outputting an output image.

また、請求項2に記載の発明は、請求項1に記載の医用画像診断装置であって、前記付帯情報は文字列情報を含み、前記抽出手段は、前記出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出する、ことを特徴とする。   The invention according to claim 2 is the medical image diagnostic apparatus according to claim 1, wherein the incidental information includes character string information, and the extraction unit analyzes the entire output image. The character string information embedded in the output image is extracted for each character.

また、請求項3に記載の発明は、請求項2に記載の医用画像診断装置であって、前記抽出された文字の輪郭を検出する輪郭検出手段を更に備え、前記消去手段は、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去する、ことを特徴とする。   The invention according to claim 3 is the medical image diagnostic apparatus according to claim 2, further comprising contour detecting means for detecting a contour of the extracted character, wherein the erasing means is the detected Character string information is erased by changing the pixel value of the pixel in the inner region of the contour to a predetermined value.

また、請求項4に記載の発明は、請求項2に記載の医用画像診断装置であって、前記消去手段は、前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、を備え、前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去する、
ことを特徴とする。
The invention according to claim 4 is the medical image diagnostic apparatus according to claim 2, wherein the erasing unit divides the region including the extracted character and its peripheral region into a plurality of partial regions. A dividing unit; a pixel value acquiring unit that acquires a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions; Pixel value selection means for selecting a pixel value that occupies the maximum range in the partial peripheral region based on the acquired pixel value for the partial region, and the pixel value of each pixel in the partial region is selected. Erase the character by changing it to a pixel value
It is characterized by that.

また、請求項5に記載の発明は、請求項1に記載の医用画像診断装置であって、前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段を更に備え、前記消去手段は、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去する、ことを特徴とする。   The invention according to claim 5 is the medical image diagnostic apparatus according to claim 1, wherein the output image from which the supplementary information is extracted by the extraction unit is analyzed to represent the internal form of the subject. The image processing apparatus further includes a superimposition region detecting unit that detects a superimposition region where the subject image and the extracted supplementary information overlap, and the erasing unit extracts a portion outside the detected superimposition region of the extracted supplementary information. It is characterized by selectively erasing.

また、請求項8に記載の発明は、請求項1ないし請求項5のいずれか一項に記載の医用画像診断装置であって、前記形成された出力用画像は、複数の静止画像からなる動画像であり、前記抽出手段は、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、前記消去手段は、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去する、ことを特徴とする。   The invention according to claim 8 is the medical image diagnostic apparatus according to any one of claims 1 to 5, wherein the formed output image is a moving image including a plurality of still images. And the extraction unit extracts the supplementary information embedded in the plurality of still images of the moving image for each still image, and the erasing unit extracts the extracted information from each of the plurality of still images. The supplementary information is erased for each still image.

また、請求項11に記載の発明は、請求項1ないし請求項10のいずれか一項に記載の医用画像診断装置であって、前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段と、前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段と、を更に備え、前記消去手段は、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去する、ことを特徴とする。   The invention according to claim 11 is the medical image diagnostic apparatus according to any one of claims 1 to 10, wherein the incidental information includes one or more character string information and each character. Storage means for preliminarily storing erasure target specifying information for specifying the identification information of character string information to be erased among the one or more character string information, including identification information for identifying the type of column information; Erasure target determination means for determining whether the identification information extracted by the extraction means is specified by the erasure target specifying information, wherein the erasure means determines that the extracted identification information is specified. The character string information identified by the identification information is selectively deleted.

また、請求項13に記載の発明は、被検体の内部形態を反映するデータに基づいて形成された医用画像を処理する医用画像処理装置であって、前記医用画像に付帯情報を埋め込んで形成された出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、前記抽出された付帯情報を前記出力用画像から消去する消去手段と、前記付帯情報が消去された出力用画像を出力する出力手段と、を備えることを特徴とする。   According to a thirteenth aspect of the present invention, there is provided a medical image processing apparatus for processing a medical image formed based on data reflecting an internal form of a subject, and is formed by embedding incidental information in the medical image. Extraction means for extracting auxiliary information embedded in the output image, erasure means for erasing the extracted auxiliary information from the output image, and output means for outputting the output image from which the auxiliary information has been deleted And.

また、請求項14に記載の発明は、請求項13に記載の医用画像処理装置であって、前記付帯情報は文字列情報を含み、前記抽出手段は、前記出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出する、ことを特徴とする。   The invention according to claim 14 is the medical image processing apparatus according to claim 13, wherein the supplementary information includes character string information, and the extraction means analyzes the entire output image. The character string information embedded in the output image is extracted for each character.

また、請求項15に記載の発明は、請求項14に記載の医用画像処理装置であって、前記抽出された文字の輪郭を検出する輪郭検出手段を更に備え、前記消去手段は、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去する、ことを特徴とする。   The invention according to claim 15 is the medical image processing apparatus according to claim 14, further comprising contour detection means for detecting a contour of the extracted character, wherein the erasure means is detected. Character string information is erased by changing the pixel value of the pixel in the inner region of the contour to a predetermined value.

また、請求項16に記載の発明は、請求項14に記載の医用画像処理装置であって、前記消去手段は、前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、を備え、前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去する、ことを特徴とする。   The invention according to claim 16 is the medical image processing apparatus according to claim 14, wherein the erasing unit divides the region including the extracted character and its peripheral region into a plurality of partial regions. A dividing unit; a pixel value acquiring unit that acquires a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions; Pixel value selection means for selecting a pixel value that occupies the maximum range in the partial peripheral region based on the acquired pixel value for the partial region, and the pixel value of each pixel in the partial region is selected. The character is erased by changing to a pixel value.

また、請求項17に記載の発明は、請求項13に記載の医用画像処理装置であって、前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段を更に備え、前記消去手段は、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去する、ことを特徴とする。   The invention according to claim 17 is the medical image processing apparatus according to claim 13, wherein the output image from which the supplementary information is extracted by the extraction means is analyzed to represent the internal form of the subject. The image processing apparatus further includes a superimposition region detecting unit that detects a superimposition region where the subject image and the extracted supplementary information overlap, and the erasing unit extracts a portion outside the detected superimposition region of the extracted supplementary information. It is characterized by selectively erasing.

また、請求項18に記載の発明は、請求項13ないし請求項17のいずれか一項に記載の医用画像処理装置であって、前記形成された出力用画像は、複数の静止画像からなる動画像であり、前記抽出手段は、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、前記消去手段は、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去する、ことを特徴とする。   The invention according to claim 18 is the medical image processing apparatus according to any one of claims 13 to 17, wherein the formed output image is a moving image composed of a plurality of still images. And the extraction unit extracts the supplementary information embedded in the plurality of still images of the moving image for each still image, and the erasing unit extracts the extracted information from each of the plurality of still images. The supplementary information is erased for each still image.

また、請求項19に記載の発明は、請求項13ないし請求項18のいずれか一項に記載の医用画像処理装置であって、前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段と、前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段と、を更に備え、前記消去手段は、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去する、ことを特徴とする。   The invention according to claim 19 is the medical image processing apparatus according to any one of claims 13 to 18, wherein the auxiliary information includes at least one character string information and each character. Storage means for preliminarily storing erasure target specifying information for specifying the identification information of character string information to be erased among the one or more character string information, including identification information for identifying the type of column information; Erasure target determination means for determining whether the identification information extracted by the extraction means is specified by the erasure target specifying information, wherein the erasure means determines that the extracted identification information is specified. The character string information identified by the identification information is selectively deleted.

また、請求項20に記載の発明は、コンピュータを、被検体の内部形態を反映するデータに基づいて形成された医用画像に付帯情報を埋め込んで形成された出力用画像を受け付ける受付手段と、前記受け付けられた出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、前記抽出された付帯情報を前記出力用画像から消去する消去手段と、して機能させることを特徴とする医用画像処理プログラムである。   The invention according to claim 20 is a receiving means for receiving an output image formed by embedding incidental information in a medical image formed on the basis of data reflecting the internal form of the subject; A medical image processing program that functions as an extraction unit that extracts auxiliary information embedded in a received output image and an erasing unit that deletes the extracted auxiliary information from the output image. It is.

また、請求項21に記載の発明は、請求項20に記載の医用画像処理プログラムであって、前記付帯情報は文字列情報を含み、前記抽出手段を、前記受け付けられた出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出するように機能させる、ことを特徴とする。   The invention according to claim 21 is the medical image processing program according to claim 20, wherein the incidental information includes character string information, and the extraction means is configured to process the entire received output image. Analyzing and functioning to extract character string information embedded in the output image for each character.

また、請求項22に記載の発明は、請求項21に記載の医用画像処理プログラムであって、前記コンピュータを、前記抽出された文字の輪郭を検出する輪郭検出手段として更に機能させ、前記消去手段を、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去するように機能させる、ことを特徴とする。   The invention according to claim 22 is the medical image processing program according to claim 21, wherein the computer is further caused to function as contour detection means for detecting a contour of the extracted character, and the erasing means. Is made to function to erase the character string information by changing the pixel value of the pixel in the inner region of the detected contour to a predetermined value.

また、請求項23に記載の発明は、請求項21に記載の医用画像処理プログラムであって、前記消去手段を、前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、して機能させるとともに、前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去するように機能させる、ことを特徴とする。   The invention according to claim 23 is the medical image processing program according to claim 21, wherein the erasing unit divides an area composed of the extracted character and its peripheral area into a plurality of partial areas. A dividing unit; a pixel value acquiring unit that acquires a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions; The partial area is caused to function as a pixel value selection unit that selects a pixel value that occupies the maximum range in the partial peripheral area based on the acquired pixel value, and the pixel value of each pixel in each partial area is A function of erasing the character by changing to the selected pixel value is provided.

また、請求項24に記載の発明は、請求項20に記載の医用画像処理プログラムであって、前記コンピュータを、前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段として更に機能させ、前記消去手段を、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去するように機能させる、ことを特徴とする。   The invention according to claim 24 is the medical image processing program according to claim 20, wherein the computer analyzes the output image from which the additional information is extracted by the extracting means, and It further functions as a superimposition region detection unit that detects a superimposition region where the subject image representing the internal form and the extracted supplementary information overlap, and the erasure unit detects the superimposition detected from the extracted supplementary information. It is characterized by functioning to selectively erase a portion outside the region.

また、請求項25に記載の発明は、請求項20ないし請求項24のいずれか一項に記載の医用画像処理プログラムであって、前記形成された出力用画像は、複数の静止画像からなる動画像であり、前記抽出手段を、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出するように機能させ、前記消去手段を、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去するように機能させる、ことを特徴とする。   The invention according to claim 25 is the medical image processing program according to any one of claims 20 to 24, wherein the formed output image is a moving image composed of a plurality of still images. And the extraction means functions to extract, for each still image, the supplementary information embedded in the plurality of still images of the moving image, and the erasing means is operated from each of the plurality of still images. The extracted supplementary information is made to function so as to be erased for each still image.

また、請求項26に記載の発明は、請求項20ないし請求項25のいずれか一項に記載の医用画像処理プログラムであって、前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、前記コンピュータは、前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段を備え、前記コンピュータを、前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段として更に機能させ、前記消去手段を、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去するように機能させる、ことを特徴とする。   The invention according to claim 26 is the medical image processing program according to any one of claims 20 to 25, wherein the supplementary information includes at least one character string information and each character. A storage for preliminarily storing erasure target specifying information for specifying the identification information of the character string information to be erased among the one or more character string information. Means for determining whether the identification information extracted by the extraction means is specified by the erasure target specifying information, and causing the erasure means to be the extracted identification information. The character string information identified by the identification information is selectively erased when it is determined that the character string is specified.

請求項1、請求項13又は請求項20に記載の本発明によれば、出力用画像に埋め込まれた付帯情報を抽出し、その抽出された付帯情報を出力用画像から消去して出力するように構成されているので、埋め込まれた付帯情報を画像出力前に好適に自動消去することができる。それにより、従来のように手動で付帯情報を消去する場合のような消去ミスが無くなる。   According to the present invention, the supplementary information embedded in the output image is extracted, and the extracted supplementary information is erased from the output image and output. Therefore, the embedded supplementary information can be suitably automatically deleted before outputting the image. Thereby, there is no erasure error as in the case of manually erasing incidental information as in the prior art.

請求項2、請求項14又は請求項21に記載の本発明によれば、出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報(付帯情報)を各文字毎に抽出するように構成されているので、出力用画像の特定位置に埋め込まれた付帯情報だけでなく、任意の位置に埋め込まれた文字についても自動的に抽出して消去することができる。   According to the present invention described in claim 2, claim 14, or claim 21, the entire output image is analyzed, and character string information (additional information) embedded in the output image is determined for each character. Since it is configured to extract, not only incidental information embedded at a specific position of the output image, but also characters embedded at an arbitrary position can be automatically extracted and deleted.

請求項3、請求項15又は請求項22に記載の本発明は、出力用画像から抽出された文字の輪郭を検出し、その検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去するように構成されている。したがって、所定領域内を全て塗りつぶす従来の構成と比較して消去される範囲が小さくなり、画像の喪失範囲も必要最小限程度で済む。   According to the third, fifteenth, or twenty-second aspect of the present invention, a contour of a character extracted from an output image is detected, and a pixel value of a pixel in an inner region of the detected contour is set to a predetermined value. The character string information is erased by changing. Therefore, the range to be erased is smaller than the conventional configuration in which the entire predetermined area is filled, and the image loss range can be minimized.

請求項4、請求項16又は請求項23に記載の本発明は、まず、出力用画像から抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割し、この複数の部分領域のうち文字に相当する領域を含む各部分領域の部分周辺領域の各ピクセルのピクセル値を取得する。そして、上記各部分領域について、取得されたピクセル値に基づき、部分周辺領域において最大範囲を占めるピクセル値を選択し、上記各部分領域の各ピクセルのピクセル値を、この選択されたピクセル値に変更することで文字を消去するように構成されている。したがって、出力用画像の任意の位置にある文字を消去できるうえ、画像の喪失範囲も必要最小限程度で済む。また、各文字の対象領域の分割を細かくして各部分領域のサイズを小さくすれば、文字の周囲の画像の状況に合わせてその文字を消去することができる。   In the present invention described in claim 4, claim 16, or claim 23, first, an area composed of characters extracted from an output image and its surrounding area is divided into a plurality of partial areas, and the plurality of partial areas are Among these, the pixel value of each pixel in the partial peripheral region of each partial region including the region corresponding to the character is acquired. Then, for each partial area, a pixel value that occupies the maximum range in the partial peripheral area is selected based on the acquired pixel value, and the pixel value of each pixel in each partial area is changed to the selected pixel value. Is configured to erase characters. Therefore, characters at an arbitrary position in the output image can be deleted, and the loss range of the image can be minimized. Further, if the size of each partial area is reduced by finely dividing the target area of each character, the character can be erased according to the situation of the image around the character.

請求項5、請求項17又は請求項24に記載の本発明によれば、出力用画像を解析して被検体画像と付帯情報とが重なり合う重畳領域を検出し、抽出された付帯情報のうち重畳領域外の部分を選択的に消去するように構成されているので、付帯情報の消去時に被検体画像上の情報を変更してしまうことがない。したがって、誤診を招くおそれの低減を図りつつ、付帯情報を消去することができる。   According to the present invention described in claim 5, claim 17, or claim 24, the output image is analyzed to detect a superimposed region where the subject image and the supplementary information overlap, and the superimposition of the extracted supplementary information is detected. Since the portion outside the region is selectively erased, the information on the subject image is not changed when the auxiliary information is erased. Therefore, incidental information can be erased while reducing the possibility of misdiagnosis.

請求項8、請求項18又は請求項25に記載の本発明によれば、動画像からなる出力用画像を処理する場合に、この動画像を形成する複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出するとともに、複数の静止画像のそれぞれから抽出された付帯情報を各静止画像毎に消去するように構成されているので、動画像を形成する各静止画像中の付帯情報を確実に消去できる。また、動画像からなる出力用画像の処理を円滑に行うことができる。   According to the present invention described in claim 8, claim 18 or claim 25, when processing an output image consisting of a moving image, the auxiliary information embedded in a plurality of still images forming the moving image is processed. Extraction is performed for each still image, and supplementary information extracted from each of the plurality of still images is erased for each still image, so that supplementary information in each still image forming a moving image is It can be erased reliably. Also, it is possible to smoothly process an output image composed of a moving image.

請求項11、請求項19又は請求項26に記載の本発明は、出力用画像から抽出された識別情報が消去対象特定情報により特定されているか判断するとともに、特定されていると判断されたときには、その識別情報により識別される文字列情報を消去するように構成されている。それにより、所望の識別情報を消去対象特定情報により特定させておくことで、出力用画像に埋め込まれた付帯情報(文字列情報)のうちから所望の付帯情報のみを選択的に消去することができる。   The present invention according to claim 11, 19, or 26 determines whether the identification information extracted from the output image is specified by the erasure target specifying information, and when it is determined that it is specified The character string information identified by the identification information is erased. As a result, it is possible to selectively erase only the desired supplementary information from the supplementary information (character string information) embedded in the output image by specifying the desired identification information based on the erasure target identification information. it can.

本発明に係る医用画像診断装置、医用画像処理装置及び医用画像処理プログラムの好適な実施形態の一例について、図面を適宜参照しながら詳細に説明する。   Exemplary embodiments of a medical image diagnostic apparatus, a medical image processing apparatus, and a medical image processing program according to the present invention will be described in detail with reference to the drawings as appropriate.

以下、本発明に係る第1〜第4の実施形態を説明する。第1の実施形態は、医用画像に埋め込まれた付帯情報の輪郭内を塗りつぶすことで、当該付帯情報を自動消去するものである。第2の実施形態は、第1の実施形態とは異なる付帯情報消去処理を実行するものであり、医用画像に付帯情報が埋め込まれた領域を分割し、各分割領域毎に塗りつぶし処理を行うものである。第3の実施形態は、付帯情報が被検体の画像に重なって埋め込まれているときの付帯情報消去処理に関するものである。第4の実施形態は、埋め込まれた付帯情報のうち所望のものを選択的に消去するものである。   Hereinafter, first to fourth embodiments according to the present invention will be described. In the first embodiment, the auxiliary information is automatically erased by painting the outline of the auxiliary information embedded in the medical image. In the second embodiment, additional information erasure processing different from that in the first embodiment is executed, and a region in which additional information is embedded in a medical image is divided and a filling process is performed for each divided region. It is. The third embodiment relates to an incidental information erasure process when the incidental information is embedded so as to overlap an image of a subject. In the fourth embodiment, desired information is selectively deleted from the embedded supplementary information.

[用語の定義]
最初に、以下の説明にて使用する用語を定義しておく。まず、「医用画像」とは、X線CT装置やMRI装置や超音波診断装置や核医学診断装置などの医用画像診断装置により、被検体の内部形態を反映するデータに基づいて形成される画像を意味する。この医用画像は、被検体の内部形態を表す被検体画像と、その背景画像とによって構成される。たとえば、X線CT装置においては、ガントリにより収集された投影データに基づいて再構成されたCT画像が「医用画像」であり、超音波診断装置においては、超音波スキャンにより得られたエコー信号に基づいて形成される超音波画像が「医用画像」である。
[Definition of terms]
First, terms used in the following explanation are defined. First, a “medical image” is an image formed by a medical image diagnostic apparatus such as an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus, or a nuclear medicine diagnostic apparatus based on data reflecting the internal form of a subject. Means. This medical image is composed of a subject image representing the internal form of the subject and a background image thereof. For example, in an X-ray CT apparatus, a CT image reconstructed based on projection data collected by a gantry is a “medical image”. In an ultrasonic diagnostic apparatus, an echo signal obtained by an ultrasonic scan is used as an echo signal. The ultrasonic image formed based on this is a “medical image”.

「付帯情報」とは、前述したように、医用画像の形成後に付加される情報を意味し、任意の言語の表記文字(たとえば漢字、平仮名、片仮名、アルファベット、数字等)の組み合わせを含む文字列情報や、各種の記号(たとえば句読点、括弧、コロン等)からなる記号情報を含む。なお、記号情報をも含む意味で文字(文字列情報)という用語を用いることがある。更に、「付帯情報」には、医療機関のロゴ等の各種マークや、QRコード(登録商標)等の各種イメージ情報なども含まれるものとする(特に、第4の実施形態を参照)。また、第3の実施形態において、付帯情報の様々な具体例を説明する。   As described above, “accompanying information” means information added after the formation of a medical image, and is a character string including a combination of characters written in any language (for example, kanji, hiragana, katakana, alphabet, numbers, etc.) Information and symbol information including various symbols (for example, punctuation marks, parentheses, colons, etc.). Note that the term “character” (character string information) may be used to include symbol information. Furthermore, the “accompanying information” includes various marks such as a logo of a medical institution and various image information such as a QR code (registered trademark) (especially, refer to the fourth embodiment). In the third embodiment, various specific examples of incidental information will be described.

「出力用画像」とは、医用画像に付帯情報を埋め込んで得られる画像を意味する。たとえば、X線CT装置においては、CT画像に患者ID等を埋め込んで形成された画像が「出力用画像」に相当し、超音波診断装置においては、超音波画像の表示画面上に患者ID等も表示されている場合の、その表示画面のキャプチャ画像などが「出力用画像」に相当する。なお、「埋め込む」とは、医用画像の一部のデータを付帯情報のデータに置換することを意味する。したがって、出力用画像は、医用画像の画像データに付帯情報のデータを一体化して得られる単一の画像データからなる。   The “output image” means an image obtained by embedding incidental information in a medical image. For example, in an X-ray CT apparatus, an image formed by embedding a patient ID or the like in a CT image corresponds to an “output image”, and in an ultrasonic diagnostic apparatus, a patient ID or the like is displayed on an ultrasonic image display screen. When “” is also displayed, the captured image on the display screen corresponds to the “output image”. Note that “embedding” means replacing part of data of a medical image with data of incidental information. Therefore, the output image is composed of single image data obtained by integrating the data of the supplementary information with the image data of the medical image.

〈第1の実施形態〉
[装置構成]
図1は、本実施形態に係る医用画像診断装置に相当するX線CT装置の外観構成の一例を表している。同図に示す医用画像診断装置1は、ガントリ2、寝台3、コンピュータ4、モニタ装置5及び入力デバイス6を有する。このような構成は一般的なものであるので、簡単な説明にとどめる。モニタ装置5と入力デバイス6は、この医用画像診断装置1のコンソールとして使用される。
<First Embodiment>
[Device configuration]
FIG. 1 illustrates an example of an external configuration of an X-ray CT apparatus corresponding to the medical image diagnostic apparatus according to the present embodiment. A medical image diagnostic apparatus 1 shown in FIG. 1 includes a gantry 2, a bed 3, a computer 4, a monitor device 5, and an input device 6. Since such a configuration is general, only a brief description will be given. The monitor device 5 and the input device 6 are used as a console of the medical image diagnostic apparatus 1.

被検体(図示せず)は寝台3の天板3A上に配置される。寝台基部3B内には天板3Aを図中矢印方向に駆動する駆動装置が内蔵されている。被検体は、天板3Aとともにガントリ2の開口部2A内にて移動される。ガントリ2の筐体内には、X線を発生するX線管と、X線を検出するX線検出器とが、開口部2Aを挟んで対向する位置に配設されている(図示せず)。X線管とX線検出器は、対向状態を保持したまま開口部2Aの周囲を回転される。   A subject (not shown) is placed on the top 3 </ b> A of the bed 3. A driving device for driving the top plate 3A in the direction of the arrow in the figure is built in the bed base 3B. The subject is moved in the opening 2A of the gantry 2 together with the top 3A. In the housing of the gantry 2, an X-ray tube that generates X-rays and an X-ray detector that detects X-rays are disposed at positions facing each other with the opening 2A interposed therebetween (not shown). . The X-ray tube and the X-ray detector are rotated around the opening 2A while maintaining the facing state.

コンピュータ4は、天板3Aの移動とX線管及びX線検出器の回転とをそれぞれ制御してX線で被検体をスキャンする。X線検出器による検出データは、コンピュータ4に順次送られて投影データに変換される(前処理)。コンピュータ4は、収集された一連の投影データを再構成して医用画像(CT画像)を形成する。   The computer 4 controls the movement of the top 3A and the rotation of the X-ray tube and the X-ray detector, respectively, and scans the subject with X-rays. Data detected by the X-ray detector is sequentially sent to the computer 4 and converted into projection data (pre-processing). The computer 4 reconstructs a series of collected projection data to form a medical image (CT image).

図2のブロック図は、医用画像診断装置1の制御系の構成の一例を表している。医用画像診断装置1は、大別して、装置の動作制御を行う構成と、出力用画像の形成処理を行う構成と、付帯情報の消去処理を行う構成と、画像の出力処理を行う構成とを有している。   The block diagram of FIG. 2 represents an example of the configuration of the control system of the medical image diagnostic apparatus 1. The medical image diagnostic apparatus 1 is roughly divided into a configuration for performing operation control of the device, a configuration for performing output image formation processing, a configuration for performing auxiliary information erasing processing, and a configuration for performing image output processing. is doing.

〔装置の動作制御を行う構成〕
医用画像診断装置1の各部は、制御部21によって動作制御される。制御部21は、コンピュータ4のCPU等のマイクロプロセッサにより構成される。また、プログラム記憶部22には、動作制御用の各種コンピュータプログラムがあらかじめ記憶されている。制御部21は、このプログラム記憶部22に記憶されたプログラムを適宜読み出して後述の各部に実行させる。
[Configuration to control the operation of the device]
The operation of each unit of the medical image diagnostic apparatus 1 is controlled by the control unit 21. The control unit 21 is configured by a microprocessor such as a CPU of the computer 4. The program storage unit 22 stores various computer programs for operation control in advance. The control unit 21 appropriately reads out the program stored in the program storage unit 22 and causes each unit described later to execute the program.

本実施形態のプログラム記憶部22には、特に、OCR(Optical Character Recognition)プログラム22a、輪郭検出プログラム22b及び情報消去プログラム22cが記憶されている。   The program storage unit 22 of this embodiment stores, in particular, an OCR (Optical Character Recognition) program 22a, a contour detection program 22b, and an information erasure program 22c.

OCRプログラム22aは、付帯情報中の特に文字列情報の各文字を読み取るためのプログラムである。このOCRプログラム22aとしては、既知のOCRソフトウェアを用いることができる(たとえば、特開2004−265293号公報参照)。   The OCR program 22a is a program for reading each character of the character string information in the accompanying information. As this OCR program 22a, known OCR software can be used (for example, refer to Japanese Patent Application Laid-Open No. 2004-265293).

輪郭検出プログラム22bは、OCRプログラム22aに基づいて読み取られた各文字の輪郭を検出するためのプログラムである。この輪郭検出プログラム22bとしては、既知の輪郭検出プログラム(たとえば、超音波画像に関する特開平10−305033号公報参照)を使用することもできるし、また、OCRプログラム22aに基づく読取結果を用いて文字の輪郭を検出するプログラムを使用することもできる。後者の場合、たとえば、検出された文字の輪郭部分に相当するピクセルの座標を探索し取得するプログラムなどを適用できる。   The contour detection program 22b is a program for detecting the contour of each character read based on the OCR program 22a. As this contour detection program 22b, a known contour detection program (for example, see Japanese Patent Laid-Open No. 10-305033 regarding an ultrasonic image) can be used, and a character is obtained using a reading result based on the OCR program 22a. It is also possible to use a program for detecting the contour of the. In the latter case, for example, a program for searching for and acquiring the coordinates of a pixel corresponding to the contour portion of the detected character can be applied.

情報消去プログラム22cは、輪郭検出プログラム22bに基づいて検出された輪郭の内部を塗りつぶして当該文字を消去するためのプログラムである。この情報消去プログラム22cは、文字の輪郭の内部領域のピクセルのピクセル値を所定の値に変更することで当該文字を消去する。   The information erasure program 22c is a program for erasing the character by painting the inside of the contour detected based on the contour detection program 22b. The information erasing program 22c erases the character by changing the pixel value of the pixel in the inner region of the character outline to a predetermined value.

なお、文字を消去する、すなわち文字を視認不可能な状態にするためには、この「所定の値」を、当該輪郭(当該文字)の外部近傍領域のピクセルのピクセル値にほぼ等しくする必要がある。そのために、医用画像の背景画像(前述)のピクセル値を「所定の値」として用いることもできるし、また、当該輪郭の外部近傍領域のピクセル値を取得し、そのピクセル値を「所定の値」として用いることもできる。   In order to erase the character, that is, to make the character invisible, it is necessary to make this “predetermined value” substantially equal to the pixel value of the pixel in the external vicinity region of the contour (the character). is there. For this purpose, the pixel value of the background image (described above) of the medical image can be used as the “predetermined value”, or the pixel value of the external vicinity region of the contour is acquired and the pixel value is set to the “predetermined value”. Can also be used.

〔出力用画像の形成処理を行う構成〕
出力用画像の形成処理は、画像形成部10、付帯情報埋込部11及び画像記憶部12によって行われる。
[Configuration to perform output image formation processing]
The output image forming process is performed by the image forming unit 10, the auxiliary information embedding unit 11, and the image storage unit 12.

画像形成部10は、本発明の「画像形成手段」の一例に相当し、前述の要領で医用画像(CT画像)を形成するガントリ2と、寝台3と、コンピュータ4の前処理及び再構成処理に関わる部分とを含んで構成される。   The image forming unit 10 corresponds to an example of the “image forming unit” of the present invention, and the gantry 2 for forming a medical image (CT image) in the manner described above, the bed 3, and preprocessing and reconstruction processing of the computer 4 It is comprised including the part related to.

付帯情報埋込部11は、画像形成部10が形成した医用画像に所定の付帯情報を埋め込んで出力用画像を形成する。この付帯情報埋込部11は、たとえば、医用画像を付帯情報とともにモニタ表示したときの表示画面のキャプチャ画像を作成することで、出力用画像を形成する。また、付帯情報埋込部11は、形成された医用画像に対して所定の付帯情報を埋め込む画像処理を行うものであってもよい。付帯情報埋込部11は、コンピュータ4に搭載されたマイクロプロセッサであってもよいし、外部のコンピュータであってもよい。   The auxiliary information embedding unit 11 embeds predetermined auxiliary information in the medical image formed by the image forming unit 10 to form an output image. The auxiliary information embedding unit 11 forms an output image by, for example, creating a capture image of a display screen when a medical image is displayed on a monitor together with auxiliary information. The supplementary information embedding unit 11 may perform image processing for embedding predetermined supplementary information on the formed medical image. The incidental information embedding unit 11 may be a microprocessor mounted on the computer 4 or an external computer.

画像記憶部12は、付帯情報埋込部11により形成された出力用画像を記憶する。各出力用画像には固有のファイル名が付与されている。画像記憶部12は、たとえばコンピュータ4に内蔵のハードディスクドライブ等の記憶装置により構成されるが、外部の記憶装置によって構成することも可能である。   The image storage unit 12 stores the output image formed by the incidental information embedding unit 11. Each output image is given a unique file name. The image storage unit 12 is configured by a storage device such as a hard disk drive built in the computer 4, for example, but can also be configured by an external storage device.

〔付帯情報の消去処理を行う構成〕
付帯情報の消去処理は、画像読込部13、画像判別部14、付帯情報抽出部15、輪郭検出部16及び付帯情報消去部17により行われる。これら各部13〜17は、それぞれ、コンピュータ4に搭載のマイクロプロセッサによって構成される。
[Configuration to delete incidental information]
The supplementary information erasing process is performed by the image reading unit 13, the image determining unit 14, the supplementary information extracting unit 15, the contour detecting unit 16, and the supplementary information erasing unit 17. Each of these units 13 to 17 is configured by a microprocessor mounted on the computer 4.

画像読込部13は、制御部21の指示に応じて画像記憶部12にアクセスし、それに記憶されている出力用画像を読み込む処理を実行する。制御部21からの指示(制御信号)には、読込対象の出力用画像のファイル名等の画像IDが添付されており、画像読込部13は、この画像IDに対応する出力用画像を画像記憶部12から検索して読み込む。画像読込部13は、読み込んだ出力用画像を画像判別部14に送る。この画像読込部13は、本発明の「受付手段」の一例に相当する。   The image reading unit 13 accesses the image storage unit 12 in accordance with an instruction from the control unit 21 and executes a process of reading the output image stored therein. The instruction (control signal) from the control unit 21 is attached with an image ID such as a file name of the output image to be read, and the image reading unit 13 stores the output image corresponding to the image ID as an image. Search from section 12 and read. The image reading unit 13 sends the read output image to the image determination unit 14. The image reading unit 13 corresponds to an example of “accepting unit” of the present invention.

画像判別部14は、本発明の「画像判別手段」の一例に相当し、制御部21の指示に対応して動作し、画像読込部13からの出力用画像が静止画像であるか、あるいは動画像であるかを判別する。この判別処理は、たとえば、出力用画像のファイル名に付された拡張子の種類に基づいて行う。すなわち、静止画像を示す各種拡張子名と動画像を示す各種拡張子名とをあらかじめ記憶しておくとともに、判別対象の出力用画像に付された拡張子名を、記憶された拡張子名と照合することで、この出力用画像が静止画像か動画像かを判別する。   The image discriminating unit 14 corresponds to an example of the “image discriminating unit” of the present invention, operates in response to an instruction from the control unit 21, and the output image from the image reading unit 13 is a still image or a moving image. Determine if it is an image. This determination processing is performed based on, for example, the type of extension added to the file name of the output image. That is, various extension names indicating still images and various extension names indicating moving images are stored in advance, and the extension names given to the output images to be determined are stored as the stored extension names. By collating, it is determined whether the output image is a still image or a moving image.

なお、出力用画像が静止画像であるか又は動画像であるかを判別するために用いられる情報は、拡張子名に限定されるものではない。たとえば、出力用画像に画像種類判別用の任意の情報(画像種類識別情報)を添付しておくとともに、出力用画像が静止画像であるか動画像であるかの判別を、この画像種類識別情報に基づいて行うように構成することが可能である。ここで、画像種類識別情報は、出力用画像が画像形成部10から画像記憶部12に伝送されるときや、画像記憶部12に記憶されているときなどに、当該出力用画像のデータのヘッダ部分などに添付されるようになっている。   Note that information used to determine whether the output image is a still image or a moving image is not limited to the extension name. For example, arbitrary information (image type identification information) for image type identification is attached to the output image, and the image type identification information is used to determine whether the output image is a still image or a moving image. It is possible to constitute based on the above. Here, the image type identification information is the header of the data of the output image when the output image is transmitted from the image forming unit 10 to the image storage unit 12 or stored in the image storage unit 12. It comes to be attached to the part.

付帯情報抽出部15は、前述のOCRプログラム22aに従って動作し、出力用画像の全体を解析して、埋め込まれた付帯情報(特に文字列情報の各文字)を読み取る。ここでは、文字を読み取ること、又は文字を検出することを、文字を抽出することと言うことがある。ここで、画像判別部14が当該出力用画像を動画像と判別した場合、付帯情報抽出部15は、この動画像を形成する複数の静止画像のそれぞれについて、当該静止画像中の各文字の読み取りを個別に実行する。この付帯情報抽出部15は、本発明の「抽出手段」の一例に相当する。   The incidental information extraction unit 15 operates in accordance with the aforementioned OCR program 22a, analyzes the entire output image, and reads the embedded incidental information (particularly, each character of the character string information). Here, reading a character or detecting a character may be referred to as extracting a character. Here, when the image determination unit 14 determines that the output image is a moving image, the auxiliary information extraction unit 15 reads each character in the still image for each of the plurality of still images forming the moving image. Are executed individually. This incidental information extraction unit 15 corresponds to an example of “extraction means” of the present invention.

輪郭検出部16は、本発明の「輪郭検出手段」の一例に相当するもので、前述の輪郭検出プログラム22bに従って動作し、付帯情報抽出部15が読み取った各文字の輪郭を検出する。出力用画像が動画像である場合、この輪郭検出部16も、その複数の静止画像をそれぞれ個別に処理する。   The contour detection unit 16 corresponds to an example of the “contour detection unit” of the present invention, operates according to the above-described contour detection program 22b, and detects the contour of each character read by the supplementary information extraction unit 15. When the output image is a moving image, the contour detection unit 16 also individually processes the plurality of still images.

付帯情報消去部17は、前述の情報消去プログラム22cに従って動作し、輪郭検出部16が検出した輪郭の内部領域のピクセルのピクセル値を、当該輪郭の外部近傍領域のピクセル値(又はそれにほぼ等しいピクセル値)に変更して、当該文字を出力用画像中から消去する。この付帯情報消去部17も、出力用画像が動画像である場合には、その複数の静止画像をそれぞれ個別に処理する。この付帯情報消去部17は、本発明の「消去手段」の一例に相当する。   The incidental information erasure unit 17 operates in accordance with the information erasure program 22c described above, and the pixel value of the pixel in the inner area of the contour detected by the contour detection unit 16 is changed to the pixel value (or a pixel substantially equal to the pixel value in the outer vicinity region of the contour). Value) and delete the character from the output image. When the output image is a moving image, the incidental information erasing unit 17 also individually processes the plurality of still images. The incidental information erasure unit 17 corresponds to an example of the “erasure unit” of the present invention.

〔画像の出力処理を行う構成〕
付帯情報が消去された出力用画像は、モニタ装置5、医用画像診断装置1の画像データベース20、外部データベース30、画像出力媒体40などに出力される。
[Configuration for image output processing]
The output image from which the supplementary information has been deleted is output to the monitor device 5, the image database 20, the external database 30, the image output medium 40, etc. of the medical image diagnostic apparatus 1.

画像データベース(DB)20は、医用画像診断装置1に内蔵又は外付けされたデータベースであり、出力用画像の他にも、画像形成部10にて形成された医用画像、投影データ、患者情報など、各種のデータを記憶している。   The image database (DB) 20 is a database built in or externally attached to the medical image diagnostic apparatus 1. In addition to an output image, a medical image formed by the image forming unit 10, projection data, patient information, and the like Various data are stored.

外部データベース(DB)30は、LANやインターネット等のネットワークNを介して医用画像診断装置1に接続されたデータベースである。この外部データベース30は、たとえば、医用デジタル画像と通信に関する標準規格のDICOM(Digital Imaging and COmmunications in Medicine)対応型のデータベースである。   The external database (DB) 30 is a database connected to the medical image diagnostic apparatus 1 via a network N such as a LAN or the Internet. The external database 30 is, for example, a DICOM (Digital Imaging and Communications in Medicine) standard database relating to medical digital images and communication.

外部データベース30への出力用画像の出力は、ネットワークN対応のモデム等からなる通信インターフェイス(I/F)18によって行われる。この通信インターフェイス18は、ネットワークを介して外部装置と通信する通信手段であって、本発明にいう「出力手段」の一例に相当する。   Output of the output image to the external database 30 is performed by a communication interface (I / F) 18 including a modem or the like corresponding to the network N. The communication interface 18 is a communication unit that communicates with an external device via a network, and corresponds to an example of an “output unit” according to the present invention.

画像出力媒体40は、DVD−RAM、DVD−R等の各種メディア、フィルム媒体、紙媒体など、出力用画像が出力される各種の媒体である。この画像出力媒体40への出力処理は、画像出力インターフェイス(I/F)19によって行われる。画像出力インターフェイス19は、上記メディア対応のドライブ装置、フィルム媒体や紙媒体に印刷出力するプリンタ装置などによって構成される。この画像出力インターフェイス19は、本発明の「出力手段」の一例である。   The image output medium 40 is various media on which output images are output, such as various media such as DVD-RAM and DVD-R, film media, and paper media. The output process to the image output medium 40 is performed by an image output interface (I / F) 19. The image output interface 19 includes a drive device compatible with the above media, a printer device that prints and outputs on a film medium or a paper medium, and the like. The image output interface 19 is an example of the “output unit” in the present invention.

なお、図示は省略するが、ネットワークN上には他のコンピュータが接続されている。医用画像診断装置1は、通信インターフェイス18によって、出力用画像を当該コンピュータに送信することができる。この構成は、出力用画像に対するセカンドオピニオンを求める場合や、出力用画像を複数の医師等で共同使用する場合などに用いられる。   Although not shown, another computer is connected on the network N. The medical image diagnostic apparatus 1 can transmit an output image to the computer via the communication interface 18. This configuration is used when obtaining a second opinion for the output image or when the output image is used jointly by a plurality of doctors.

[動作]
以上のような構成を備える本実施形態の医用画像診断装置1の動作について説明する。図3のフローチャートは、医用画像診断装置1の動作の一例を示している。また、図4は、図3に示す処理による画像の態様の変遷を示している。
[Operation]
The operation of the medical image diagnostic apparatus 1 of the present embodiment having the above configuration will be described. The flowchart in FIG. 3 shows an example of the operation of the medical image diagnostic apparatus 1. FIG. 4 shows the transition of the image mode by the processing shown in FIG.

最初に、画像形成部10が被検体の医用画像を形成する(S1)。図4(A)は、形成される医用画像の態様の一例を示す。   First, the image forming unit 10 forms a medical image of the subject (S1). FIG. 4A shows an example of the form of a medical image to be formed.

付帯情報埋込部11は、この医用画像に所定の付帯情報を埋め込んで出力用画像を形成する(S2)。   The incidental information embedding unit 11 embeds predetermined incidental information in this medical image to form an output image (S2).

図4(B)は、図4(A)の医用画像に、被検体に関する情報等の付帯情報とその種類を識別する識別情報とを埋め込んで得られる出力用画像の態様の一例を表している。なお、前述の定義によれば、識別情報も付帯情報の一種である。   FIG. 4B shows an example of an output image obtained by embedding incidental information such as information on a subject and identification information for identifying the type in the medical image of FIG. 4A. . In addition, according to the above-mentioned definition, identification information is also a kind of incidental information.

同図の出力用画像には、識別情報として、被検者氏名を示す文字列情報「氏名」と、被検体ID情報(患者ID)を示す文字列情報「ID」と、医用画像形成時のX線管の管電圧を示す文字列情報「kV」と、その管電流を示す文字列情報「mA」とがそれぞれ埋め込まれている。また、各識別情報に対応する付帯情報として、被検者氏名に対応する文字列情報「東芝太郎」と、被検体ID情報に対応する文字列情報「1048」と、管電圧に対応する文字列情報「120」と、管電流に対応する文字列情報「50」とがそれぞれ埋め込まれている。なお、各識別情報と、それに対応する付帯情報との間には、それらの対応関係を明示するために、記号情報であるコロン「:」が埋め込まれている。   In the output image of the figure, as identification information, character string information “name” indicating a subject's name, character string information “ID” indicating subject ID information (patient ID), and a medical image at the time of forming a medical image. Character string information “kV” indicating the tube voltage of the X-ray tube and character string information “mA” indicating the tube current are respectively embedded. Further, as incidental information corresponding to each identification information, character string information “Toshiba Taro” corresponding to the subject name, character string information “1048” corresponding to the subject ID information, and a character string corresponding to the tube voltage Information “120” and character string information “50” corresponding to the tube current are respectively embedded. Note that a colon “:”, which is symbol information, is embedded between each piece of identification information and the incidental information corresponding to the identification information in order to clearly indicate the corresponding relationship.

付帯情報が埋め込まれた医用画像、すなわち出力用画像は、画像記憶部12に格納される(S3)。   The medical image in which the supplementary information is embedded, that is, the output image is stored in the image storage unit 12 (S3).

画像読込部13は、制御部21からの指示に応じて画像記憶部12にアクセスして出力用画像を取得する(S4)。取得された出力用画像は、画像判別部14に送られる。画像判別部14は、この出力用画像が静止画像であるか又は動画像であるかを判別する(S5)。その判別結果は、出力用画像とともに付帯情報抽出部15に送られる。   The image reading unit 13 accesses the image storage unit 12 in accordance with an instruction from the control unit 21 and acquires an output image (S4). The acquired output image is sent to the image discrimination unit 14. The image discriminating unit 14 discriminates whether the output image is a still image or a moving image (S5). The determination result is sent to the incidental information extraction unit 15 together with the output image.

(出力用画像が静止画像の場合:S5;「静止画像」)
判別結果が「静止画像」であった場合、付帯情報抽出部15が、この静止画像(=出力用画像)の全体を解析して、画像中に埋め込まれた各文字を抽出する(S6)。たとえば図4(B)の出力用画像に対しては、「氏」、「名」、「:」、「東」、「芝」、「太」、「郎」、「I」、「D」、「:」、「1」、「0」、「4」、「8」、「k」、「V」、「:」、「1」、「2」、「0」、「m」、「A」、「:」、「5」、「0」の各文字が抽出される。
(When the output image is a still image: S5; “still image”)
If the determination result is “still image”, the supplementary information extraction unit 15 analyzes the entire still image (= output image) and extracts each character embedded in the image (S6). For example, for the output image in FIG. 4B, “Mr.”, “Name”, “:”, “East”, “Shiba”, “Thick”, “Buro”, “I”, “D” , “:”, “1”, “0”, “4”, “8”, “k”, “V”, “:”, “1”, “2”, “0”, “m”, “ The characters “A”, “:”, “5”, and “0” are extracted.

続いて、輪郭検出部16が、付帯情報抽出部15が抽出した各文字について、その輪郭を検出する(S7)。その検出結果は、文字の輪郭部分に位置するピクセルの座標として取得される。   Subsequently, the contour detection unit 16 detects the contour of each character extracted by the supplementary information extraction unit 15 (S7). The detection result is acquired as the coordinates of the pixel located in the outline portion of the character.

次に、付帯情報消去部17が、輪郭検出部16が検出した輪郭の内部領域の各ピクセルのピクセル値を、当該輪郭の外部近傍領域のピクセル値に変更する。それにより、出力用画像中の各文字が消去され、結果として付帯情報が消去される(S8)。   Next, the supplementary information erasure unit 17 changes the pixel value of each pixel in the inner region of the contour detected by the contour detection unit 16 to the pixel value of the outer neighboring region of the contour. Thereby, each character in the output image is deleted, and as a result, the incidental information is deleted (S8).

図4(C)は、図4(B)の出力用画像中の付帯情報が消去された状態を表している(同図では、消去範囲を斜線で明示してある。)。この出力用画像中の斜線領域は、輪郭検出部16が検出した各文字の輪郭の内部領域を示している。この斜線領域のピクセルのピクセル値は、実際には、輪郭の外部近傍領域(たとえば背景画像)と同等の値に変更されており、この斜線領域(つまり付帯情報)は視認不可能とされている。   FIG. 4C shows a state in which the auxiliary information in the output image of FIG. 4B is erased (in FIG. 4C, the erase range is clearly indicated by diagonal lines). The hatched area in the output image indicates the inner area of the outline of each character detected by the outline detection unit 16. The pixel value of the pixels in the shaded area is actually changed to a value equivalent to the external neighborhood area (for example, background image) of the contour, and the shaded area (that is, the incidental information) is not visible. .

以上で、出力用画像が静止画像の場合の付帯情報消去処理は終了となる。なお、付帯情報が消去された出力用画像は、画像データベース20に保存され、必要に応じて、モニタ装置5に表示され、外部データベース30に送信され、あるいは画像出力媒体40に出力される。   This completes the incidental information erasure process when the output image is a still image. The output image from which the supplementary information has been deleted is stored in the image database 20, displayed on the monitor device 5 as necessary, transmitted to the external database 30, or output to the image output medium 40.

(出力用画像が動画画像の場合:S5;「動画像」)
出力用画像は動画像であると判断された場合、付帯情報抽出部15は、まず、この出力用画像を複数の静止画像(フレーム)に分割する(S11)。付帯情報抽出部15は、この複数のフレームを各フレーム毎に順次解析し、埋め込まれている各文字(付帯情報)を抽出する(S12)。付帯情報抽出処理が終了したフレームは、抽出された文字とともに輪郭検出部16に順次送られる。
(When the output image is a moving image: S5; “moving image”)
When it is determined that the output image is a moving image, the supplementary information extraction unit 15 first divides the output image into a plurality of still images (frames) (S11). The incidental information extraction unit 15 sequentially analyzes the plurality of frames for each frame, and extracts each embedded character (accompanying information) (S12). The frames for which the auxiliary information extraction processing has been completed are sequentially sent to the contour detection unit 16 together with the extracted characters.

輪郭抽出部16は、付帯情報抽出部15から順次送られるフレームについて、抽出された各文字の輪郭を順次検出する(S13)。輪郭検出処理が終了したフレームは、その検出情報とともに付帯情報消去部17に順次送られる。   The contour extracting unit 16 sequentially detects the contours of the extracted characters for the frames sequentially sent from the supplementary information extracting unit 15 (S13). The frames for which the contour detection processing has been completed are sequentially sent to the incidental information erasure unit 17 together with the detection information.

付帯情報消去部17は、輪郭検出部16から順次送られるフレームについて、検出された輪郭の内部領域の各ピクセルのピクセル値を、その外部近傍領域のピクセル値に変更して付帯情報を順次消去する(S14)。   The supplementary information erasure unit 17 sequentially erases the supplementary information by changing the pixel value of each pixel in the inner region of the detected contour to the pixel value of the outer neighboring region for the frames sequentially sent from the contour detection unit 16. (S14).

以上で、出力用画像が動画像の場合の付帯情報消去処理は終了となる。なお、付帯情報が消去されたこの出力用画像は、画像データベース20に保存され、必要に応じて、モニタ装置5に表示され、外部データベース30に送信され、あるいは画像出力媒体40に出力される。   This completes the incidental information erasure processing when the output image is a moving image. The output image from which the supplementary information has been deleted is stored in the image database 20, displayed on the monitor device 5 as necessary, transmitted to the external database 30, or output to the image output medium 40.

[作用効果]
本実施形態の医用画像診断装置1は、上述したように、医用画像に埋め込まれた付帯情報(文字列情報)を各文字毎に自動的に抽出し、その各文字の輪郭を自動的に検出し、その輪郭の内部領域のピクセルのピクセル値をその近傍のピクセル値と(ほぼ)同じ値に自動的に変更することにより当該付帯情報を消去する。したがって、従来のように手動で行う場合のような消去ミスが無くなる。
[Function and effect]
As described above, the medical image diagnostic apparatus 1 according to the present embodiment automatically extracts the supplementary information (character string information) embedded in the medical image for each character and automatically detects the outline of each character. Then, the incidental information is deleted by automatically changing the pixel value of the pixel in the inner region of the outline to a value (substantially) the same as the pixel value in the vicinity thereof. Accordingly, there is no erasure error as in the case of manual operation as in the prior art.

また、文字抽出処理において、出力用画像の全体を解析して文字を抽出することにより、画像中の特定位置に埋め込まれた付帯情報だけでなく、任意の位置に埋め込まれた文字についても自動的に抽出し、消去することが可能である。   In the character extraction process, by extracting the characters by analyzing the entire output image, not only the supplementary information embedded at a specific position in the image but also the character embedded at an arbitrary position is automatically Can be extracted and erased.

このように、本実施形態によれば、出力用画像中の付帯情報を好適に自動消去できる。したがって、特に、出力用画像をネットワーク転送したり、各種画像出力媒体へ出力したり、装置自身のデータベースへ保存したりする前に、被検者氏名や被検体ID情報等の付帯情報(文字列情報)を容易に消去でき、出力用画像の二次使用における個人情報を容易にかつ確実に保護することが可能となる。   As described above, according to the present embodiment, the incidental information in the output image can be suitably automatically deleted. Therefore, particularly before the image for output is transferred over the network, output to various image output media, or stored in the database of the apparatus itself, additional information (character string) such as subject name and subject ID information Information) can be easily deleted, and personal information in secondary use of the output image can be protected easily and reliably.

また、本実施形態によれば、出力用画像中の各文字の輪郭の内部の領域しか消去されないので、所定領域内を全て塗りつぶす従来の構成と比較して消去範囲が小さく、必要最小限程度で済む。それにより、付帯情報消去に伴う画像の喪失範囲が必要最小限程度で済むという利点がある。特に、付帯情報が被検体画像に重なっている場合には、被検体画像の喪失範囲が従来よりも小さくなるので、読影に与える影響が軽減され、診断ミス発生のおそれの軽減を図ることができる。   Further, according to the present embodiment, only the area inside the outline of each character in the output image is erased, so the erasure range is small compared to the conventional configuration in which the entire predetermined area is filled, and the necessary minimum level. That's it. As a result, there is an advantage that the loss range of the image accompanying the erasure of the auxiliary information can be minimized. In particular, when the incidental information overlaps the subject image, the loss range of the subject image is smaller than before, so that the influence on interpretation is reduced and the possibility of occurrence of a diagnostic error can be reduced. .

また、出力用画像が静止画像であるか又は動画像であるかを自動判別し、動画像の場合には各フレーム毎に静止画像と同様の処理を実行するようになっているので、出力用画像が静止画像であっても動画像であっても円滑に処理できる。更に、各フレーム毎に付帯情報を消去するように構成されているので、他のフレームとは異なる付帯情報が埋め込まれたフレームがある場合や、付帯情報の埋込位置が異なるフレームがある場合でも、各フレームの付帯情報を的確に消去することが可能である。したがって、被検者の個人情報等を確実に保護することができる。   In addition, it automatically determines whether the output image is a still image or a moving image, and in the case of a moving image, the same processing as the still image is executed for each frame. Whether the image is a still image or a moving image can be processed smoothly. Furthermore, since the supplementary information is erased for each frame, even when there is a frame in which supplementary information different from other frames is embedded, or there is a frame in which the supplementary information is embedded in a different position The incidental information of each frame can be erased accurately. Therefore, personal information of the subject can be reliably protected.

[変形例]
以上のような第1の実施形態の各種変形例について以下に説明する。
[Modification]
Various modifications of the first embodiment as described above will be described below.

〔変形例1〕
上記の実施形態は、抽出された各文字毎に輪郭を検出し、その輪郭内部を塗りつぶすように作用するが、抽出された複数の文字のうち、隣接する2以上の文字からなる文字列を一単位として消去するように構成することもできる。
[Modification 1]
In the above embodiment, an outline is detected for each extracted character and the inside of the outline is filled. However, a character string composed of two or more adjacent characters is extracted from a plurality of extracted characters. It can also be configured to erase as a unit.

すなわち、付帯情報抽出部15は、上記実施形態と同様に画像中の各文字を抽出し、輪郭検出部16は、抽出された複数の文字のうち隣接する2以上の文字からなる文字列(たとえば、図4における「東芝太郎」)の輪郭を検出する。   That is, the incidental information extraction unit 15 extracts each character in the image in the same manner as in the above embodiment, and the contour detection unit 16 performs a character string (for example, a character string including two or more adjacent characters among the plurality of extracted characters). , “Toshiba Taro”) in FIG. 4 is detected.

その際、輪郭検出部16は、この文字列を一つのオブジェクトとして認識し、その輪郭を検出する。文字列を単一オブジェクトとして認識する手法として、たとえば、図4の例において、記号「:」の後に続く(つまり記号「:」の右側の位置にある)複数の文字を単一オブジェクトとして認識することができる。   At that time, the contour detection unit 16 recognizes the character string as one object and detects the contour. As a technique for recognizing a character string as a single object, for example, in the example of FIG. 4, a plurality of characters following the symbol “:” (that is, at the right side of the symbol “:”) are recognized as a single object. be able to.

付帯情報消去部17は、単一オブジェクトと認識された文字列の輪郭の内部領域の各ピクセルのピクセル値を所定の値(輪郭の外部近傍領域におけるピクセル値)に変更する。   The incidental information erasure unit 17 changes the pixel value of each pixel in the inner region of the outline of the character string recognized as a single object to a predetermined value (pixel value in the outer neighboring region of the contour).

本変形例によれば、出力用画像中の特定範囲を画一的に塗りつぶす従来の構成と比較して、付帯情報消去に伴う画像の喪失範囲を小さくすることができる。たとえば、被検体氏名を表示する表示領域として全角8文字分の領域が確保されているとすると、図4の「東芝太郎」の場合、従来の構成では表示領域全体が塗りつぶされてしまうが、本変形例によれば、「東芝太郎」に相当する全角4文字分の領域程度しか塗りつぶされない。   According to this modification, compared with the conventional configuration in which the specific range in the output image is uniformly filled, the loss range of the image accompanying the erasure of the accompanying information can be reduced. For example, if an area of 8 full-width characters is secured as a display area for displaying the name of the subject, in the case of “Toshiba Taro” in FIG. 4, the entire display area is filled in the conventional configuration. According to the modified example, only an area of 4 full-width characters corresponding to “Toshiba Taro” is filled.

なお、単一オブジェクトと認識する文字列の文字数やその認識手法は、前述の内容に限定されるものではない。   Note that the number of characters in the character string recognized as a single object and the recognition method thereof are not limited to the above-described contents.

たとえば、図4の例において、「東芝太郎」の文字数(4文字)を取得し、8文字分の表示領域のうちの4文字分の領域(矩形領域)を塗りつぶすように構成することができる。   For example, in the example of FIG. 4, it is possible to obtain the number of characters (4 characters) of “Toshiba Taro” and fill an area (rectangular area) for 4 characters out of a display area for 8 characters.

また、たとえば被検者氏名「東芝 太郎」が埋め込まれている場合など、1種類の文字列情報中にスペースがある場合には、そのスペースにより分離された複数の部分文字列(「東芝」、「太郎」)をそれぞれ単一オブジェクトとして認識し、それぞれ消去するように構成することも可能である。   In addition, when there is a space in one type of character string information, for example, when the subject name “Toshiba Taro” is embedded, a plurality of partial character strings separated by the space (“Toshiba”, “Taro”) can be recognized as single objects, and each can be deleted.

〔変形例2〕
上記実施形態では、出力用画像中の付帯情報の全てを消去しているが、必ずしもその必要はない。たとえば、図4の例において、文字列情報「氏名:東芝太郎」のうち「東芝太郎」のみを選択的に消去する構成を適用することができる。すなわち、「氏名」という文字列は、その後に続く情報の種類を表すものであるから、開示されても何ら問題はないが、文字列「東芝太郎」は、当該医用画像の被検者本人の氏名(個人情報)であるため、他者に開示する場合には隠蔽する必要がある。
[Modification 2]
In the above embodiment, all the incidental information in the output image is deleted, but this is not always necessary. For example, in the example of FIG. 4, it is possible to apply a configuration in which only “Toshiba Taro” is selectively deleted from the character string information “Name: Taro Toshiba”. That is, since the character string “name” represents the type of information that follows, there is no problem even if it is disclosed, but the character string “Toshiba Taro” is the subject of the subject of the medical image. Since it is a name (personal information), it must be concealed when disclosed to others.

このような選択的消去は、たとえば次のような手法で実現できる。まず、付帯情報埋込時などに、情報の種類を表す文字列と、その種類に相当する実際の情報の文字列との間に、記号「:」等の特定の記号や文字(区切り情報)を配置するように設定する。この区切り情報には、他の用途に用いられないものを適用する。   Such selective erasure can be realized by the following method, for example. First, when embedding supplementary information, a specific symbol or character (separator information) such as a symbol “:” between a character string indicating the type of information and a character string of actual information corresponding to the type Set to place. As this delimiter information, information not used for other purposes is applied.

付帯情報抽出部15が当該区切り情報を抽出したら、輪郭検出部16は、当該区切り情報に続く文字の輪郭を検出する。このとき、区切り情報の前の文字の輪郭については、検出しなくてもよい。付帯情報消去部17は、区切り情報に続く文字の輪郭の内部領域を塗りつぶす。それにより、区切り情報に続く文字が消去される一方、区切り情報の前の情報は塗りつぶされずにそのまま埋め込まれている。   When the accompanying information extraction unit 15 extracts the delimiter information, the contour detection unit 16 detects the contour of the character following the delimiter information. At this time, it is not necessary to detect the outline of the character before the delimiter information. The supplementary information erasing unit 17 fills the inner area of the character outline following the delimiter information. Thereby, the characters following the delimiter information are erased, while the information before the delimiter information is embedded without being painted.

〔変形例3〕
出力用画像が動画像である場合、各フレームには同一の付帯情報が埋め込まれていることが多い。その場合、複数のフレームのそれぞれの付帯情報を消去するときに、各フレームの同一の領域を消去することが望ましい。
[Modification 3]
When the output image is a moving image, the same incidental information is often embedded in each frame. In that case, it is desirable to delete the same area of each frame when deleting the incidental information of each of the plurality of frames.

たとえば、図4の例の文字列情報「氏名:東芝太郎」について、或るフレームにおいては「氏名:東芝太郎」の全体を消去し、他のフレームにおいては「東芝太郎」のみを消去するとする。そのようにして得られた動画像を再生表示すると、「氏名:」の部分が表示されたりされなかったりするので、画像が見づらくなる。   For example, with respect to the character string information “name: Toshiba Taro” in the example of FIG. 4, the entire “name: Toshiba Taro” is deleted in a certain frame, and only “Toshiba Taro” is deleted in another frame. When the moving image thus obtained is reproduced and displayed, the “name:” portion may or may not be displayed, making it difficult to see the image.

そのような不都合を避けるため、各フレームに同一の付帯情報(「氏名:東芝太郎」)が埋め込まれている場合には、各フレームの同一の領域(たとえば「東芝太郎」)を消去するようにする。   To avoid such inconvenience, when the same incidental information (“Name: Toshiba Taro”) is embedded in each frame, the same area (eg “Toshiba Taro”) of each frame is deleted. To do.

なお、後述の第3の実施形態において、付帯情報が被検体画像に重なって埋め込まれているときに、各フレームの消去領域を一致させる構成を開示する。   In the third embodiment to be described later, a configuration is disclosed in which the erase regions of the respective frames are matched when the auxiliary information is embedded so as to overlap the subject image.

〔変形例4〕
上記実施形態の医用画像診断装置1は、出力用画像を外部データベース30や外部コンピュータにネットワーク転送したり、各種画像出力媒体40に出力したりすることができる。このような処理は、出力用画像中の付帯情報を消去してから実行すべきである。そこで、付帯情報が未だ削除されていない出力用画像の出力ミスを回避するために、以下のような構成を適用することが可能である。
[Modification 4]
The medical image diagnostic apparatus 1 according to the above embodiment can transfer an output image to the external database 30 or an external computer over the network, or output it to various image output media 40. Such processing should be executed after deleting the auxiliary information in the output image. Therefore, in order to avoid an output error of an output image whose auxiliary information has not yet been deleted, the following configuration can be applied.

(構成例1)
制御部21は、付帯情報消去部17により付帯情報が消去された出力用画像に対してフラグを立てて、画像データベース20に保存する。操作者が、入力デバイス6等を操作して、所望の出力用画像を指定し、外部データベース30への転送や画像出力媒体40への出力を要求すると、制御部21は、指定された出力用画像にフラグが立てられているか否かを判別する。
(Configuration example 1)
The control unit 21 sets a flag for the output image from which the supplementary information is erased by the supplementary information erasing unit 17 and stores the flag in the image database 20. When the operator operates the input device 6 or the like to specify a desired output image and requests transfer to the external database 30 or output to the image output medium 40, the control unit 21 specifies the specified output image. It is determined whether or not a flag is set on the image.

フラグが立てられている場合、制御部21は、操作者の要求に従い、通信インターフェイス18又は画像出力インターフェイス19を制御して当該出力用画像を転送又は出力させる。   When the flag is set, the control unit 21 controls the communication interface 18 or the image output interface 19 to transfer or output the output image in accordance with an operator request.

一方、フラグが立てられていない場合、制御部21は、「個人情報が削除されていませんが転送(出力)しますか?」等の確認メッセージと、ソフトキー「OK」及び「キャンセル」とを有するダイアログボックスをモニタ装置5に表示させる。「OK」が選択(クリック)されたら、制御部21は、当該出力用画像を転送又は出力させる。逆に、「キャンセル」が選択されたら、制御部21は当初の要求をキャンセルする。   On the other hand, when the flag is not set, the control unit 21 displays a confirmation message such as “Personal information has not been deleted but will it be transferred (output)?” And soft keys “OK” and “Cancel”. Is displayed on the monitor device 5. When “OK” is selected (clicked), the control unit 21 transfers or outputs the output image. Conversely, if “cancel” is selected, the control unit 21 cancels the original request.

なお、フラグが立てられていない場合の他の処理態様として、たとえば「個人情報を削除してから転送(出力)しますか?」等の確認メッセージと、ソフトキー「OK」及び「キャンセル」とを有するダイアログボックスを表示させることができる。そして、「OK」がクリックされたら、個人情報の削除を行った後に出力用画像の転送(出力)を実行し、「キャンセル」がクリックされたら、当初の要求をキャンセルするように構成することが可能である。   As another processing mode when the flag is not set, for example, a confirmation message such as “Do you want to transfer (output) after deleting personal information?”, Soft keys “OK” and “Cancel” Can be displayed. If “OK” is clicked, the personal information is deleted and then the output image is transferred (output). If “Cancel” is clicked, the original request is canceled. Is possible.

(構成例2)
制御部21は、(構成例1)と同様にフラグを立てる。操作者が出力用画像の転送又は出力を要求すると、制御部21は、当該出力用画像のフラグの有無を判別する。
(Configuration example 2)
The control unit 21 sets a flag in the same manner as in (Configuration Example 1). When the operator requests transfer or output of the output image, the control unit 21 determines whether or not there is a flag for the output image.

フラグがある場合、制御部21は、要求に従って、当該出力用画像を転送又は出力させる。一方、フラグがない場合には、要求を拒否するとともに、その旨を示すメッセージを記載したダイアログボックスをモニタ装置5に表示させる。   When there is a flag, the control unit 21 transfers or outputs the output image according to the request. On the other hand, if there is no flag, the request is rejected and a dialog box with a message indicating that is displayed on the monitor device 5.

以上の各変形例1〜4は、必要に応じて、後述の第2〜第4の実施形態に対して任意に適用可能である。   Each of the above-described modified examples 1 to 4 can be arbitrarily applied to second to fourth embodiments described later as necessary.

〈第2の実施形態〉
本実施形態は、第1の実施形態とは異なる態様の付帯情報消去処理を開示するものである。
<Second Embodiment>
The present embodiment discloses an incidental information erasing process different from the first embodiment.

[装置構成]
本実施形態の医用画像診断装置は、第1の実施形態と同様の外観構成を有する(図1参照)。また、制御系についても第1の実施形態とほぼ同様であるが(図2参照)、輪郭検出部16が不要な点、更に、付帯情報消去部17の構成が異なる点において、本実施形態は第1の実施形態と相違する。
[Device configuration]
The medical image diagnostic apparatus of this embodiment has the same external configuration as that of the first embodiment (see FIG. 1). The control system is substantially the same as that of the first embodiment (see FIG. 2), but the present embodiment is different in that the contour detection unit 16 is unnecessary and the configuration of the incidental information erasure unit 17 is different. This is different from the first embodiment.

図5は、本実施形態の付帯情報消去部17の内部構成の一例を表す。この付帯情報消去部17には、領域分割部17aと、ピクセル値取得部17bと、ピクセル値選択部17cと、ピクセル値変更部17dとが設けられている。また、この付帯情報消去部17には、付帯情報抽出部15から直接にデータ(表示用画像、付帯情報)が入力される。   FIG. 5 shows an example of the internal configuration of the incidental information erasure unit 17 of the present embodiment. The supplementary information erasing unit 17 includes an area dividing unit 17a, a pixel value acquiring unit 17b, a pixel value selecting unit 17c, and a pixel value changing unit 17d. Further, data (display image, supplementary information) is directly input from the supplementary information extracting unit 15 to the supplementary information erasing unit 17.

(領域分割部)
領域分割部17aは、本発明の「分割手段」の一例に相当し、付帯情報抽出部15により抽出された各文字について、文字とその周辺領域とからなる領域(対象領域と呼ぶ)を、複数の部分領域に分割するように動作する。
(Region division)
The area dividing unit 17a corresponds to an example of the “dividing unit” of the present invention, and for each character extracted by the supplementary information extracting unit 15, a plurality of areas (referred to as target areas) composed of a character and its surrounding area are provided. It works to divide into partial areas.

図6(A)は、文字Aとその周辺領域とからなる対象領域Rを示している。この対象領域R中には、文字Aの周辺領域に相当する色1の領域R1と色2の領域R2とが含まれている。色1と色2とは異なる色とする。換言すると、領域R1中のピクセルと領域R2中のピクセルとは異なるピクセル値を有するものとする。また、文字Aは、色1、色2と異なる色で表示される(つまり、文字A中のピクセルは、色1、色2の領域R1、R2とは異なるピクセル値とされている。)。以下、文字Aのピクセル値をpa、色1の領域R1のピクセル値をp1、色2の領域R2のピクセル値をp2とする。   FIG. 6A shows a target area R composed of the letter A and its surrounding area. The target region R includes a color 1 region R1 and a color 2 region R2 corresponding to the peripheral region of the character A. Color 1 and color 2 are different colors. In other words, the pixels in the region R1 and the pixels in the region R2 have different pixel values. The character A is displayed in a color different from the colors 1 and 2 (that is, the pixels in the character A have different pixel values from the regions R1 and R2 of the colors 1 and 2). Hereinafter, the pixel value of the letter A is pa, the pixel value of the color R region R1 is p1, and the pixel value of the color R region R2 is p2.

対象領域Rは、たとえば、あらかじめ設定された周辺領域の縦方向及び横方向のピクセル数を、抽出された文字Aの上下左右にそれぞれ加えたサイズと有する。すなわち、文字Aの縦方向のピクセル数をM、横方向のピクセル数をNとし、周辺領域の縦方向のピクセル数をm、横方向のピクセル数をnとすると、対象領域Rの縦方向のサイズは(M+2m)ピクセル、横方向のサイズは(N+2n)ピクセルとなる。ここでは、文字Aに外接する最小の四角形のサイズを文字Aのサイズとして定義している。   The target area R has, for example, a size obtained by adding a predetermined number of pixels in the vertical and horizontal directions of the peripheral area to the top, bottom, left, and right of the extracted character A, respectively. That is, assuming that the number of vertical pixels of character A is M, the number of horizontal pixels is N, the number of vertical pixels in the peripheral area is m, and the number of horizontal pixels is n, the vertical direction of the target area R The size is (M + 2m) pixels, and the horizontal size is (N + 2n) pixels. Here, the size of the smallest rectangle circumscribing the character A is defined as the size of the character A.

なお、対象領域のサイズの設定や、文字のサイズの定義は、上記のものに限定されるものではない。たとえば、文字の表示スペース(事前に設定された全角文字の表示スペースなど)を対象領域に設定することができる。また、文字のサイズとしては、その文字の外周のサイズを適用することができる。   The setting of the size of the target area and the definition of the character size are not limited to the above. For example, a character display space (such as a preset full-width character display space) can be set as the target region. Further, as the character size, the size of the outer periphery of the character can be applied.

領域分割部17aは、この対象領域Rを複数の部分領域r1〜rkに分割する(ここで、k=kv×kh;kv=縦方向の分割個数、kh=横方向の分割個数)。各部分領域は、縦横それぞれ数ピクセル程度のサイズとされる。本実施形態では、各部分領域r1〜rkは矩形状であるが、任意の形状であってよい。   The area dividing unit 17a divides the target area R into a plurality of partial areas r1 to rk (where k = kv × kh; kv = the number of divisions in the vertical direction, kh = the number of divisions in the horizontal direction). Each partial area has a size of about several pixels vertically and horizontally. In the present embodiment, each of the partial regions r1 to rk is rectangular, but may be any shape.

図6(B)は、部分領域r1〜rkの一部である4つの部分領域rα、rβ、rγ、rδからなる部分領域群R′の態様を表している。部分領域rαには、文字Aの一部に相当する領域Aαと、色1の領域R1の一部に相当する部分周辺領域R1αとが含まれている。部分領域rβには、色1の領域R1の一部に相当する部分周辺領域R1βと、色2の領域R2の一部に相当する部分周辺領域R2βとが含まれている。部分領域rγには、文字Aの一部に相当する領域Aγと、色1の領域R1の一部に相当する部分周辺領域R1γと、色2の領域R2の一部に相当する部分周辺領域R2γとが含まれている。部分領域rδには、文字Aの一部に相当する領域Aδと、色2の領域R2の一部に相当する部分周辺領域R2δとが含まれている。   FIG. 6B shows an aspect of a partial region group R ′ composed of four partial regions rα, rβ, rγ, rδ that are a part of the partial regions r1 to rk. The partial region rα includes a region Aα corresponding to a part of the character A and a partial peripheral region R1α corresponding to a part of the color 1 region R1. The partial region rβ includes a partial peripheral region R1β corresponding to a part of the color 1 region R1 and a partial peripheral region R2β corresponding to a part of the color 2 region R2. The partial region rγ includes a region Aγ corresponding to a part of the character A, a partial peripheral region R1γ corresponding to a part of the color 1 region R1, and a partial peripheral region R2γ corresponding to a part of the color 2 region R2. And are included. The partial region rδ includes a region Aδ corresponding to a part of the character A and a partial peripheral region R2δ corresponding to a part of the color 2 region R2.

なお、部分領域rβ、rγのように、色の異なる複数の部分周辺領域が含まれる部分領域内については、それら複数の部分周辺領域の全体を「部分周辺領域」と呼ぶことがある。   Note that, in a partial area including a plurality of partial peripheral areas having different colors, such as the partial areas rβ and rγ, the whole of the plurality of partial peripheral areas may be referred to as a “partial peripheral area”.

(ピクセル値取得部)
ピクセル値取得部17bは、本発明の「ピクセル値取得手段」の一例に相当し、複数の部分領域のそれぞれについて、部分周辺領域(つまり部分領域のうち文字の一部以外の領域)の各ピクセルのピクセル値を取得する。
(Pixel value acquisition unit)
The pixel value acquisition unit 17b corresponds to an example of the “pixel value acquisition unit” of the present invention. For each of the plurality of partial areas, each pixel in the partial peripheral area (that is, an area other than a part of the character in the partial area). Get the pixel value of.

このとき、付帯情報抽出部15による抽出結果を参照し、文字に相当するピクセルを一つも含まない部分領域については、ピクセル値取得処理(及びそれ以降の処理)の対象としないことが望ましい。また、全てのピクセルが文字に相当する部分領域については、ピクセル値選択部17cが対応する(後述)。   At this time, referring to the extraction result by the supplementary information extraction unit 15, it is desirable that a partial region that does not include any pixel corresponding to a character is not a target of pixel value acquisition processing (and subsequent processing). Further, the pixel value selection unit 17c corresponds to a partial region in which all pixels correspond to characters (described later).

図6(B)のケースでは、ピクセル値取得部17bは、部分領域rα、rβ、rγ、rδに対して次のような処理を行う。部分領域rβについては、文字に相当するピクセルが一つもないので、処理対象から除外する。   In the case of FIG. 6B, the pixel value acquisition unit 17b performs the following processing on the partial regions rα, rβ, rγ, rδ. The partial region rβ is excluded from the processing target because there is no pixel corresponding to the character.

まず、ピクセル値取得部17bは、部分領域rαについて、各ピクセルのピクセル値を取得する。特に、文字Aに相当する領域Aαを除く領域のピクセル値を取得する。その結果、部分周辺領域R1αに相当する各ピクセルのピクセル値p1が得られる。   First, the pixel value acquisition unit 17b acquires the pixel value of each pixel for the partial region rα. In particular, the pixel value of the area excluding the area Aα corresponding to the character A is acquired. As a result, the pixel value p1 of each pixel corresponding to the partial peripheral region R1α is obtained.

同様に、部分領域rγ、rδについて、それぞれ、文字Aに相当する領域Aγ、Aδを除く領域のピクセル値を取得する。その結果、部分領域rγについては、部分周辺領域R1γ中の各ピクセルにおけるピクセル値p1と、部分周辺領域R2γ中の各ピクセルにおけるピクセル値p2とを取得する。また、部分領域rδについては、部分周辺領域R2δ中の各ピクセルにおけるピクセル値p2を取得する。   Similarly, pixel values of regions excluding the regions Aγ and Aδ corresponding to the character A are acquired for the partial regions rγ and rδ, respectively. As a result, for the partial region rγ, the pixel value p1 in each pixel in the partial peripheral region R1γ and the pixel value p2 in each pixel in the partial peripheral region R2γ are acquired. For the partial region rδ, the pixel value p2 at each pixel in the partial peripheral region R2δ is acquired.

(ピクセル値選択部)
ピクセル値選択部17cは、本発明の「ピクセル値選択手段」の一例に相当し、各部分領域について、ピクセル値取得部17bが取得したピクセル値のうち、部分周辺領域において最大範囲を占めるピクセル値を選択する処理を行う。
(Pixel value selection part)
The pixel value selection unit 17c corresponds to an example of the “pixel value selection unit” of the present invention. For each partial region, the pixel value that occupies the maximum range in the partial peripheral region among the pixel values acquired by the pixel value acquisition unit 17b. The process of selecting is performed.

(1)そのために、まず、ピクセル値選択部17cは、取得されたピクセル値の分類処理を実行する。この分類処理は、取得されたピクセル値のうち異なる値のものを抽出することにより行う。図6(B)の部分領域rαについてはピクセル値p1のみが抽出され、部分領域rγについてはピクセル値p1とp2が抽出され、部分領域rδについてはピクセル値p2のみが抽出される(部分領域rβは処理対象外とされている。)。   (1) For this purpose, the pixel value selection unit 17c first executes a classification process of the acquired pixel values. This classification process is performed by extracting different values from the acquired pixel values. 6B, only the pixel value p1 is extracted, the pixel values p1 and p2 are extracted for the partial region rγ, and only the pixel value p2 is extracted for the partial region rδ (partial region rβ). Is excluded from processing.)

(2)次に、ピクセル値選択部17cは、分類処理により抽出された各ピクセル値について、そのピクセル値を有する当該部分領域内のピクセルの個数を求める。このとき、分類処理において複数のピクセル値が抽出された部分領域についてのみ、このピクセルの個数を求める処理を行えば十分である。   (2) Next, for each pixel value extracted by the classification process, the pixel value selection unit 17c obtains the number of pixels in the partial area having the pixel value. At this time, it is sufficient to perform the process of obtaining the number of pixels only for the partial area from which a plurality of pixel values are extracted in the classification process.

図6(B)の部分領域rα、rδについては、ピクセル値が1種類しか抽出されないので、当該処理は行わない。部分領域rγについては、抽出されたピクセル値が複数(p1、p2)であるので、ピクセル値p1を有するピクセルの個数と、ピクセル値p2を有するピクセルの個数とをそれぞれ求める。   For the partial regions rα and rδ in FIG. 6B, only one type of pixel value is extracted, so that the processing is not performed. For the partial region rγ, since the extracted pixel values are plural (p1, p2), the number of pixels having the pixel value p1 and the number of pixels having the pixel value p2 are respectively obtained.

ここで、部分領域rγにおいて、ピクセル値p1、p2を有するピクセルの個数をそれぞれP1γ、P2γとする(P1γ<P2γ)。   Here, in the partial region rγ, the numbers of pixels having pixel values p1 and p2 are P1γ and P2γ, respectively (P1γ <P2γ).

なお、ピクセルの個数と画像の範囲(面積)とは比例関係にあることを考慮すると、部分領域rγにおいてピクセル値p1を有するピクセルの個数は部分周辺領域R1γの範囲に対応し、ピクセル値p2を有するピクセルの個数は部分周辺領域R2γの範囲に対応する。そして、P1γ<P2γは、部分周辺領域R2γの範囲が、部分周辺領域R1γの範囲よりも大きいことを意味する。   In consideration of the proportional relationship between the number of pixels and the range (area) of the image, the number of pixels having the pixel value p1 in the partial region rγ corresponds to the range of the partial peripheral region R1γ, and the pixel value p2 is The number of pixels included corresponds to the range of the partial peripheral region R2γ. P1γ <P2γ means that the range of the partial peripheral region R2γ is larger than the range of the partial peripheral region R1γ.

(3)更に、ピクセル値選択部17cは、各部分領域について、ピクセルの個数が最大のピクセル値を選択する。   (3) Further, the pixel value selection unit 17c selects a pixel value having the maximum number of pixels for each partial region.

具体的には、上記分類処理においてピクセル値が1つしか抽出されなかった部分領域については、その単一のピクセル値を選択する。また、複数のピクセル値が抽出された部分領域については、その値を有するピクセル数が最大のピクセル値を選択する。   Specifically, for a partial region from which only one pixel value has been extracted in the classification process, the single pixel value is selected. In addition, for a partial region from which a plurality of pixel values are extracted, a pixel value having the maximum number of pixels having that value is selected.

なお、ピクセル数が最大のピクセル値が2つ以上ある場合(つまり、2つ以上のピクセル値のピクセル数が等しくかつ最大である場合)については、それら全てのピクセル値、あるいは、それらのうちの一つを選択する。後者の場合、たとえば隣接する部分領域についての選択結果を参照して、当該部分領域についてのピクセル値を選択する。   In addition, when there are two or more pixel values with the maximum number of pixels (that is, when the number of pixels of two or more pixel values is equal and maximum), all of those pixel values, or of them Select one. In the latter case, for example, the pixel value for the partial area is selected with reference to the selection result for the adjacent partial area.

また、部分周辺領域を含まない部分領域(つまり全領域が文字に相当する部分領域)については、たとえば、隣接する部分領域におけるピクセル数が最大のピクセル値を選択する。   For a partial area that does not include a partial peripheral area (that is, a partial area in which the entire area corresponds to a character), for example, a pixel value having the maximum number of pixels in the adjacent partial area is selected.

図6(B)のケースでは、部分領域rαについてはピクセル値p1が選択され、部分領域rγについてはピクセル値p2が選択され(P1γ<P2γ)、部分領域rδについてはピクセル値p2が選択される。なお、部分領域rβは処理対象外である。   In the case of FIG. 6B, the pixel value p1 is selected for the partial region rα, the pixel value p2 is selected for the partial region rγ (P1γ <P2γ), and the pixel value p2 is selected for the partial region rδ. . The partial region rβ is not subject to processing.

(ピクセル値変更部)
ピクセル値変更部17dは、各部分領域について、文字に相当する領域の各ピクセルのピクセル値を、ピクセル値選択部17cが選択したピクセル値に変更する。
(Pixel value change part)
For each partial region, the pixel value changing unit 17d changes the pixel value of each pixel in the region corresponding to the character to the pixel value selected by the pixel value selecting unit 17c.

図6(B)のケースでは、部分領域rαの各ピクセルのピクセル値がピクセル値p1に変更され、部分領域rγの各ピクセルのピクセル値がピクセル値p2に変更され、部分領域rδの各ピクセルのピクセル値がピクセル値p2に変更される。なお、部分領域rβはそのままである。   In the case of FIG. 6B, the pixel value of each pixel in the partial region rα is changed to the pixel value p1, the pixel value of each pixel in the partial region rγ is changed to the pixel value p2, and each pixel in the partial region rδ is changed. The pixel value is changed to the pixel value p2. The partial region rβ remains as it is.

それにより、部分領域群R′は、図6(C)に示すように、部分領域rαの全領域がピクセル値p1の色1の部分領域R1α′に変更され、部分領域rβは、元のまま色1の部分周辺領域R1βと色2の部分周辺領域R2βであり、部分領域rγの全領域がピクセル値p2の色2の部分領域R2γ′に変更され、部分領域rδの全領域がピクセル値p2の色2の部分領域R2δ′に変更される。   As a result, as shown in FIG. 6C, the partial area group R ′ is changed to the partial area R1α ′ of the color 1 having the pixel value p1, and the partial area rβ remains unchanged. A partial peripheral region R1β of color 1 and a partial peripheral region R2β of color 2, the entire region of the partial region rγ is changed to the partial region R2γ ′ of color 2 of the pixel value p2, and the entire region of the partial region rδ is changed to the pixel value p2. Color 2 partial region R2δ ′.

[動作]
以上のような本実施形態の医用画像診断装置が実行する付帯情報消去処理について、図7のフローチャートを参照して説明する。なお、同図において第1の実施形態と同じ工程には同じ符号を付してある。
[Operation]
The supplementary information erasing process executed by the medical image diagnostic apparatus of the present embodiment as described above will be described with reference to the flowchart of FIG. In the figure, the same steps as those in the first embodiment are denoted by the same reference numerals.

最初に、第1の実施形態と同様に、画像形成部10が被検体の医用画像を形成し(S1)、この医用画像に所定の付帯情報を埋め込んで出力用画像を形成し(S2)、その出力用画像を画像記憶部12に格納する(S3)。画像読込部13が出力用画像を読み込むと(S4)、静止画像か動画像かが判別される(S5)。   First, as in the first embodiment, the image forming unit 10 forms a medical image of the subject (S1), embeds predetermined incidental information in the medical image to form an output image (S2), The output image is stored in the image storage unit 12 (S3). When the image reading unit 13 reads the output image (S4), it is determined whether the image is a still image or a moving image (S5).

(出力用画像が静止画像の場合)
静止画像の場合、まず、第1の実施形態と同様に、その出力用画像に埋め込まれた各文字を抽出する(S6)。抽出された各文字は、出力用画像とともに付帯情報消去部17に送られる。
(When the output image is a still image)
In the case of a still image, first, as in the first embodiment, each character embedded in the output image is extracted (S6). Each extracted character is sent to the incidental information erasure unit 17 together with the output image.

付帯情報消去部17の領域分割部17aは、抽出された各文字について、文字とその周辺領域とからなる対象領域を複数の部分領域に順次分割する(S21)。各部分領域は、ピクセル値取得部17bに順次送られる。   The area dividing unit 17a of the incidental information erasing unit 17 sequentially divides the target area composed of the character and its surrounding area into a plurality of partial areas for each extracted character (S21). Each partial region is sequentially sent to the pixel value acquisition unit 17b.

ピクセル値取得部17bは、各部分領域について、その中の部分周辺領域(文字の一部以外の領域)の各ピクセルのピクセル値を取得する(S22)。ピクセル値取得部17bは、ステップS6にて抽出された各文字についてこの処理を順次行う。取得されたピクセル値のデータは、部分領域毎にピクセル値選択部17cに順次送られる。   The pixel value acquisition unit 17b acquires the pixel value of each pixel in the partial peripheral region (region other than a part of the character) in each partial region (S22). The pixel value acquisition unit 17b sequentially performs this process for each character extracted in step S6. The acquired pixel value data is sequentially sent to the pixel value selection unit 17c for each partial region.

ピクセル値選択部17cは、各部分領域について、ピクセル値取得部17bにより取得されたピクセル値のうち、部分周辺領域において最大範囲を占めるピクセル値を選択する(S23)。ピクセル値選択部17は抽出された各文字についてこの処理を順次行う。選択されたピクセル値のデータは、部分領域毎にピクセル値変更部17dに順次送られる。   For each partial region, the pixel value selection unit 17c selects a pixel value that occupies the maximum range in the partial peripheral region from among the pixel values acquired by the pixel value acquisition unit 17b (S23). The pixel value selection unit 17 sequentially performs this process for each extracted character. The data of the selected pixel value is sequentially sent to the pixel value changing unit 17d for each partial area.

ピクセル値変更部17dは、各部分領域中の各ピクセルのピクセル値を、ピクセル値選択部17cにより選択されたピクセル値に変更する(S24)。この処理は、抽出された各文字毎に順次実行される。   The pixel value changing unit 17d changes the pixel value of each pixel in each partial region to the pixel value selected by the pixel value selecting unit 17c (S24). This process is sequentially executed for each extracted character.

それにより、出力用画像の各部分領域のピクセルのピクセル値が、当該部分領域の部分周辺領域において最も広い範囲を占めていたピクセル値に変更される。特に、各部分領域内の文字に相当する領域のピクセル値が、その文字の周辺領域において最も広い範囲を占めていたピクセル値に変更され、結果としてその文字が消去される。   Thereby, the pixel value of the pixel in each partial area of the output image is changed to the pixel value that occupies the widest range in the partial peripheral area of the partial area. In particular, the pixel value of the region corresponding to the character in each partial region is changed to the pixel value that occupies the widest range in the peripheral region of the character, and as a result, the character is erased.

(出力用画像が動画画像の場合)
一方、出力用画像が動画像である場合、その出力用画像を複数のフレームに分割し(S11)、各フレーム毎に、埋め込まれている各文字を抽出する(S12)。付帯情報抽出処理が終了したフレームは、抽出された文字とともに付帯情報消去部17に順次送られる。
(When the output image is a movie image)
On the other hand, when the output image is a moving image, the output image is divided into a plurality of frames (S11), and each embedded character is extracted for each frame (S12). The frames for which the supplementary information extraction processing has been completed are sequentially sent to the supplementary information erasure unit 17 together with the extracted characters.

付帯情報消去部17の領域分割部17a、ピクセル値取得部17b、ピクセル値選択部17c、ピクセル値変更部17dは、ステップS21〜S24の処理を各フレーム毎に実行する(S31〜S34)。   The area dividing unit 17a, the pixel value acquiring unit 17b, the pixel value selecting unit 17c, and the pixel value changing unit 17d of the incidental information erasing unit 17 execute the processes of steps S21 to S24 for each frame (S31 to S34).

以上の処理により、出力用画像を形成する各フレームについて、各部分領域(特に、文字に相当する領域)のピクセルのピクセル値が、部分周辺領域において最も広い範囲を占めていたピクセル値に変更される。それにより、各フレーム中の文字が消去され、結果として出力用画像(動画像)中の文字が消去される。   With the above processing, for each frame forming the output image, the pixel value of the pixel in each partial area (particularly, the area corresponding to the character) is changed to the pixel value that occupies the widest range in the partial peripheral area. The As a result, the characters in each frame are deleted, and as a result, the characters in the output image (moving image) are deleted.

[作用効果]
本実施形態の医用画像診断装置は、上述したように、医用画像に埋め込まれた付帯情報(文字列情報)を各文字毎に自動的に抽出し、その文字を含む対象領域を複数の部分領域に分割するとともに、文字以外の領域における最大範囲を占める色で各部分領域内を塗りつぶすことにより当該付帯情報を消去する。したがって、従来のように手動で行う場合のような消去ミスが無くなるとともに、画像中の任意位置にある文字についても消去できる。更に、出力用画像中の文字の領域しか消去されないので、必要最小限程度の消去範囲で済む。
[Function and effect]
As described above, the medical image diagnostic apparatus according to the present embodiment automatically extracts incidental information (character string information) embedded in a medical image for each character, and sets a target region including the character as a plurality of partial regions. The auxiliary information is erased by painting each partial area with a color that occupies the maximum range in the area other than characters. Accordingly, there is no erasure error as in the case of manual operation as in the prior art, and characters at arbitrary positions in the image can be erased. Further, since only the character area in the output image is erased, the erasure range of the minimum necessary is sufficient.

また、出力用画像が動画像の場合であっても、円滑にかつ確実に付帯情報を消去できる。なお、出力用画像が動画像の場合、処理後の動画の見やすさを考慮し、各フレーム中の付帯情報の同一部分を消去することが望ましい。   Further, even when the output image is a moving image, the incidental information can be erased smoothly and reliably. When the output image is a moving image, it is desirable to delete the same portion of the incidental information in each frame in consideration of easy viewing of the processed moving image.

また、本実施形態に特有の効果として、各文字の対象領域の分割を細かくすれば、各部分領域のサイズが小さくなるので、文字を塗りつぶした領域をその周囲の画像の状況に好適に適合させることができる。   Further, as an effect peculiar to the present embodiment, if the division of the target area of each character is made fine, the size of each partial area is reduced, so that the area filled with characters is suitably adapted to the situation of the surrounding image. be able to.

ただし、被検体画像(特に関心領域)に重なる位置に埋め込まれた文字については、その文字に相当する領域の色が周囲の色に合わせて変更されるために、被検体画像の改竄を引き起こし誤診を招くおそれがあるので、注意が必要である。なお、被検体画像に重なる位置に埋め込まれた文字への対処については、後述する第3の実施形態で説明する。   However, for characters embedded in a position that overlaps the subject image (especially the region of interest), the color of the region corresponding to the character is changed according to the surrounding color, causing the subject image to be falsified and misdiagnosis Care must be taken because it may lead to Note that how to deal with characters embedded in a position overlapping the subject image will be described in a third embodiment to be described later.

[変形例]
上記の実施形態では、ピクセル値変更部17dにより部分領域全体のピクセル値を変更するようになっているが、文字に相当する領域のピクセル値のみを変更するように構成してもよい。
[Modification]
In the above embodiment, the pixel value changing unit 17d changes the pixel value of the entire partial area. However, only the pixel value of the area corresponding to the character may be changed.

また、抽出された各文字毎に対象領域を設定する代わりに、隣接する2以上の文字からなる文字列を単一のオブジェクトとして認識し、その周辺領域を含む対象領域を設定するとともに、その対象領域を複数の部分領域に分割して処理するように構成することも可能である。   In addition, instead of setting the target area for each extracted character, it recognizes a character string consisting of two or more adjacent characters as a single object, sets the target area including its peripheral area, and sets the target area. It is possible to divide the area into a plurality of partial areas for processing.

〈第3の実施形態〉
本実施形態では、被検体画像に重なる位置に埋め込まれた付帯情報の消去を好適に行うための構成を開示する。
<Third Embodiment>
In the present embodiment, a configuration for suitably erasing incidental information embedded at a position overlapping a subject image is disclosed.

[被検体画像と付帯情報の重畳状態について]
被検体画像と付帯情報とが重なり合った出力用画像について説明する。図8及び図9は、そのような出力用画像の一例を表している(図9は図8の画像の拡大画像である。)。両図に示す出力用画像には様々な付帯情報が埋め込まれている。最初に、それら付帯情報について簡単に説明しておく。
[About the superimposed state of the subject image and incidental information]
An output image in which the subject image and the accompanying information overlap will be described. 8 and 9 show examples of such output images (FIG. 9 is an enlarged image of the image of FIG. 8). Various incidental information is embedded in the output image shown in both figures. First, the supplementary information will be briefly described.

両図の出力用画像の左上位置には、次の付帯情報が埋め込まれている:患者ID(被検体ID情報)「226773−1」;撮影領域及び表示領域径「M:(320.00)」;スタディID「69:3:1」;付帯情報変更マーク「*」;寝台角度「−10.00mm」;チルト角「+0.0D」。なお、スタディIDとは、DICOMの階層構造における検査単位を表す「スタディ」の識別情報である。   The following supplementary information is embedded in the upper left position of the output images in both figures: patient ID (subject ID information) “226673-1”; imaging region and display region diameter “M: (320.00)” Study ID “69: 3: 1”; incidental information change mark “*”; bed angle “−10.00 mm”; tilt angle “+ 0.0D”. The study ID is identification information of “study” that represents an examination unit in the DICOM hierarchical structure.

また、左上位置には、次の付帯情報が埋め込まれている:患者名(被検者氏名)「TOSHIBA TARO」;撮影日及び撮影時刻「2004.07.12 17:50:30.549」;管電圧及び管電流時間積「120kV/150mAs」;スキャン時間、スライス厚及び撮影スライス厚「0.50s/1.0mm/1.0×16」;ヘリカルピッチ「HP15.0」。   In the upper left position, the following supplementary information is embedded: patient name (name of subject) “TOSHIBA TARO”; imaging date and imaging time “2004.07.12 17: 50: 30.549”; Tube voltage and tube current time product “120 kV / 150 mAs”; scan time, slice thickness and imaging slice thickness “0.50 s / 1.0 mm / 1.0 × 16”; helical pitch “HP 15.0”.

また、左下位置には、次の付帯情報が埋め込まれている:ウィンドウレベル「WL=0」;ウィンドウ幅「WW=300」;造影剤名、濃度、注入レート(量1、量2)「omnipaque1/100/150(300)/500(250);造影剤名「omnipaque2」。   In the lower left position, the following auxiliary information is embedded: window level “WL = 0”; window width “WW = 300”; contrast agent name, concentration, injection rate (amount 1, amount 2) “omnipaque1” / 100/150 (300) / 500 (250); contrast agent name “omnipaque2”.

また、右下位置には、次の付帯情報が埋め込まれている:患者コメント「1−5A」、[comment2]、「comment3」、「comment4」;収集コメント「Test1」、「Test2」、「Test3」、「Test4」;年齢及び性別「30Y/M」;患者体位、患者挿入方向及び画像観察方向「SU/HF/VFF」;ヘリカル補間種、再構成関数、フィルタ名及びAPMC「INTERP−5/FC60/ORG/S/」。ここで、APMCは体動補正処理を示す。   In the lower right position, the following supplementary information is embedded: patient comments “1-5A”, [comment2], “comment3”, “comment4”; collection comments “Test1”, “Test2”, “Test3” "Test4"; age and gender "30Y / M"; patient position, patient insertion direction and image viewing direction "SU / HF / VFF"; helical interpolation type, reconstruction function, filter name and APMC "INTERP-5 / FC60 / ORG / S / ". Here, APMC indicates body motion correction processing.

また、左中央位置には体位マーク「R」が、下中央位置には体位マーク「P」がそれぞれ埋め込まれている。更に、右下位置の患者コメントの背景には、5cm単位の目盛からなる5cmスケールが埋め込まれている。   Also, a body position mark “R” is embedded in the left center position, and a body position mark “P” is embedded in the lower center position. Furthermore, a 5 cm scale having a scale of 5 cm unit is embedded in the background of the patient comment in the lower right position.

図8においては、右下位置の患者コメント「1−5A」、[comment2]、「comment3」、「comment4」が、それぞれ被検体画像に重なり合う位置に埋め込まれている。また、この被検体画像の拡大画像である図9においては、全ての付帯情報が当該被検体画像に重なり合う位置に埋め込まれている。   In FIG. 8, patient comments “1-5A”, [comment2], “comment3”, and “comment4” in the lower right position are embedded at positions overlapping the subject image. Further, in FIG. 9 which is an enlarged image of the subject image, all incidental information is embedded at a position overlapping the subject image.

[装置構成]
本実施形態の医用画像診断装置は、第1の実施形態と同様の外観構成を有する(図1参照)。また、制御系についても第1の実施形態とほぼ同様であるが(図2参照)、被検体画像と付帯情報とが重なり合う領域(重畳領域)に対処するための構成を備える点において、本実施形態は第1の実施形態と相違している。
[Device configuration]
The medical image diagnostic apparatus of this embodiment has the same external configuration as that of the first embodiment (see FIG. 1). The control system is substantially the same as that of the first embodiment (see FIG. 2), but the present embodiment is provided with a configuration for dealing with a region (superimposed region) where the subject image and the auxiliary information overlap. The form is different from the first embodiment.

図10は、本実施形態の制御系の一例を表すブロック図である。本実施形態の医用画像診断装置は、重畳領域検出部23と重畳領域選択部24とを備えている。なお、付帯情報消去部17による処理は、[動作]の項で説明する。   FIG. 10 is a block diagram illustrating an example of a control system of the present embodiment. The medical image diagnostic apparatus according to the present embodiment includes a superimposed region detection unit 23 and a superimposed region selection unit 24. The processing by the incidental information erasure unit 17 will be described in the section [Operation].

(重畳領域検出部)
重畳領域検出部23は、本発明の「重畳領域検出手段」の一例に相当し、付帯情報抽出部15により付帯情報が抽出された出力用画像を解析して、被検体画像と当該抽出された付帯情報との重畳領域を検出する処理を行う。そのために、重畳領域検出部23は、たとえば次のような処理を実行する。
(Superimposed area detector)
The superimposition region detection unit 23 corresponds to an example of the “superimposition region detection unit” of the present invention, analyzes the output image from which the supplementary information is extracted by the supplementary information extraction unit 15, and extracts the subject image and the subject image. A process of detecting a superimposition area with the accompanying information is performed. For this purpose, the overlapping area detection unit 23 executes, for example, the following process.

まず、抽出された各付帯情報に相当する各ピクセルの座標を参照して、各付帯情報の範囲(つまり、各付帯情報を表示するためのピクセルの分布範囲)を取得する。   First, with reference to the coordinates of each pixel corresponding to each extracted supplementary information, a range of each supplementary information (that is, a distribution range of pixels for displaying each supplementary information) is acquired.

次に、出力用画像の各ピクセルのピクセル値に基づいて、被検体画像の範囲(つまり、被検体画像を表示するためのピクセルの分布範囲)を検出する。この検出処理の一例として、出力用画像のピクセルを画像端部からたとえば水平方向に順に参照して行き、背景画像のピクセル値から他のピクセル値に変化するピクセルの座標をそれぞれ検出する。それにより得られるピクセルの配置は、被検体画像の輪郭に相当するものとなる。   Next, a range of the subject image (that is, a distribution range of pixels for displaying the subject image) is detected based on the pixel value of each pixel of the output image. As an example of this detection process, the pixels of the output image are sequentially referenced from the image edge, for example, in the horizontal direction, and the coordinates of the pixels that change from the pixel value of the background image to other pixel values are detected. The pixel arrangement obtained thereby corresponds to the contour of the subject image.

更に、最初に取得した各付帯情報のピクセルの分布範囲と、続いて検出した被検体画像のピクセルの分布範囲とを参照し、それらが重複する範囲を求める。それにより、各付帯情報について、被検体画像との重畳領域のピクセルの分布範囲が得られる。   Further, the pixel distribution range of each supplementary information acquired first and the pixel distribution range of the detected subject image are then referred to, and the overlapping range is obtained. Thereby, for each incidental information, a distribution range of pixels in the overlapping region with the subject image is obtained.

たとえば図8中の患者名「TOSHIBA TARO」については、被検体画像と重複していないので、重複範囲は「なし」となる。また、患者コメント「comment4」については、被検体画像の輪郭中に含まれる先頭部分の「com」と、それに続く「m」の一部とが重複範囲として検出される。   For example, since the patient name “TOSHIBA TARO” in FIG. 8 does not overlap with the subject image, the overlapping range is “none”. For the patient comment “comment4”, the leading “com” included in the contour of the subject image and the subsequent “m” are detected as overlapping ranges.

なお、出力用画像が動画像の場合、重畳領域検出部23は、その動画像を形成する各フレーム毎に上記処理を実行するようになっている。   Note that, when the output image is a moving image, the superimposed region detection unit 23 performs the above-described processing for each frame forming the moving image.

(重畳領域選択部)
制御部21は、処理対象の出力用画像が動画像の場合にのみ重畳領域選択部24を動作させる。出力用画像が静止画像の場合には、その画像データ等は、重畳領域選択部24を素通りして下流側の付帯情報消去部17に送られる。
(Superimposed area selection part)
The control unit 21 operates the superimposed region selection unit 24 only when the output image to be processed is a moving image. When the output image is a still image, the image data and the like pass through the superposition region selection unit 24 and are sent to the accompanying information erasing unit 17 on the downstream side.

重畳領域選択部24は、本発明の「重畳領域選択手段」の一例に相当し、動画像からなる出力用画像の各付帯情報について重畳領域検出部23が各フレーム毎に検出した重畳領域を解析し、各付帯情報に対応する最大範囲の重畳領域を選択する。そのために、たとえば、各付帯情報について、各フレームにおける重畳領域のピクセル数を求めるとともに、それらを比較して、ピクセル数が最多の重畳領域を選択する。   The superimposition area selection unit 24 corresponds to an example of the “superimposition area selection unit” of the present invention, and analyzes the superimposition area detected by the superimposition area detection unit 23 for each frame for each incidental information of the output image composed of a moving image. Then, the maximum overlapping region corresponding to each supplementary information is selected. For this purpose, for example, for each incidental information, the number of pixels in the overlapping region in each frame is obtained and compared, and the overlapping region having the largest number of pixels is selected.

[動作]
以上のような本実施形態の医用画像診断装置が実行する付帯情報消去処理について、図11のフローチャートを参照して説明する。なお、同図において第1の実施形態と同じ工程には同じ符号を付してある。
[Operation]
The supplementary information erasing process executed by the medical image diagnostic apparatus of the present embodiment as described above will be described with reference to the flowchart of FIG. In the figure, the same steps as those in the first embodiment are denoted by the same reference numerals.

最初に、第1の実施形態と同様に、画像形成部10が被検体の医用画像を形成し(S1)、この医用画像に所定の付帯情報を埋め込んで出力用画像を形成し(S2)、その出力用画像を画像記憶部12に格納する(S3)。画像読込部13が出力用画像を読み込むと(S4)、静止画像か動画像かが判別される(S5)。   First, as in the first embodiment, the image forming unit 10 forms a medical image of the subject (S1), embeds predetermined incidental information in the medical image to form an output image (S2), The output image is stored in the image storage unit 12 (S3). When the image reading unit 13 reads the output image (S4), it is determined whether the image is a still image or a moving image (S5).

(出力用画像が静止画像の場合)
静止画像の場合、まず、第1の実施形態と同様に、その出力用画像に埋め込まれた各文字を抽出する(S6)。それにより、出力用画像中の各付帯情報(文字列情報)が抽出される。抽出された各付帯情報は、出力用画像とともに重畳領域検出部23に送られる。
(When the output image is a still image)
In the case of a still image, first, as in the first embodiment, each character embedded in the output image is extracted (S6). Thereby, each incidental information (character string information) in the output image is extracted. Each of the extracted supplementary information is sent to the overlapping area detection unit 23 together with the output image.

重畳領域検出部23は、抽出された各付帯情報について、被検体画像との重畳領域を検出する(S41)。検出された各付帯情報の重畳領域(のピクセル値のデータ)は、出力用画像とともに付帯情報消去部17に送られる。   The superimposition area detection unit 23 detects a superimposition area with the subject image for each extracted supplementary information (S41). The detected overlapping region (data of the pixel value) of each supplementary information is sent to the supplementary information erasing unit 17 together with the output image.

付帯情報消去部17は、各付帯情報について、重畳領域に含まれない部分のみを選択的に消去する(S42)。この消去処理は、たとえば、付帯情報の範囲のうち、その重畳領域外のピクセルのピクセル値を背景画像のピクセル値に変更することにより実行される。なお、この消去処理としては、第1の実施形態や第2の実施形態の手法など、任意の手法を適用することができる。   The supplementary information erasure unit 17 selectively erases only the portion that is not included in the overlapping region for each supplementary information (S42). This erasing process is executed, for example, by changing the pixel value of the pixel outside the superimposition area in the range of the auxiliary information to the pixel value of the background image. As this erasing process, any method such as the method of the first embodiment or the second embodiment can be applied.

それにより、当該出力用画像に埋め込まれた各付帯情報について、被検体画像に重なり合わない部分のみが消去され、被検体画像と重なり合っている部分については残されたままとなる。   As a result, for each supplementary information embedded in the output image, only the portion that does not overlap the subject image is deleted, and the portion that overlaps the subject image remains.

(出力用画像が動画画像の場合)
一方、出力用画像が動画像である場合、その出力用画像を複数のフレームに分割し(S11)、各フレーム毎に、埋め込まれている各文字を抽出する(S12)。それにより、各フレーム中の付帯情報(文字列情報)が抽出される。抽出処理が終了したフレームは、抽出された付帯情報とともに重畳領域検出部23に順次送られる。
(When the output image is a movie image)
On the other hand, when the output image is a moving image, the output image is divided into a plurality of frames (S11), and each embedded character is extracted for each frame (S12). Thereby, incidental information (character string information) in each frame is extracted. The frames for which the extraction process has been completed are sequentially sent to the overlapping area detection unit 23 together with the extracted auxiliary information.

重畳領域検出部23は、各フレームについて、抽出された各付帯情報が被検体画像と重なり合う重畳領域を検出する(S51)。この検出処理が終了したフレームは、検出された重畳領域とともに重畳領域選択部24に順次送られる。   The superimposed region detection unit 23 detects a superimposed region where the extracted supplementary information overlaps the subject image for each frame (S51). The frames for which this detection process has been completed are sequentially sent to the overlapping area selection unit 24 together with the detected overlapping area.

当該出力用画像の全フレームに対する重畳領域検出処理の終了を受けて、重畳領域選択部24は、検出された各付帯情報について、各フレーム中の重畳領域のうち最大範囲のもの(最大重畳領域と呼ぶ。)を選択する(S52)。選択された各付帯情報の最大重畳領域は、出力用画像とともに付帯情報消去部17に送られる。   Upon completion of the superimposition area detection process for all frames of the output image, the superimposition area selection unit 24 has the maximum range of superimposition areas in each frame (maximum superimposition area and Is selected) (S52). The selected maximum overlapping area of each supplementary information is sent to the supplementary information erasing unit 17 together with the output image.

付帯情報消去部17は、各フレーム中の各付帯情報について、その付帯情報に対して選択された最大重畳領域に相当する部分を除いた部分を選択的に消去する(S53)。この消去処理は、ステップS42と同様に、第1の実施形態や第2の実施形態の手法など任意の手法によって実行される。   The supplementary information erasing unit 17 selectively erases the portion of each supplementary information in each frame except for the portion corresponding to the maximum overlapping region selected for the supplementary information (S53). This erasure process is executed by an arbitrary method such as the method of the first embodiment or the second embodiment, similarly to step S42.

以上の処理により、出力用画像の各フレーム中の全ての付帯情報は、それぞれの最大重畳領域に相当する部分を残して消去されることとなる。すなわち、上記処理によって得られる出力用画像は、全てのフレームについて各付帯情報の同一部分(最大重畳領域)が残された画像となる。   As a result of the above processing, all incidental information in each frame of the output image is deleted leaving a portion corresponding to each maximum overlapped area. In other words, the output image obtained by the above processing is an image in which the same portion (maximum superimposition region) of each supplementary information is left for all frames.

[作用効果]
本実施形態の医用画像診断装置は、上述したように、出力用画像に埋め込まれた付帯情報を消去する際に、当該出力用画像中の被検体画像に重なり合う重畳領域を除いた部分のみを選択的に消去し、被検体画像に重なり合う部分についてはそのままの状態で残される。それにより、付帯情報の消去時に被検体画像上の情報が変更されないので、不要な付帯情報を消去しつつも、誤診を招くおそれの低減を図ることができる。
[Function and effect]
As described above, the medical image diagnostic apparatus according to the present embodiment selects only the portion excluding the overlapping region overlapping the subject image in the output image when deleting the supplementary information embedded in the output image. The portion overlapping the subject image is left as it is. Thereby, since the information on the subject image is not changed when the incidental information is erased, it is possible to reduce the possibility of misdiagnosis while erasing unnecessary incidental information.

また、出力用画像が動画像の場合、各付帯情報について全フレームの同一の部分が消去されるため、動画再生時の画像の視認性が良好となる(第1の実施形態の変形例3を参照)。   In addition, when the output image is a moving image, the same portion of all frames is deleted for each auxiliary information, so that the visibility of the image at the time of moving image reproduction is improved (Modification 3 of the first embodiment is used). reference).

更に、最大重畳領域に相当する部分を残すようにして各付帯情報が消去されるので、動画再生時の視認性を確保しつつ、不要な付帯情報を最大限消去して個人情報の保護等を図ることが可能である。このような処理は、たとえば心臓の動作状態を表す動画像など、被検体画像の大きさが変化する動画像に埋め込まれた付帯情報を消去する際に有効に適用される。   Furthermore, since each supplementary information is erased so as to leave a portion corresponding to the maximum superimposition area, the unnecessary supplementary information is erased to the maximum while ensuring the visibility at the time of video playback, and personal information is protected. It is possible to plan. Such a process is effectively applied when erasing incidental information embedded in a moving image in which the size of the subject image changes, such as a moving image representing the motion state of the heart.

[変形例]
図8、図9中の5cmスケールのように、文字列情報ではない記号情報等からなる付帯情報については、付帯情報埋め込み時に所定のピクセル値を対応させることにより、当該付帯情報を抽出し、その重畳領域を検出し、それ以外の部分を消去するように構成することができる。
[Modification]
As for the incidental information including symbol information that is not character string information as in the 5 cm scale in FIGS. 8 and 9, the incidental information is extracted by associating a predetermined pixel value when embedding the incidental information. It can be configured to detect the overlap region and erase the other part.

また、患者名などの個人情報に関わる付帯情報については、被検体画像との重複領域を含めて全てを消去するように構成することが望ましい。そのために、第1の実施形態のように実際の個人情報の前(後でもよい)に、その情報の種類を表す文字列等を埋め込み、その文字列等に相当する情報については全体を消去するように構成することが可能である。   In addition, it is desirable that all the incidental information related to personal information such as the patient name is deleted, including the overlapping area with the subject image. Therefore, as in the first embodiment, a character string indicating the type of information is embedded before (or after) the actual personal information, and the information corresponding to the character string is erased entirely. It can be configured as follows.

また、出力用画像の用途に応じて消去範囲を変更するようにしてもよい。たとえば、セカンドオピニオンを求める場合など、その被検体画像が診断に供される場合には、重畳領域のみを残して付帯情報を消去するようにし、一方、出力用画像をホームページ等に掲載する場合など、その被検体画像を診断に用いない場合には、付帯情報の全体を消去するようにする。なお、出力用画像の用途の入力操作は、たとえば、消去範囲を選択できる複数のソフトキーをダイアログボックスに設け、所望のソフトキーをクリックすることで行う。   Further, the erasure range may be changed according to the use of the output image. For example, when the subject image is used for diagnosis, such as when obtaining a second opinion, the supplementary information is deleted leaving only the superimposed area, while the output image is posted on a homepage, etc. When the subject image is not used for diagnosis, the entire incidental information is erased. Note that the input operation for the use of the output image is performed by, for example, providing a plurality of soft keys for selecting an erasing range in the dialog box and clicking a desired soft key.

〈第4の実施形態〉
本実施形態では、出力用画像に埋め込まれた付帯情報のうち、所望の付帯情報のみを選択的に消去することが可能な構成を開示する。
<Fourth Embodiment>
In the present embodiment, a configuration is disclosed in which only desired supplementary information can be selectively deleted from the supplementary information embedded in the output image.

[装置構成]
本実施形態の医用画像診断装置は、第1の実施形態と同様の外観構成を有する(図1参照)。また、制御系についても第1の実施形態とほぼ同様であるが(図2参照)、付帯情報を埋め込む付帯情報埋込部11の構成と、埋め込まれた付帯情報を選別するための構成に特徴を有している。
[Device configuration]
The medical image diagnostic apparatus of this embodiment has the same external configuration as that of the first embodiment (see FIG. 1). The control system is substantially the same as that of the first embodiment (see FIG. 2), but is characterized by the configuration of the auxiliary information embedding unit 11 for embedding the auxiliary information and the configuration for selecting the embedded auxiliary information. have.

図12は、本実施形態の制御系の一例を表すブロック図である。なお、同図中、図2と同様のプログラム記憶部22が省略されている。   FIG. 12 is a block diagram illustrating an example of a control system of the present embodiment. In the figure, the same program storage unit 22 as in FIG. 2 is omitted.

(付帯情報埋込部)
本実施形態の付帯情報埋込部11は、患者の個人情報等の実際の情報とともに、その情報の種類を識別する識別情報を付帯情報として埋め込む。
(Attached information embedding part)
The supplementary information embedding unit 11 of this embodiment embeds identification information for identifying the type of the information as supplementary information together with actual information such as personal information of the patient.

この識別情報は、第1の実施形態の例(図4参照)では、文字列キーワード「氏名」、「ID」、「kV」、「mA」である。ここで、識別情報「氏名」により識別される情報は文字列情報「東芝太郎」であり、識別情報「ID」により識別される情報は文字列情報「1048」であり、識別情報「kV」により識別される情報は文字列情報「120」であり、識別情報「mA」により識別される情報は文字列情報「50」である。   The identification information is the character string keywords “name”, “ID”, “kV”, and “mA” in the example of the first embodiment (see FIG. 4). Here, the information identified by the identification information “name” is the character string information “Toshiba Taro”, the information identified by the identification information “ID” is the character string information “1048”, and is identified by the identification information “kV”. The information identified is character string information “120”, and the information identified by the identification information “mA” is character string information “50”.

以下、識別情報により識別される情報を「識別対象情報」と呼ぶこととする。なお、識別情報と識別対象情報とは、たとえば第1の実施形態の変形例2における「:」等の区切り情報などを用いて、互いに関連付けられて埋め込まれる。   Hereinafter, information identified by the identification information is referred to as “identification target information”. The identification information and the identification target information are embedded in association with each other using, for example, delimiter information such as “:” in Modification 2 of the first embodiment.

なお、これらの文字列キーワードのように、それを見た人間が経験的に意味を把握できる識別情報以外にも、QRコード(登録商標)等のバーコードデータなど、各識別対象情報に固有に関連付けられた任意のイメージや記号などを識別情報として使用できる。ただし、この識別情報は、付帯情報抽出部15(OCRソフトウェア)によって抽出可能なデータからなることが望ましい。   In addition to the identification information that allows the person who sees them to know the meaning empirically, such as these character string keywords, it is specific to each identification target information such as barcode data such as QR code (registered trademark). Any associated image or symbol can be used as identification information. However, this identification information is preferably composed of data that can be extracted by the incidental information extraction unit 15 (OCR software).

(データ記憶部)
データ記憶部25は、消去対象特定情報25aを記憶する本発明の「記憶手段」の一例に相当する。このデータ記憶部25は、任意の記憶装置によって構成可能であるが、ハードディスクドライブ等のデータ書き換え可能な記憶装置からなることが望ましい。
(Data storage unit)
The data storage unit 25 corresponds to an example of the “storage unit” of the present invention that stores the erasure target specifying information 25a. The data storage unit 25 can be configured by an arbitrary storage device, but is preferably a storage device such as a hard disk drive that can rewrite data.

消去対象特定情報25aは、出力用画像に埋め込まれている識別対象情報のうち消去対象となる識別対象情報の識別情報を特定する情報である。この消去対象特定情報25aには、出力用画像に埋め込まれる各種の識別対象情報に対応する識別情報がたとえばリスト形式で含まれている。そして、フラグ等により、消去対象となる識別対象情報の識別情報が特定されている。   The erasure target specifying information 25a is information for specifying the identification information of the identification target information to be erased among the identification target information embedded in the output image. The erasure target specifying information 25a includes identification information corresponding to various types of identification target information embedded in the output image, for example, in a list format. Then, identification information of identification target information to be erased is specified by a flag or the like.

たとえば図4の例に対応する消去対象特定情報25aには、各識別情報「氏名」、「ID」、「kV」、「mA」がリスト形式で含まれている。そして、被検者氏名と被検者ID情報とが消去対象となっている場合、識別情報「氏名」と「ID」とがそれぞれフラグにて特定されている。   For example, the erasure target specifying information 25a corresponding to the example of FIG. 4 includes identification information “name”, “ID”, “kV”, and “mA” in a list format. When the subject name and the subject ID information are to be erased, the identification information “name” and “ID” are specified by flags.

(消去対象判断部)
消去対象判断部26は、本発明の「消去対象判断手段」の一例に相当し、付帯情報抽出部15により抽出された各識別情報について、その識別情報が消去対象特定情報25aにより特定されているか判断する。
(Erase Target Determination Unit)
The erasure target determination unit 26 corresponds to an example of the “erasure target determination unit” of the present invention, and for each identification information extracted by the supplementary information extraction unit 15, is the identification information specified by the erasure target specification information 25 a? to decide.

より具体的には、消去対象判断部26は、抽出された各識別情報について、その識別情報を形成する文字列が、消去対象特定情報25aにより特定された識別情報の文字列のいずれかに一致するかを判断する。一致した場合には、その抽出された識別情報は「消去対象特定情報25aにより特定されている」と判断する。一方、一致しない場合には、その抽出された識別情報は「消去対象特定情報25aにより特定されていない」と判断する。   More specifically, the erasure target determination unit 26, for each piece of extracted identification information, the character string forming the identification information matches one of the character strings of the identification information identified by the erasure target identification information 25a. Judge whether to do. If they match, it is determined that the extracted identification information is “specified by the erasure target specifying information 25a”. On the other hand, if they do not match, it is determined that the extracted identification information is “not specified by the erasure target specifying information 25a”.

(付帯情報消去部)
本実施形態の付帯情報消去部17は、抽出された識別情報が「特定されている」と消去対象判断部26により判断されたときに、その識別情報によって識別される識別対象情報を消去するように動作する。すなわち、付帯情報消去部17は、出力用画像に埋め込まれた識別対象情報のうち、消去対象判断部26により「消去対象特定情報25aにより特定されている」と判断された識別情報により識別される文字列情報のみを、選択的に消去する。
(Attached information deletion part)
The incidental information erasure unit 17 of the present embodiment erases the identification target information identified by the identification information when the erasure target determination unit 26 determines that the extracted identification information is “specified”. To work. In other words, the incidental information erasure unit 17 is identified by the identification information determined as “identified by the erasure target identification information 25a” by the erasure target determination unit 26 among the identification target information embedded in the output image. Only the character string information is selectively deleted.

[動作]
以上のような本実施形態の医用画像診断装置が実行する付帯情報消去処理について、図13のフローチャートを参照して説明する。なお、同図において第1の実施形態と同じ工程には同じ符号を付してある。
[Operation]
The supplementary information erasing process executed by the medical image diagnostic apparatus of the present embodiment as described above will be described with reference to the flowchart of FIG. In the figure, the same steps as those in the first embodiment are denoted by the same reference numerals.

最初に、第1の実施形態と同様に、画像形成部10が被検体の医用画像を形成する(S1)。付帯情報埋込部11は、この医用画像に、所定の識別対象情報(文字列情報)を、その識別情報とともに埋め込んで出力用画像を形成する(S60)。形成された出力用画像は画像記憶部12に格納される(S3)。画像読込部13が出力用画像を読み込むと(S4)、静止画像か動画像かが判別される(S5)。   First, as in the first embodiment, the image forming unit 10 forms a medical image of the subject (S1). The auxiliary information embedding unit 11 embeds predetermined identification target information (character string information) in the medical image together with the identification information to form an output image (S60). The formed output image is stored in the image storage unit 12 (S3). When the image reading unit 13 reads the output image (S4), it is determined whether the image is a still image or a moving image (S5).

(出力用画像が静止画像の場合)
静止画像の場合、まず、第1の実施形態と同様に、その出力用画像に埋め込まれた各文字を抽出する(S6)。それにより、出力用画像中の各付帯情報(文字列情報)が抽出される。抽出される付帯情報には、特に、1つ以上の識別対象情報と、各識別対象情報を識別する識別情報とが含まれている。抽出された付帯情報は、出力用画像とともに消去対象判断部26に送られる。
(When the output image is a still image)
In the case of a still image, first, as in the first embodiment, each character embedded in the output image is extracted (S6). Thereby, each incidental information (character string information) in the output image is extracted. The extracted incidental information includes, in particular, one or more pieces of identification target information and identification information for identifying each piece of identification target information. The extracted incidental information is sent to the erasure target determination unit 26 together with the output image.

なお、識別情報としてQRコード(登録商標)等のバーコード情報等が埋め込まれている場合には、そのバーコード情報等が抽出され、識別対象情報及び出力用画像とともに消去対象判断部26に送られる。   When barcode information such as QR code (registered trademark) is embedded as identification information, the barcode information is extracted and sent to the erasure target determination unit 26 together with the identification target information and the output image. It is done.

消去対象判断部26は、抽出された各識別情報について、その識別情報が消去対象特定情報25aにより特定されているか判断する(S61)。その判断結果は、出力用画像とともに付帯情報消去部17に送られる。   The erasure target determination unit 26 determines, for each extracted identification information, whether the identification information is specified by the erasure target specifying information 25a (S61). The determination result is sent to the incidental information erasure unit 17 together with the output image.

付帯情報消去部17は、この出力用画像に埋め込まれた識別対象情報のうち、ステップS61において「特定されている」と判断された識別情報によって識別される識別対象情報のみを消去する。(S62)。この消去処理は、たとえば、第1の実施形態や第2の実施形態の手法など、任意の手法により行う。   The supplementary information erasure unit 17 erases only the identification target information identified by the identification information determined to be “specified” in step S61 from the identification target information embedded in the output image. (S62). This erasing process is performed by an arbitrary method such as the method of the first embodiment or the second embodiment.

それにより、当該出力用画像に埋め込まれた1以上の識別対象情報について、消去対象特定情報25aにより特定された識別情報により識別されるもののみが選択的に消去される。   As a result, only one or more identification target information embedded in the output image is selectively erased as identified by the identification information identified by the erasure target identification information 25a.

(出力用画像が動画画像の場合)
一方、出力用画像が動画像である場合、その出力用画像を複数のフレームに分割し(S11)、各フレーム毎に、埋め込まれている各文字を抽出する(S12)。それにより、各フレーム中の付帯情報(文字列情報)が抽出される。抽出処理が終了したフレームは、抽出された付帯情報とともに重畳領域検出部23に順次送られる。
(When the output image is a movie image)
On the other hand, when the output image is a moving image, the output image is divided into a plurality of frames (S11), and each embedded character is extracted for each frame (S12). Thereby, incidental information (character string information) in each frame is extracted. The frames for which the extraction process has been completed are sequentially sent to the overlapping area detection unit 23 together with the extracted auxiliary information.

消去対象判断部26は、各フレームから抽出された各識別情報について、その識別情報が消去対象特定情報25aにより特定されているか判断する。(S71)。この判断処理は、各フレーム毎に行われ、処理が終了したフレームは、判断結果とともに付帯情報消去部17に順次送られる。   The erasure target determination unit 26 determines whether the identification information is identified by the erasure target identification information 25a for each identification information extracted from each frame. (S71). This determination process is performed for each frame, and the frames for which the process has been completed are sequentially sent to the auxiliary information erasure unit 17 together with the determination result.

付帯情報消去部17は、各フレームに埋め込まれた識別対象情報のうち、ステップS71において「特定されている」と判断された識別情報によって識別される識別対象情報のみを消去する。(S72)。この消去処理は、第1の実施形態や第2の実施形態の手法など任意の手法により、各フレーム毎に行われる。   The incidental information erasure unit 17 erases only the identification target information identified by the identification information determined to be “specified” in step S71 from the identification target information embedded in each frame. (S72). This erasure process is performed for each frame by an arbitrary method such as the method of the first embodiment or the second embodiment.

以上の処理により、出力用画像の各フレームについて、埋め込まれた1以上の識別対象情報のうち、消去対象特定情報25aにより特定された識別情報により識別されるもののみが選択的に消去されることとなる。   Through the above processing, for each frame of the output image, only one identified by the identification information specified by the deletion target specifying information 25a among the one or more embedded identification target information is selectively deleted. It becomes.

[作用効果]
本実施形態の医用画像診断装置は、上述したように、出力用画像に埋め込まれる各識別対象情報について、それが消去対象であるか否かを特定する消去対象特定情報25aをあらかじめ有している。そして、画像記憶部12から出力用画像を読み込むと、その出力用画像に埋め込まれた識別対象情報とその識別情報とを抽出するとともに、抽出された各識別情報について、消去対象特定情報25aにより消去対象に特定されているか判断する。そして、消去対象に特定された識別情報に対応する消去対象情報のみを、出力用画像から選択的に消去する。
[Function and effect]
As described above, the medical image diagnostic apparatus according to the present embodiment has the erasure target specifying information 25a for specifying whether or not each identification target information embedded in the output image is an erasure target in advance. . When the output image is read from the image storage unit 12, the identification target information embedded in the output image and the identification information are extracted, and the extracted identification information is erased by the erasure target specifying information 25a. Determine if the subject is specified. Then, only the erasure target information corresponding to the identification information specified as the erasure target is selectively erased from the output image.

それにより、消去対象特定情報25a中の所望の識別情報を特定しておくことで、所望の識別対象情報のみを選択的に消去することができる。特に、被検者氏名や被検体ID情報など、被検者の個人情報に関わる情報については、消去対象特定情報25aにより常時特定しておくことが望ましい。   Thereby, by specifying the desired identification information in the erasure target specifying information 25a, it is possible to selectively delete only the desired identification target information. In particular, it is desirable to always specify information related to the personal information of the subject such as the name of the subject and the subject ID information by the deletion target specifying information 25a.

[変形例]
消去対象特定情報25aにより特定される識別情報(消去対象)を任意に変更する手段を設けることが望ましい。この消去対象変更手段としては、次のような形態を適用することができる。
[Modification]
It is desirable to provide means for arbitrarily changing the identification information (erase target) specified by the erase target specifying information 25a. The following forms can be applied as the erasure target changing means.

まず、第1の形態として、モニタ装置5に消去対象を指定するためのダイアログボックスを表示させる。このダイアログボックスには、たとえば、出力用画像に埋め込まれる各識別対象情報の識別情報が列挙されており、各識別情報の横に指定/解除を切り換えるためのチェックボックスが形成されている。ユーザは、入力デバイス(たとえばマウス)を操作し、所望の識別情報のチェックボックスにチェックマークを表示させて、その識別情報を消去対象に指定する。このように指定された各識別情報は、制御部21により、消去対象特定情報25aに消去対象として設定される。   First, as a first form, a dialog box for designating an erasure target is displayed on the monitor device 5. In this dialog box, for example, identification information of each identification target information embedded in the output image is listed, and a check box for switching designation / cancellation is formed beside each identification information. The user operates an input device (for example, a mouse) to display a check mark in a check box of desired identification information, and designates the identification information as an erasure target. Each identification information specified in this way is set as an erasure target in the erasure target specifying information 25a by the control unit 21.

第2の形態としては、出力用画像の用途に応じて消去対象を自動的に変更する構成を適用できる。そのために、出力用画像の各用途毎に消去対象となる識別情報をあらかじめ設定しておく。モニタ装置5に用途指定用のダイアログボックスを表示させ、入力デバイスにて用途が指定されると、制御部21は、その指定された用途に対応する消去対象の識別情報を消去対象特定情報25aに設定する。   As a second mode, a configuration in which the erasure target is automatically changed according to the use of the output image can be applied. For this purpose, identification information to be erased is set in advance for each use of the output image. When a dialog box for use designation is displayed on the monitor device 5 and the use is designated by the input device, the control unit 21 sets the identification information of the erase target corresponding to the designated use as the erase target specifying information 25a. Set.

〈医用画像処理装置及び医用画像処理プログラム〉
以上の説明では、本発明に係る医用画像診断装置の各種実施形態について詳述した。以下、本発明に係る医用画像処理装置及び医用画像処理プログラムについて説明する。
<Medical image processing apparatus and medical image processing program>
In the above description, various embodiments of the medical image diagnostic apparatus according to the present invention have been described in detail. Hereinafter, a medical image processing apparatus and a medical image processing program according to the present invention will be described.

本発明の医用画像処理装置は、上記の各実施形態のコンピュータ4(図1参照;モニタ装置5及び入力デバイス6を含んでいてもよい。)や、医用画像の処理に使用される任意のコンピュータにより形成され、特に、付帯情報抽出部15及び付帯情報消去部17を含んで構成される(図2等参照)。なお、医用画像の処理に供されるコンピュータとしては、医師が専ら使用するコンピュータ、各種医用画像診断装置からの医用画像を一括管理するサーバなどがある。   The medical image processing apparatus of the present invention is the computer 4 (see FIG. 1; may include the monitor device 5 and the input device 6) of each of the above embodiments, or any computer used for processing medical images. In particular, it is configured to include an accompanying information extracting unit 15 and an accompanying information erasing unit 17 (see FIG. 2 and the like). Computers used for medical image processing include computers exclusively used by doctors and servers that collectively manage medical images from various medical image diagnostic apparatuses.

より具体的には、医用画像処理装置は、第1の実施形態においては、図2中の少なくとも、付帯情報抽出部15、輪郭検出部16、付帯情報消去部17、制御部21及びプログラム記憶部22を含んで構成される。更に、通信インターフェイス18及び/又は画像出力インターフェイス19や、付帯情報埋込部11や、画像記憶部12や、画像データベース20などを含んでいてもよい(以下同様)。また、画像判別部14については、静止画像及び動画像の双方を取り扱う場合に設けられる(以下同様)。   More specifically, in the first embodiment, the medical image processing apparatus includes at least the supplementary information extraction unit 15, the contour detection unit 16, the supplementary information erasing unit 17, the control unit 21, and the program storage unit in FIG. 22 is comprised. Furthermore, the communication interface 18 and / or the image output interface 19, the auxiliary information embedding unit 11, the image storage unit 12, the image database 20, and the like may be included (the same applies hereinafter). The image discriminating unit 14 is provided when handling both still images and moving images (the same applies hereinafter).

また、第2の実施形態に対応する医用画像処理装置は、図1、図5中の少なくとも、付帯情報抽出部15、付帯情報消去部17(領域分割部17a〜ピクセル値変更部17d)、制御部21及びプログラム記憶部22を含んで構成される。   In addition, the medical image processing apparatus corresponding to the second embodiment includes at least the supplementary information extraction unit 15, the supplementary information erasing unit 17 (region dividing unit 17a to pixel value changing unit 17d) in FIG. 1 and FIG. The unit 21 and the program storage unit 22 are included.

また、第3の実施形態に対応する医用画像処理装置は、図1、図10中の少なくとも、付帯情報抽出部15、重畳領域検出部23、重畳領域選択部24、付帯情報消去部17、制御部21及びプログラム記憶部22を含んで構成される。   The medical image processing apparatus corresponding to the third embodiment includes at least the supplementary information extraction unit 15, the superimposition region detection unit 23, the superimposition region selection unit 24, the supplementary information erasure unit 17, and the control in FIGS. The unit 21 and the program storage unit 22 are included.

また、第4の実施形態に対応する医用画像処理装置は、図1、図12中の少なくとも、付帯情報抽出部15、データ記憶部25、消去対象判断部26、付帯情報消去部17、制御部21及びプログラム記憶部22を含んで構成される。   The medical image processing apparatus corresponding to the fourth embodiment includes at least the supplementary information extraction unit 15, the data storage unit 25, the erasure target determination unit 26, the supplementary information erasure unit 17, and the control unit in FIGS. 21 and a program storage unit 22.

このような医用画像処理装置によれば、上述の医用画像診断装置の各実施形態と同様に、医用画像に埋め込まれた付帯情報を好適に自動消去することが可能である。   According to such a medical image processing apparatus, the auxiliary information embedded in the medical image can be suitably automatically deleted as in the embodiments of the medical image diagnostic apparatus described above.

また、本発明に係る医用画像処理プログラムは、上述の第1〜第4の実施形態で説明した処理(図3、図7、図11、図13のフローチャート参照)を任意のコンピュータに実行させるコンピュータプログラムである。この医用画像処理プログラムは、当該コンピュータ自身に搭載されていてもよいし(図2のプログラム記憶部22等に記憶されている)、ネットワーク上のサーバ等に当該プログラムを搭載し、当該コンピュータがネットワーク経由で読み込んで使用するようにしてもよい。それにより、当該コンピュータは、特に付帯情報抽出部15及び付帯情報消去部17として機能する。   The medical image processing program according to the present invention is a computer that causes an arbitrary computer to execute the processes described in the first to fourth embodiments (see the flowcharts in FIGS. 3, 7, 11, and 13). It is a program. The medical image processing program may be installed in the computer itself (stored in the program storage unit 22 or the like in FIG. 2), or the program is installed in a server on a network, and the computer is connected to the network. You may make it read and use via. Thereby, the computer functions as the accompanying information extracting unit 15 and the accompanying information erasing unit 17 in particular.

第1の実施形態に対応する医用画像処理プログラムは、コンピュータを、付帯情報抽出部15、輪郭検出部16、付帯情報消去部17、制御部21として機能させて、図3に示した処理を実行させる。更に、付帯情報埋込部11や画像判断部14として機能させてもよい(以下同様)。   The medical image processing program corresponding to the first embodiment causes the computer to function as the auxiliary information extracting unit 15, the contour detecting unit 16, the auxiliary information erasing unit 17, and the control unit 21, and executes the processing shown in FIG. Let Further, it may function as the auxiliary information embedding unit 11 and the image determination unit 14 (the same applies hereinafter).

また、第2の実施形態に対応する医用画像処理プログラムは、コンピュータを、付帯情報抽出部15、付帯情報消去部17(領域分割部17a〜ピクセル値変更部17d)、制御部21として機能させて、図7に示した処理を実行させる。   The medical image processing program corresponding to the second embodiment causes the computer to function as the incidental information extraction unit 15, the incidental information erasure unit 17 (region division unit 17a to pixel value change unit 17d), and the control unit 21. Then, the process shown in FIG. 7 is executed.

また、第3の実施形態に対応する医用画像処理プログラムは、コンピュータを、付帯情報抽出部15、重畳領域検出部23、重畳領域選択部24、付帯情報消去部17、制御部21として機能させて、図11に示した処理を実行させる。   In addition, the medical image processing program corresponding to the third embodiment causes a computer to function as the incidental information extraction unit 15, the overlapping region detection unit 23, the overlapping region selection unit 24, the incidental information deletion unit 17, and the control unit 21. Then, the processing shown in FIG. 11 is executed.

また、第4の実施形態に対応する医用画像処理プログラムは、コンピュータを、付帯情報抽出部15、データ記憶部25、消去対象判断部26、付帯情報消去部17、制御部21として機能させて、図13に示した処理を実行させる。   The medical image processing program corresponding to the fourth embodiment causes the computer to function as the incidental information extraction unit 15, the data storage unit 25, the erasure target determination unit 26, the incidental information erasure unit 17, and the control unit 21, The process shown in FIG. 13 is executed.

なお、このような医用画像処理プログラムは、ROM、RAM、フラッシュメモリ等の半導体メモリ、並びに、集積回路等のメモリ装置、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記録媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などの任意の記録媒体に記録することが可能である。   Such a medical image processing program includes a semiconductor memory such as a ROM, a RAM, a flash memory, a memory device such as an integrated circuit, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO). Etc.) and a magnetic recording medium (hard disk / floppy (registered trademark) disk / ZIP, etc.).

以上にて詳述した構成は、本発明を好適に実施するための一具体例を開示したに過ぎないものであり、本発明の要旨の範囲内において任意の変形を適宜に施すことが可能である。   The configuration described in detail above merely discloses one specific example for suitably carrying out the present invention, and arbitrary modifications can be appropriately made within the scope of the gist of the present invention. is there.

本発明に係る医用画像診断装置の第1の実施形態の外観構成の一例を表す概略図である。It is the schematic showing an example of the external appearance structure of 1st Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第1の実施形態の制御系の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the structure of the control system of 1st Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第1の実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of 1st Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第1の実施形態による付帯情報消去処理の一例を表す概略説明図である。図4(A)は、付帯情報埋め込み前の医用画像の概略形態を表す。図4(B)は、付帯情報を埋め込んで形成される出力用画像の概略形態を表す。図4(C)は、付帯情報が消去された出力用画像の概略形態を表す。It is a schematic explanatory drawing showing an example of the incidental information deletion process by 1st Embodiment of the medical image diagnostic apparatus which concerns on this invention. FIG. 4A shows a schematic form of a medical image before embedding incidental information. FIG. 4B shows a schematic form of an output image formed by embedding incidental information. FIG. 4C shows a schematic form of an output image from which incidental information has been deleted. 本発明に係る医用画像診断装置の第2の実施形態の制御系の部分構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the partial structure of the control system of 2nd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第2の実施形態による付帯情報消去処理の一例を表す概略説明図である。図6(A)は、付帯情報が消去される前の出力用画像の概略形態を表す。図6(B)は、図6(A)の一部拡大図を表す。図6(C)は、付帯情報が消去された後の図6(B)に示す部分の概略形態を表す。It is a schematic explanatory drawing showing an example of the incidental information deletion process by 2nd Embodiment of the medical image diagnostic apparatus which concerns on this invention. FIG. 6A shows a schematic form of the output image before the auxiliary information is deleted. FIG. 6B shows a partially enlarged view of FIG. FIG. 6C shows a schematic form of the portion shown in FIG. 6B after the incidental information is erased. 本発明に係る医用画像診断装置の第2の実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of 2nd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第3の実施形態において、被検体画像と付帯情報とが重なり合った状態を説明するための説明図である。It is explanatory drawing for demonstrating the state with which the to-be-examined image and incidental information overlapped in 3rd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第3の実施形態において、被検体画像と付帯情報との重なり合った状態を説明するための説明図である。It is explanatory drawing for demonstrating the state with which the to-be-examined image and incidental information overlapped in 3rd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第3の実施形態の制御系の部分構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the partial structure of the control system of 3rd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第3の実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of 3rd Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第4の実施形態の制御系の部分構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the partial structure of the control system of 4th Embodiment of the medical image diagnostic apparatus which concerns on this invention. 本発明に係る医用画像診断装置の第4の実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of 4th Embodiment of the medical image diagnostic apparatus which concerns on this invention.

符号の説明Explanation of symbols

1 医用画像診断装置
2 ガントリ
3 寝台
4 コンピュータ(医用画像処理装置)
5 モニタ装置
6 入力デバイス
10 画像形成部
11 付帯情報埋込部
12 画像記憶部
13 画像読込部
14 画像判別部
15 付帯情報抽出部
16 輪郭検出部
17 付帯情報消去部
17a 領域分割部
17b ピクセル値取得部
17c ピクセル値選択部
17d ピクセル値変更部
18 通信インターフェイス
19 画像出力インターフェイス
20 画像データベース
21 制御部
22 プログラム記憶部
23 重畳領域検出部
24 重畳領域選択部
25 データ記憶部
25a 消去対象特定情報
26 消去対象判断部
30 外部データベース
40 画像出力媒体

DESCRIPTION OF SYMBOLS 1 Medical diagnostic imaging apparatus 2 Gantry 3 Sleeper 4 Computer (medical image processing apparatus)
DESCRIPTION OF SYMBOLS 5 Monitor apparatus 6 Input device 10 Image formation part 11 Additional information embedding part 12 Image storage part 13 Image reading part 14 Image discrimination | determination part 15 Additional information extraction part 16 Contour detection part 17 Additional information deletion part 17a Area division part 17b Acquisition of pixel value Unit 17c Pixel value selection unit 17d Pixel value change unit 18 Communication interface 19 Image output interface 20 Image database 21 Control unit 22 Program storage unit 23 Superimposition region detection unit 24 Superimposition region selection unit 25 Data storage unit 25a Erase target specific information 26 Erase target Determination unit 30 External database 40 Image output medium

Claims (26)

被検体の内部形態を反映するデータに基づいて医用画像を形成する画像形成手段を有する医用画像診断装置であって、
前記医用画像に付帯情報を埋め込んで形成された出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、
前記抽出された付帯情報を前記出力用画像から消去する消去手段と、
前記付帯情報が消去された出力用画像を出力する出力手段と、
を備えることを特徴とする医用画像診断装置。
A medical image diagnostic apparatus having an image forming means for forming a medical image based on data reflecting an internal form of a subject,
Extracting means for extracting auxiliary information embedded in an output image formed by embedding auxiliary information in the medical image;
Erasing means for erasing the extracted incidental information from the output image;
Output means for outputting an output image from which the incidental information has been deleted;
A medical image diagnostic apparatus comprising:
前記付帯情報は文字列情報を含み、
前記抽出手段は、前記出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出する、
ことを特徴とする請求項1に記載の医用画像診断装置。
The incidental information includes character string information,
The extraction means analyzes the entire output image and extracts character string information embedded in the output image for each character.
The medical image diagnostic apparatus according to claim 1.
前記抽出された文字の輪郭を検出する輪郭検出手段を更に備え、
前記消去手段は、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去する、
ことを特徴とする請求項2に記載の医用画像診断装置。
A contour detecting means for detecting the contour of the extracted character;
The erasing means erases character string information by changing a pixel value of a pixel in an inner region of the detected contour to a predetermined value.
The medical image diagnostic apparatus according to claim 2.
前記消去手段は、
前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、
前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、
前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、
を備え、
前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去する、
ことを特徴とする請求項2に記載の医用画像診断装置。
The erasing means includes
A dividing unit that divides the extracted character and its peripheral region into a plurality of partial regions;
Pixel value acquisition means for acquiring a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions;
Pixel value selection means for selecting a pixel value that occupies a maximum range in the partial peripheral region based on the acquired pixel value for each partial region;
With
Erasing the character by changing the pixel value of each pixel of each subregion to the selected pixel value;
The medical image diagnostic apparatus according to claim 2.
前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段を更に備え、
前記消去手段は、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去する、
ことを特徴とする請求項1に記載の医用画像診断装置。
The image processing apparatus further includes a superimposition region detection unit that analyzes the output image from which the supplementary information is extracted by the extraction unit and detects a superimposition region where the subject image representing the internal form of the subject and the extracted supplementary information overlap. ,
The erasing means selectively erases a portion outside the detected overlapping area from the extracted incidental information.
The medical image diagnostic apparatus according to claim 1.
前記形成された出力用画像は、複数の静止画像からなる動画像であり、
前記抽出手段は、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、
前記重畳領域検出手段は、前記抽出された付帯情報の重畳領域を各静止画像毎に検出し、
前記各静止画像毎に検出された重畳領域のうち、最大範囲の重畳領域を選択する重畳領域選択手段を更に備え、
前記消去手段は、前記複数の静止画像のそれぞれの前記付帯情報のうち、前記選択された重畳領域外に相当する部分を選択的に消去する、
ことを特徴とする請求項5に記載の医用画像診断装置。
The formed output image is a moving image composed of a plurality of still images,
The extraction means extracts the auxiliary information embedded in the plurality of still images of the moving image for each still image,
The superimposing region detection means detects the superimposing region of the extracted incidental information for each still image,
A superposition area selection means for selecting a superposition area of the maximum range among the superposition areas detected for each still image;
The erasing means selectively erases a portion corresponding to the outside of the selected overlapped area of the incidental information of each of the plurality of still images;
The medical image diagnostic apparatus according to claim 5.
前記重畳領域検出手段は、前記出力用画像の各ピクセルのピクセル値に基づいて被検体画像の範囲を検出し、その検出された被検体画像の範囲と前記抽出された付帯情報の範囲とに基づいて前記重畳領域を検出することを特徴とする請求項5又は請求項6に記載の医用画像診断装置。   The superimposing area detecting means detects a range of the subject image based on a pixel value of each pixel of the output image, and based on the detected range of the subject image and the range of the extracted auxiliary information. The medical image diagnostic apparatus according to claim 5 or 6, wherein the superimposed region is detected. 前記形成された出力用画像は、複数の静止画像からなる動画像であり、
前記抽出手段は、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、
前記消去手段は、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去する、
ことを特徴とする請求項1ないし請求項5のいずれか一項に記載の医用画像診断装置。
The formed output image is a moving image composed of a plurality of still images,
The extraction means extracts the auxiliary information embedded in the plurality of still images of the moving image for each still image,
The erasing means erases the extracted supplementary information from each of the plurality of still images for each still image;
The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
前記形成された出力用画像は、静止画像又は複数の静止画像からなる動画像であり、
前記出力用画像が静止画像であるか又は動画像であるか判別する画像判別手段を更に備え、
前記抽出手段は、前記出力用画像が動画像であると前記判別されたときに、当該動画像を形成する複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、
前記消去手段は、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去する、
ことを特徴とする請求項1ないし請求項5のいずれか一項に記載の医用画像診断装置。
The formed output image is a moving image composed of a still image or a plurality of still images,
Further comprising image discriminating means for discriminating whether the output image is a still image or a moving image;
The extraction unit extracts, for each still image, supplementary information embedded in a plurality of still images forming the moving image when the output image is determined to be a moving image.
The erasing means erases the extracted supplementary information from each of the plurality of still images for each still image;
The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
前記消去手段は、前記付帯情報を各静止画像毎に消去するときに、前記複数の静止画像の同一の領域を消去することを特徴とする請求項8又は請求項9に記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 8 or 9, wherein the erasing unit erases the same area of the plurality of still images when the auxiliary information is erased for each still image. . 前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、
前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段と、
前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段と、
を更に備え、
前記消去手段は、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去する、
ことを特徴とする請求項1ないし請求項10のいずれか一項に記載の医用画像診断装置。
The accompanying information includes one or more pieces of character string information and identification information for identifying the type of each character string information,
Storage means for preliminarily storing erasure target specifying information for specifying the identification information of character string information to be deleted among the one or more character string information;
Erasure target determination means for determining whether the identification information extracted by the extraction means is specified by the erasure target specification information;
Further comprising
The erasing means selectively erases the character string information identified by the identification information when it is determined that the extracted identification information is specified;
The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
前記識別情報は、識別する文字列情報の種類を表す文字列、又は、識別する文字列情報に関連付けられたイメージを含むことを特徴とする請求項11に記載の医用画像診断装置。   The medical image diagnosis apparatus according to claim 11, wherein the identification information includes a character string representing a type of character string information to be identified or an image associated with the character string information to be identified. 被検体の内部形態を反映するデータに基づいて形成された医用画像を処理する医用画像処理装置であって、
前記医用画像に付帯情報を埋め込んで形成された出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、
前記抽出された付帯情報を前記出力用画像から消去する消去手段と、
前記付帯情報が消去された出力用画像を出力する出力手段と、
を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus for processing a medical image formed based on data reflecting an internal form of a subject,
Extracting means for extracting auxiliary information embedded in an output image formed by embedding auxiliary information in the medical image;
Erasing means for erasing the extracted incidental information from the output image;
Output means for outputting an output image from which the incidental information has been deleted;
A medical image processing apparatus comprising:
前記付帯情報は文字列情報を含み、
前記抽出手段は、前記出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出する、
ことを特徴とする請求項13に記載の医用画像処理装置。
The incidental information includes character string information,
The extraction means analyzes the entire output image and extracts character string information embedded in the output image for each character.
The medical image processing apparatus according to claim 13.
前記抽出された文字の輪郭を検出する輪郭検出手段を更に備え、
前記消去手段は、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去する、
ことを特徴とする請求項14に記載の医用画像処理装置。
A contour detecting means for detecting the contour of the extracted character;
The erasing means erases character string information by changing a pixel value of a pixel in an inner region of the detected contour to a predetermined value.
The medical image processing apparatus according to claim 14.
前記消去手段は、
前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、
前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、
前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、
を備え、
前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去する、
ことを特徴とする請求項14に記載の医用画像処理装置。
The erasing means includes
A dividing unit that divides the extracted character and its peripheral region into a plurality of partial regions;
Pixel value acquisition means for acquiring a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions;
Pixel value selection means for selecting a pixel value that occupies a maximum range in the partial peripheral region based on the acquired pixel value for each partial region;
With
Erasing the character by changing the pixel value of each pixel of each subregion to the selected pixel value;
The medical image processing apparatus according to claim 14.
前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段を更に備え、
前記消去手段は、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去する、
ことを特徴とする請求項13に記載の医用画像処理装置。
The image processing apparatus further includes a superimposition region detection unit that analyzes the output image from which the supplementary information is extracted by the extraction unit, and detects a superimposition region where the subject image representing the internal form of the subject overlaps the extracted supplementary information. ,
The erasing means selectively erases a portion outside the detected overlapping area from the extracted incidental information.
The medical image processing apparatus according to claim 13.
前記形成された出力用画像は、複数の静止画像からなる動画像であり、
前記抽出手段は、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出し、
前記消去手段は、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去する、
ことを特徴とする請求項13ないし請求項17のいずれか一項に記載の医用画像処理装置。
The formed output image is a moving image composed of a plurality of still images,
The extraction means extracts the auxiliary information embedded in the plurality of still images of the moving image for each still image,
The erasing means erases the extracted supplementary information from each of the plurality of still images for each still image;
The medical image processing apparatus according to claim 13, wherein the medical image processing apparatus is a medical image processing apparatus.
前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、
前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段と、
前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段と、
を更に備え、
前記消去手段は、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去する、
ことを特徴とする請求項13ないし請求項18のいずれか一項に記載の医用画像処理装置。
The accompanying information includes one or more pieces of character string information and identification information for identifying the type of each character string information,
Storage means for preliminarily storing erasure target specifying information for specifying the identification information of character string information to be deleted among the one or more character string information;
Erasure target determination means for determining whether the identification information extracted by the extraction means is specified by the erasure target specification information;
Further comprising
The erasing means selectively erases the character string information identified by the identification information when it is determined that the extracted identification information is specified;
The medical image processing apparatus according to any one of claims 13 to 18, wherein the medical image processing apparatus according to any one of claims 13 to 18 is characterized.
コンピュータを、
被検体の内部形態を反映するデータに基づいて形成された医用画像に付帯情報を埋め込んで形成された出力用画像を受け付ける受付手段と、
前記受け付けられた出力用画像に埋め込まれた付帯情報を抽出する抽出手段と、
前記抽出された付帯情報を前記出力用画像から消去する消去手段と、
して機能させることを特徴とする医用画像処理プログラム。
Computer
Receiving means for receiving an output image formed by embedding additional information in a medical image formed based on data reflecting the internal form of the subject;
Extraction means for extracting the supplementary information embedded in the received output image;
Erasing means for erasing the extracted incidental information from the output image;
A medical image processing program characterized by being made to function.
前記付帯情報は文字列情報を含み、
前記抽出手段を、前記受け付けられた出力用画像の全体を解析して、当該出力用画像に埋め込まれた文字列情報を各文字毎に抽出するように機能させる、
ことを特徴とする請求項20に記載の医用画像処理プログラム。
The incidental information includes character string information,
The extraction means functions to analyze the entire received output image and extract character string information embedded in the output image for each character.
21. The medical image processing program according to claim 20, wherein:
前記コンピュータを、前記抽出された文字の輪郭を検出する輪郭検出手段として更に機能させ、
前記消去手段を、前記検出された輪郭の内部領域のピクセルのピクセル値を所定の値に変更することにより文字列情報を消去するように機能させる、
ことを特徴とする請求項21に記載の医用画像処理プログラム。
Allowing the computer to further function as contour detection means for detecting the contour of the extracted character;
The erasing means functions to erase character string information by changing a pixel value of a pixel in the inner region of the detected contour to a predetermined value.
The medical image processing program according to claim 21, wherein:
前記消去手段を、
前記抽出された文字及びその周辺領域からなる領域を複数の部分領域に分割する分割手段と、
前記複数の部分領域のうち前記文字に相当する領域を含む各部分領域について、前記周辺領域に相当する部分周辺領域の各ピクセルのピクセル値を取得するピクセル値取得手段と、
前記各部分領域について、前記取得されたピクセル値に基づき、前記部分周辺領域において最大範囲を占めるピクセル値を選択するピクセル値選択手段と、
して機能させるとともに、
前記各部分領域の各ピクセルのピクセル値を前記選択されたピクセル値に変更することにより前記文字を消去するように機能させる、
ことを特徴とする請求項21に記載の医用画像処理プログラム。
The erasing means,
A dividing unit that divides the extracted character and its peripheral region into a plurality of partial regions;
Pixel value acquisition means for acquiring a pixel value of each pixel in the partial peripheral region corresponding to the peripheral region for each partial region including the region corresponding to the character among the plurality of partial regions;
Pixel value selection means for selecting a pixel value that occupies a maximum range in the partial peripheral region based on the acquired pixel value for each partial region;
As well as function
Functioning to erase the character by changing the pixel value of each pixel of each of the partial areas to the selected pixel value;
The medical image processing program according to claim 21, wherein:
前記コンピュータを、前記抽出手段により付帯情報が抽出された出力用画像を解析し、前記被検体の内部形態を表す被検体画像と前記抽出された付帯情報とが重なり合う重畳領域を検出する重畳領域検出手段として更に機能させ、
前記消去手段を、前記抽出された付帯情報のうち、前記検出された重畳領域外の部分を選択的に消去するように機能させる、
ことを特徴とする請求項20に記載の医用画像処理プログラム。
The computer analyzes the output image from which the supplementary information is extracted by the extraction unit, and detects a superimposition region detection in which a subject image representing an internal form of the subject and the extracted supplementary information overlap each other To further function as a means,
Causing the erasing means to function to selectively erase a portion outside the detected overlapped area of the extracted incidental information;
21. The medical image processing program according to claim 20, wherein:
前記形成された出力用画像は、複数の静止画像からなる動画像であり、
前記抽出手段を、前記動画像の前記複数の静止画像に埋め込まれた付帯情報を各静止画像毎に抽出するように機能させ、
前記消去手段を、前記複数の静止画像のそれぞれから前記抽出された付帯情報を各静止画像毎に消去するように機能させる、
ことを特徴とする請求項20ないし請求項24のいずれか一項に記載の医用画像処理プログラム。
The formed output image is a moving image composed of a plurality of still images,
The extraction means functions to extract the auxiliary information embedded in the plurality of still images of the moving image for each still image;
Causing the erasing means to function to erase the extracted incidental information from each of the plurality of still images for each still image;
25. The medical image processing program according to any one of claims 20 to 24, wherein:
前記付帯情報は、1つ以上の文字列情報と、各文字列情報の種類を識別する識別情報とを含み、
前記コンピュータは、前記1つ以上の文字列情報のうち消去対象となる文字列情報の前記識別情報を特定する消去対象特定情報をあらかじめ記憶する記憶手段を備え、
前記コンピュータを、前記抽出手段により抽出された識別情報が前記消去対象特定情報により特定されているか判断する消去対象判断手段として更に機能させ、
前記消去手段を、前記抽出された識別情報が特定されていると前記判断されたときに、その識別情報により識別される文字列情報を選択的に消去するように機能させる、
ことを特徴とする請求項20ないし請求項25のいずれか一項に記載の医用画像処理プログラム。



The accompanying information includes one or more pieces of character string information and identification information for identifying the type of each character string information,
The computer comprises storage means for preliminarily storing erasure target specifying information for specifying the identification information of the character string information to be erased among the one or more character string information,
Causing the computer to further function as an erasure target determination means for determining whether the identification information extracted by the extraction means is specified by the erasure target specifying information;
Causing the erasing means to function to selectively erase character string information identified by the identification information when it is determined that the extracted identification information is specified;
The medical image processing program according to any one of claims 20 to 25, wherein:



JP2005231692A 2005-08-10 2005-08-10 Medical image diagnostic apparatus, medical image processing device and medical image processing program Withdrawn JP2007044239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005231692A JP2007044239A (en) 2005-08-10 2005-08-10 Medical image diagnostic apparatus, medical image processing device and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005231692A JP2007044239A (en) 2005-08-10 2005-08-10 Medical image diagnostic apparatus, medical image processing device and medical image processing program

Publications (1)

Publication Number Publication Date
JP2007044239A true JP2007044239A (en) 2007-02-22

Family

ID=37847619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005231692A Withdrawn JP2007044239A (en) 2005-08-10 2005-08-10 Medical image diagnostic apparatus, medical image processing device and medical image processing program

Country Status (1)

Country Link
JP (1) JP2007044239A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206687A (en) * 2007-02-26 2008-09-11 Toshiba Corp Medical image diagnosis device and processor for supplemental information of medical image
JP2008295928A (en) * 2007-06-04 2008-12-11 Toshiba Corp Medical information management system
JP2009018097A (en) * 2007-07-13 2009-01-29 Toshiba Corp Medical image output device, medical image output method and medical image output program
JP2009148404A (en) * 2007-12-20 2009-07-09 Toshiba Corp Medical image diagnosis supporting system
JP2010082330A (en) * 2008-10-01 2010-04-15 Canon Inc Information processing device, display method therefor, and program
JP2011505225A (en) * 2007-12-03 2011-02-24 データフィジクス リサーチ, インコーポレイテッド Efficient imaging system and method
JP2012065792A (en) * 2010-09-22 2012-04-05 Shimadzu Corp Radiographic apparatus and image reproducing device
JP2012143470A (en) * 2011-01-14 2012-08-02 Hoya Corp Endoscope apparatus
JP2012217631A (en) * 2011-04-08 2012-11-12 Hitachi Medical Corp Medical image processing apparatus and medical image diagnostic apparatus
WO2014002875A1 (en) * 2012-06-27 2014-01-03 日立アロカメディカル株式会社 Ultrasonic diagnostic device, ultrasonic image display method, and ultrasonic image display program
JP2014199539A (en) * 2013-03-29 2014-10-23 株式会社東芝 Medical information management device
JPWO2017026277A1 (en) * 2015-08-07 2017-08-10 オリンパス株式会社 Endoscope processor
JP2018534703A (en) * 2015-09-10 2018-11-22 エスワイエヌシー−アールエックス、リミテッド Automatic image feature removal
WO2019244896A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing system, information processing device, and information processing method
JP2020525926A (en) * 2017-06-29 2020-08-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Obfuscating facial features of the subject in the image
KR20210021663A (en) * 2019-08-19 2021-03-02 재단법인 아산사회복지재단 Method, program and comuting apparatus for specific the position of body sites for non-identification
JP2022146941A (en) * 2021-03-22 2022-10-05 オリンパス ビンテル ウント イーベーエー ゲーエムベーハー Method, system, and software program product for generating training data for endoscopic applications
JP2023130559A (en) * 2022-03-08 2023-09-21 コニカミノルタ株式会社 Movable type radiographic apparatus, dynamic image output method, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206687A (en) * 2007-02-26 2008-09-11 Toshiba Corp Medical image diagnosis device and processor for supplemental information of medical image
JP2008295928A (en) * 2007-06-04 2008-12-11 Toshiba Corp Medical information management system
JP2009018097A (en) * 2007-07-13 2009-01-29 Toshiba Corp Medical image output device, medical image output method and medical image output program
JP2011505225A (en) * 2007-12-03 2011-02-24 データフィジクス リサーチ, インコーポレイテッド Efficient imaging system and method
JP2009148404A (en) * 2007-12-20 2009-07-09 Toshiba Corp Medical image diagnosis supporting system
JP2010082330A (en) * 2008-10-01 2010-04-15 Canon Inc Information processing device, display method therefor, and program
US8665490B2 (en) 2008-10-01 2014-03-04 Canon Kabushiki Kaisha Information processing apparatus, display method therefor, and computer-readable storage medium
JP2012065792A (en) * 2010-09-22 2012-04-05 Shimadzu Corp Radiographic apparatus and image reproducing device
JP2012143470A (en) * 2011-01-14 2012-08-02 Hoya Corp Endoscope apparatus
JP2012217631A (en) * 2011-04-08 2012-11-12 Hitachi Medical Corp Medical image processing apparatus and medical image diagnostic apparatus
WO2014002875A1 (en) * 2012-06-27 2014-01-03 日立アロカメディカル株式会社 Ultrasonic diagnostic device, ultrasonic image display method, and ultrasonic image display program
JP2014199539A (en) * 2013-03-29 2014-10-23 株式会社東芝 Medical information management device
JPWO2017026277A1 (en) * 2015-08-07 2017-08-10 オリンパス株式会社 Endoscope processor
JP2018534703A (en) * 2015-09-10 2018-11-22 エスワイエヌシー−アールエックス、リミテッド Automatic image feature removal
JP7191050B2 (en) 2017-06-29 2022-12-16 コーニンクレッカ フィリップス エヌ ヴェ Obscuring facial features of a subject in an image
JP2020525926A (en) * 2017-06-29 2020-08-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Obfuscating facial features of the subject in the image
WO2019244896A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing system, information processing device, and information processing method
CN112262437A (en) * 2018-06-18 2021-01-22 索尼公司 Information processing system, information processing apparatus, and information processing method
JP7380557B2 (en) 2018-06-18 2023-11-15 ソニーグループ株式会社 Information processing system, information processing device, and information processing method
JPWO2019244896A1 (en) * 2018-06-18 2021-06-24 ソニーグループ株式会社 Information processing system, information processing device and information processing method
KR102284700B1 (en) 2019-08-19 2021-08-02 재단법인 아산사회복지재단 Method, program and comuting apparatus for specific the position of body sites for non-identification
KR20210021663A (en) * 2019-08-19 2021-03-02 재단법인 아산사회복지재단 Method, program and comuting apparatus for specific the position of body sites for non-identification
JP2022146941A (en) * 2021-03-22 2022-10-05 オリンパス ビンテル ウント イーベーエー ゲーエムベーハー Method, system, and software program product for generating training data for endoscopic applications
JP7498739B2 (en) 2021-03-22 2024-06-12 オリンパス ビンテル ウント イーベーエー ゲーエムベーハー Method, system, and software program product for generating training data for endoscopy applications
US12061724B2 (en) 2021-03-22 2024-08-13 Olympus Winter & Ibe Gmbh Method, system, and software program product for generating training data for endoscopic applications
JP2023130559A (en) * 2022-03-08 2023-09-21 コニカミノルタ株式会社 Movable type radiographic apparatus, dynamic image output method, and program

Similar Documents

Publication Publication Date Title
JP2007044239A (en) Medical image diagnostic apparatus, medical image processing device and medical image processing program
CN114365181B (en) Automatically detect and replace identifying information in images using machine learning
US10997466B2 (en) Method and system for image segmentation and identification
TWI446202B (en) Method and system for intelligent quality and quantity analysis for digital radiography soft copy reading
US7593562B2 (en) Method and system for computer aided detection (CAD) cued reading of medical images
US7130457B2 (en) Systems and graphical user interface for analyzing body images
CN105167793B (en) Image display device, display control device, and display control method
JP4405172B2 (en) Medical system
KR102102255B1 (en) Method for aiding visualization of lesions in medical imagery and apparatus using the same
US20030028401A1 (en) Customizable lung report generator
JP4832300B2 (en) Method of operating medical image diagnosis support apparatus, medical image diagnosis support apparatus, and image processing program
US10290365B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2012217631A (en) Medical image processing apparatus and medical image diagnostic apparatus
CN118444829B (en) Intelligent display method, system, medium and device for tumor images
CN117557560A (en) Method and system for identifying focus of lung nodule based on PET and CT image fusion
JP2005537101A (en) Patient identification method for X-ray film user interface
EP2199976B1 (en) Image processing method, image processing apparatus and image processing program
KR20230105089A (en) Apparatus and method for improving utilization for result processed in artificial intelligence
CN117373603A (en) Image report generation method, device, equipment, storage medium and program product
CN117256006A (en) Stitching multiple images to create a panoramic image
JP2006043187A (en) Method for processing mamma image, and mamma image output system
US20080117229A1 (en) Linked Data Series Alignment System and Method
CN119359723B (en) Quality control processing method, device, equipment and storage medium for ultrasonic image and text data
JP5214953B2 (en) Medical image management system
CN114974524A (en) Medical image data annotation method and device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104