WO2012121368A1 - 医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラム - Google Patents
医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラム Download PDFInfo
- Publication number
- WO2012121368A1 WO2012121368A1 PCT/JP2012/056109 JP2012056109W WO2012121368A1 WO 2012121368 A1 WO2012121368 A1 WO 2012121368A1 JP 2012056109 W JP2012056109 W JP 2012056109W WO 2012121368 A1 WO2012121368 A1 WO 2012121368A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- wall
- image
- raised portion
- medical image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/742—Details of notification to user or communication with user or patient; User input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/504—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0891—Clinical applications for diagnosis of blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30172—Centreline of tubular or elongated structure
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Definitions
- Embodiments described herein relate generally to a medical image diagnostic apparatus, a medical image display apparatus, a medical image processing apparatus, and a medical image processing program that acquire three-dimensional medical image data of a living tissue by imaging the living tissue.
- Patent Document 1 There is an application for processing a medical image for displaying a wall surface of a living tissue based on three-dimensional medical image data (for example, Patent Document 1). By using this application, for example, it is possible to observe unevenness of the inner wall of a living tissue having a tubular form.
- a fly-through image that allows observation of the wall surface shape inside the tube while moving along the core line set in the tube of biological tissue
- a tomographic image in which the tubular tissue is cross-sectioned along a predetermined cross-section
- a developed image phye review that allows the inner wall of the tubular tissue to be overlooked by setting the boundary of the specific tissue represented in the tomographic image, and developing the specific tissue along the boundary, for example, There is a fish eye view or the like that can observe the wall shape in the tube at a wide angle of 170 degrees.
- a plaque formed on the inner wall of a coronary artery may be bulged inward so as to narrow the lumen of the blood vessel, or may be bulged outward so as to increase the diameter of the blood vessel.
- Negative remodeling that protrudes inward may be referred to as a first protrusion.
- positive remodeling that protrudes outward may be referred to as a second protrusion.
- the modeling in which each bulges inward and outward may be referred to as a third bulge.
- the inside of the blood vessel is observed using the above-described application, it is possible to find the first raised portion that appears convex to the inner wall of the blood vessel, but the second that does not appear convex to the inner wall of the blood vessel.
- the raised portion has a problem that it is overlooked only by observation within the blood vessel.
- the second protuberance is often a soft plaque and often causes an acute disease, so early detection and early treatment of the disease are necessary. Moreover, since it often occurs at an early stage when plaques begin to form, early detection and early treatment of a disease can be realized by reliably finding out.
- This embodiment solves the above-described problem, and when displaying the inner wall of a living tissue, the medical image diagnostic apparatus, the medical image display apparatus, and the medical device capable of simultaneously displaying the raised portion where the outer wall is raised.
- An object is to provide an image processing apparatus and a medical image processing program.
- the medical image diagnostic apparatus includes an image acquisition unit, an inner wall extraction unit, an outer wall extraction unit, a first bulge calculation unit, a second bulge calculation unit, and a display control unit.
- the image acquisition means acquires the three-dimensional medical image data of the living tissue by photographing the living tissue having the inner wall and the outer wall.
- the inner wall extracting means extracts the inner wall of the living tissue based on the medical image data.
- the outer wall extracting means extracts the outer wall of the living tissue based on the medical image data.
- the first protruding portion calculating means obtains information including the presence of the first protruding portion where the inner wall of the living tissue protrudes inward.
- the second protruding portion calculating means Based on the extracted outer wall of the living tissue, the second protruding portion calculating means obtains information including the presence of the second protruding portion where the outer wall of the living tissue protrudes outward.
- the display control means superimposes the information on the first raised portion obtained by the first raised portion calculating means and the information on the second raised portion obtained by the second raised portion calculating means on the image of the living tissue. Display on the display means.
- FIG. 4 is a cross-sectional view taken along the line VI-VI in FIG. 3 for explaining a first color created by color-coding each stage. It is a top view of the 1st protruding part displayed on a development picture of a tubular part in piles.
- FIG. 5 is a cross-sectional view taken along line VIII-VIII in FIG. 4 for explaining a second color created by color-coding each stage. It is a top view of the 2nd protruding part displayed on a development picture of a tubular part in piles.
- FIG. 6 is a cross-sectional view taken along the line XX of FIG. 5 for explaining a third color to be created. It is a top view which shows the range of the 1st protruding part displayed on the expansion image of a tubular part, and the 2nd protruding part. It is a flowchart which shows operation
- FIG. 15 It is a figure which shows an example of the display mode when displaying the 1st protruding part and the 2nd protruding part simultaneously in the medical image diagnostic apparatus which concerns on 2nd Embodiment. It is a figure which shows the other example of a display mode when displaying a 1st protruding part and a 2nd protruding part simultaneously. It is a figure which shows an example of the display mode when a cross-sectional image is displayed with a expansion
- FIG. 5 It is a figure which shows an example of the display mode when a cross-sectional image is displayed with the expansion
- the medical image diagnostic apparatus it is a diagram illustrating an example of a display mode when a cross-sectional image is displayed together with a developed image, an MPR image, and a view image.
- FIG. 1 is a block diagram showing a configuration of a medical image diagnostic apparatus. As shown in FIG. 1, the imaging unit 11 is connected to a medical image display device via a communication unit 12.
- the imaging unit 11 is called a modality, and is a device that inspects a subject and generates three-dimensional medical image data (digital data).
- a modality any conventionally used apparatus such as an X-ray CT (Computer Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, or the like is applied.
- the X-ray CT apparatus reconstructs an internal image (tomographic image or three-dimensional image) of a subject by scanning the subject with radiation, detecting radiation transmitted through the subject, and performing computer processing.
- the MRI apparatus reconstructs an internal image of a subject using a nuclear magnetic resonance phenomenon.
- An ultrasonic diagnostic apparatus irradiates a subject with ultrasonic waves, analyzes the echo state, and images the inside of the body.
- the communication means 12 performs data communication via a LAN (Local area network).
- the communication unit 12 includes a communication device such as a LAN card.
- the medical image display apparatus includes a control unit 13, a storage unit 14, a data conversion unit 15, an image generation unit 16, an image synthesis unit 17, an operation unit 18, a display control unit 21, and a display unit 22.
- the image processing apparatus includes, for example, the control unit 13, the storage unit 14, the data conversion unit 15, the image generation unit 16, the image synthesis unit 17, and the operation unit 18.
- the storage unit 14 stores various types of information.
- the storage unit 14 stores medical image data and incidental information received by the communication unit 12 from a server (not shown).
- the control unit 13 executes processing for storing information in the storage unit 14 and processing for reading out information stored in the storage unit 14.
- the storage unit 14 includes a writable storage device such as a hard disk drive.
- Data conversion means 15 converts medical image data into monochrome image data.
- the monochrome image data is gradation image data expressed by luminance values in a predetermined gradation range (for example, 0 to 255).
- the operating means 18 is used by the operator to operate the display means 22 and input various information.
- the operation means 18 includes an arbitrary operation device or input device such as a mouse, a keyboard, a joystick, a trackball, and a dedicated control panel.
- FIG. 2 is a block diagram showing the configuration of the image generation means 16.
- the image generating means 16 includes a developed image generating means 161, an inner wall extracting means 162, an outer wall extracting means 163, a normal inner wall estimating means 164, a normal outer wall estimating means 165, a first raised portion calculating means 166, a first 2 ridge calculating means 167 and color mapping means 168.
- the image generation means 16 generates a desired image based on the image data of the subject imaged by the above modality.
- the image generation means 16 that generates a developed image of a living tissue and an image of a lesioned part on the developed image based on three-dimensional medical image data captured by an X-ray CT apparatus will be described.
- a tubular part in which a tissue is formed in a tubular shape such as a coronary artery will be described as an example of a biological tissue.
- the CT value acquired for each contrast medium flowing in the tubular part, the tubular part (including the lesioned part), and the chest cavity is different (projection data).
- the image generation means 16 generates image data of the living tissue based on this CT value. Thereby, it becomes possible to extract a living tissue from the generated image data.
- FIGS. 3 to 5 are partial perspective views of the tubular portion 1 in which a lesion is generated.
- the tubular part 1 has a lesion part where plaque is deposited locally.
- a lesion part where the inner wall 2 of the tubular part 1 is raised inward is referred to as a first raised part N.
- the lesioned part in which the outer wall 3 of the tubular part 1 is raised outward is referred to as a second raised part P.
- a lesion having both the first raised portion N and the second raised portion P is referred to as a third raised portion B.
- the developed image generation means 161 sets a boundary for the tomographic image along the predetermined cross section of the tubular part 1, sets a viewpoint at a predetermined position for the tomographic image data along the predetermined cross section of the tubular part 1, and the viewpoint A volume rendering is performed on the volume data along the line-of-sight direction from to the boundary, thereby generating a developed image in which the tubular portion 1 is developed along the boundary.
- the control unit 13 stores the generated developed image in the storage unit 14.
- the inner wall extraction means 162 extracts the inner wall 2 of the tubular part 1 based on the medical image data (the vicinity image of the tubular part 1, the starting point of the tubular part 1, and the core wire 4 of the tubular part 1).
- the inner wall of the lesioned part corresponds to the “inner wall of the living tissue” at the site where the lesioned part occurs.
- the core wire 4 corresponds to a line passing through the center 4a of each transverse section of the tubular portion 1 (see FIGS. 3 to 5).
- control means 13 receives the designation by the operation means 18 and extracts the neighborhood image of the tubular portion 1 displayed on the display means 22 and stores the extracted neighborhood image of the tubular portion 1 in the storage means 14 (tubular) (Neighboring image extraction of part 1).
- control means 13 receives an operation by the operation means 18 and causes the display means 22 to display the vicinity image of the tubular portion 1, designates the displayed start point of the tubular portion 1, and stores the designated start point as the storage means 14. (Starting point detection of the tubular portion 1).
- a predetermined application for obtaining the starting point based on the extracted tubular portion 1 may be used.
- the image generation means 16 executes a predetermined application and extracts the core wire 4 of the tubular portion 1.
- the control means 13 stores the extracted core wire 4 of the tubular portion 1 in the storage means 14 (extraction of the core wire 4 of the tubular portion 1).
- an image of the tubular portion 1 that is a diagnosis target is extracted.
- the above-described extraction of the vicinity of the tubular portion 1 to the extraction of the core wire 4 of the tubular portion 1 are performed for each diagnosis target when there are two diagnosis targets such as the left coronary artery and the right coronary artery.
- the inner wall extraction means 162 extracts the boundary of the inner wall 2 of the tubular part 1 by alternately applying a smoothing filter and a sharpening filter, for example, based on the image of the tubular part 1. In addition, since it is an actual wall, stenosis etc. are also included.
- the control means 13 causes the storage means 14 to store the extracted inner wall 2 of the tubular portion 1 (including the inner wall of the first raised portion N) as information on the first raised portion N.
- the outer wall extracting means 163 alternately applies a smoothing filter and a sharpening filter on the basis of the vicinity image of the tubular part 1 and the inner wall 2 of the tubular part 1 extracted by the inner wall extracting means 162.
- the outer wall 3 is extracted.
- the control unit 13 causes the storage unit 14 to store the extracted outer wall 3 (including the second raised portion P) 3 of the tubular portion 1 as information on the second raised portion P.
- the normal inner wall estimating means 164 estimates the normal inner wall 2a that is the shape of the inner wall 2 before the bulge shown by the imaginary line in FIGS. .
- the normal inner wall estimation means 164 interpolates the surroundings of the first bulge portion N (region before the bulge) with a smooth surface in the first bulge portion N that is convex inward of the tubular portion 1.
- the normal inner wall 2a is estimated.
- the normal inner wall estimation means 164 may estimate an arc-shaped region that is spaced apart from the core wire 4 by a predetermined length as the normal inner wall 2a.
- the control means 13 stores the estimated normal inner wall 2a in the storage means 14.
- the normal outer wall estimating means 165 estimates the normal outer wall 3a that is the shape of the outer wall 3 before the bulging indicated by the imaginary line in FIGS. .
- the normal outer wall estimation means 165 is configured to surround the second bulge portion P (region before the bulge) in the second bulge portion P that is convex outward of the tubular portion 1. )
- the normal outer wall 3a is estimated by interpolating each other with a smooth surface.
- the normal outer wall estimation means 165 may estimate an arc-shaped region separated from the core wire 4 by a predetermined length in the outward direction as the normal outer wall 3a.
- the control means 13 stores the estimated normal outer wall 3a in the storage means 14.
- the first bulge calculation means 166 has a height at which the first bulge N bulges from the normal inner wall 2a based on the inner wall and the normal inner wall 2a of the first bulge N read from the storage means 14.
- the thickness T1 is obtained.
- the control means 13 stores the obtained first thickness T1 in the storage means 14 as information on the first raised portion N.
- the information (T1> 0) is information indicating that the first raised portion N exists.
- the second raised portion calculating means 167 Based on the inner wall and normal outer wall 3a of the second raised portion P read from the storage means 14, the second raised portion calculating means 167 has a height at which the second raised portion P rises from the normal outer wall 3a.
- the thickness T2 is obtained.
- the control unit 13 stores the obtained second thickness T2 in the storage unit 14 as information on the second raised portion P.
- the information (T2> 0) is information indicating that the second raised portion P exists.
- the color mapping means 168 creates a first color for the first thickness T1 and a second color for the second thickness T2.
- the color mapping unit 168 has a table (color map) that defines the correspondence between the color numbers (0 to 15) and the actual colors. For example, the color mapping unit 168 assigns a color number to the first color (for example, blue). 1 is assigned, and color number 2 is assigned to the second color (for example, red). For example, the color mapping unit 168 assigns color number 1 to the first color (for example, blue) and assigns color number 2 to the second color (for example, red).
- the control unit 13 stores the assigned color number in the storage unit 14 in association with the picture element (pixel) representing the region of the tubular portion 1.
- the color mapping means 168 creates the first color by dividing the thickness direction of the first thickness T1 stepwise, for example, every 2 [mm], and color-coding the regions of each step.
- FIG. 6 is a cross-sectional view taken along the line VI-VI in FIG. 3, and is a diagram for explaining a first color created by color-coding each stage.
- the color mapping means 168 has colors (N1 to N1) such that the saturation of the first color (blue) is increased in the thickness direction with respect to the regions of the first ridges N. Assign a color number of N3).
- the control unit 13 stores the assigned color number in the storage unit 14 in association with the pixel representing the region of each stage of the first raised portion N.
- the image synthesizing unit 17 creates an image obtained by synthesizing the developed image of the tubular portion 1 read from the storage unit 14 and the information of the first raised portion N read from the storage unit 14.
- the control unit 13 stores the synthesized image in the storage unit 14.
- the display control unit 21 causes the display unit 22 to display the synthesized image.
- FIG. 7 is a plan view of the first raised portion N displayed so as to be superimposed on the developed image of the tubular portion 1. As shown in FIG. 7, the first raised portion N displayed on the display means 22 is colored with the first colors (N1 to N3) with different saturations.
- the color mapping means 168 creates the first color by dividing the thickness direction of the first thickness T1 stepwise, for example, every 2 [mm], and color-coding the regions of each step. It is possible to represent the height of the first raised portion N by coloring the first raised portion N with the first color that is changed stepwise. In addition, you may represent the height of the 1st protruding part N with a contour line.
- FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 4, and is a view for explaining a second color created by color-coding each stage.
- the color mapping means 168 has a color (P1 ⁇ P) in which the saturation of the second color (red) is increased in the thickness direction for each stage region of the second raised portion P. Assign the color number of P6).
- the control unit 13 stores the assigned color number in the storage unit 14 in association with the pixels representing the regions of the respective stages of the second raised portion P.
- the image synthesizing unit 17 creates an image obtained by synthesizing the developed image of the tubular portion 1 read from the storage unit 14 and the information of the second raised portion P read from the storage unit 14.
- the control unit 13 stores the synthesized image in the storage unit 14.
- the display control unit 21 causes the display unit 22 to display the synthesized image.
- FIG. 9 is a plan view of the second raised portion P displayed superimposed on the developed image of the tubular portion 1.
- the second raised portion P displayed on the display means 22 is colored with the second color (P1 to P6) with the saturation being changed stepwise. Thereby, the height of the second raised portion P can be expressed.
- first bulge portion N is generally generated after the second bulge portion P is generated in the tubular portion 1, in practice, only the first bulge portion N is rarely displayed.
- the second raised portion P is often displayed together. If both the first raised portion N and the second raised portion P are displayed at the same time, they may be confused and difficult to see each other.
- FIG. 10 is a cross-sectional view taken along the line XX of FIG. 5 and is a diagram for explaining the third color to be created.
- the third raised portion B (the first raised portion N and the second raised portion P) is generated in the tubular portion 1.
- the color mapping means 168 has the third raised portion B generated. Judge that there is.
- the color mapping means 168 creates a third color for the region where the third raised portion B is generated.
- the color mapping means 168 assigns color number 3 to the third color (for example, purple).
- the control unit 13 stores the assigned color number in the storage unit 14 in association with the picture element (pixel) representing the region of the tubular portion 1.
- the image synthesizing unit 17 creates an image obtained by synthesizing the developed image of the tubular portion 1 read out from the storage unit 14 and the information on the third raised portion B read out from the storage unit 14.
- the control unit 13 stores the synthesized image in the storage unit 14.
- the display control unit 21 causes the display unit 22 to display the synthesized image.
- FIG. 11 is a plan view of the third raised portion B displayed so as to overlap the developed image of the tubular portion 1.
- the range of the 3rd protruding part B displayed on the display means 22 is colored with the 3rd color (purple).
- the color mapping means 168 may color the third raised portion B by increasing the saturation of the third color according to the thickness T3 of the third raised portion B.
- FIG. 12 is a flowchart showing the operation of the image processing apparatus.
- CT image acquisition step S1
- a server not shown
- Step S2 extraction of the vicinity image of the tubular portion: Step S2
- the control means 13 extracts the vicinity image of the tubular portion 1 displayed on the display means 22.
- Step S3 (Starting point detection of tubular portion: Step S3) Next, in response to an operation by the operation means 18, the start point of the extracted neighborhood image of the tubular portion 1 is designated.
- the image generation means 16 extracts the core wire 4 of the tubular portion 1.
- the coordinates (xg, yg) of the center 4a of the tubular portion 1 can be obtained from the following equation, for example.
- xg Sy / A
- yg Sx / A (3)
- Sx is the cross-sectional primary moment about the x-axis
- Sy is the cross-sectional primary moment about the y-axis
- A is the total cross-sectional area of the tubular part (including the lesioned part and the cavity) 1.
- the inner wall extraction means 162 extracts the inner wall 2 of the tubular part 1 based on the image of the tubular part 1.
- the inner wall 2 at this time also includes the inner wall of the first raised portion N that is raised inward of the tubular portion 1 because it is not an inner wall of the coronary artery but an actual wall.
- Step S6 External wall extraction of tubular portion: Step S6
- the outer wall extraction means 163 extracts the outer wall 3 of the tubular part 1 based on the image of the tubular part 1.
- the outer wall 3 at this time also includes the outer wall 3 that protrudes outward from the tubular portion 1 by the second protruding portion P.
- the normal inner wall estimation means 164 estimates the normal inner wall 2a which is the shape of the inner wall 2 before the bulging based on the inner wall 2 of the tubular portion 1 which is an actual wall.
- the normal outer wall estimation means 165 estimates the normal outer wall 3a which is the shape of the outer wall 3 before the bulging based on the outer wall 3 of the tubular portion 1.
- Step S8 Based on the inner wall 2 and the normal inner wall 2a of the first raised portion N, the first raised portion calculating means 166 obtains a first thickness T1 that is the height of the first raised portion N.
- the color mapping unit 168 creates a first color (for example, blue) for the first thickness T1. For example, the color mapping unit 168 assigns a color number of the first color to each pixel representing the region of the first raised portion N, and the control unit 13 stores the color number in the storage unit 14 in association with each pixel. .
- a first color for example, blue
- the control unit 13 stores the color number in the storage unit 14 in association with each pixel.
- Step S10 Based on the outer wall 3 and the normal outer wall 3a of the second raised portion P, the second raised portion calculating means 167 obtains a second thickness T2 that is the height of the second raised portion P.
- the color mapping means 168 creates a second color (for example, red) for the second thickness T2.
- the color mapping unit 168 assigns a color number of the second color to each pixel representing the region of the second raised portion P, and the control unit 13 stores the color number in the storage unit 14 in association with each pixel. .
- the developed image generating means 161 In parallel with the steps S1 to S11, the developed image generating means 161 generates a developed image in which the tubular portion 1 is developed based on the image data of the tubular portion 1.
- the image synthesizing unit 17 displays the information on the first raised portion N and the information on the second raised portion P on the developed image of the tubular portion 1.
- the information of the first raised portion N includes an image of the first raised portion N, information that the first raised portion N is present in the tubular portion 1, and the first thickness T1. And information indicating the degree of the thickness T1.
- the information of the second raised portion P includes an image of the second raised portion P, information that the second raised portion P exists in the tubular portion 1 (existence information), and the second thickness T2 and Information indicating the degree of the thickness T2 is included.
- image processing program is configured to cause the computer to execute the processing from step S1 to step S12 as an example.
- the third bulge portion B is shown to indicate that both the first bulge portion N and the second bulge portion P are generated.
- the range of the third ridge B is colored by increasing the saturation of the third color in accordance with the thickness T3 of the third ridge B.
- it is difficult to distinguish the first bulge portion N and the second bulge portion P it is difficult to determine the progress of each lesion in the first bulge portion N and the second bulge portion P.
- FIG. 13 is a diagram showing an example of a display mode when the first raised portion N and the second raised portion P are displayed simultaneously.
- a first ridge N indicated by a first color (for example, blue) in a tomographic image (image of the tubular portion 1) in which the wall of the tubular portion 1 is sectioned along the core line 4 and
- the second raised portion P indicated by the second color (for example, red) is displayed in an overlapping manner.
- the control means 13 specifying the position of the tubular part 1, receiving the specified position
- the image generating means 16 creates a tomographic image in which the tubular portion 1 has a cross section at that position.
- the image generation means 16 creates a tomographic image as an image of the tubular portion 1, creates a first raised portion N and a second raised portion P for the tomographic image, and creates a tomographic image and the first raised portion N and the second raised portion. Synthesize P.
- the display control unit 21 causes the display unit 22 to display the synthesized image. Note that the first color and the second color may have different chromatic colors step by step.
- control means 13 changes the cross section when creating the tomographic image
- the image generating means 16 receives the changed cross section
- the image generating means 16 receives the tomographic image of the tubular portion 1, the first raised part. N and the second raised portion P are created
- the display control means 21 causes the display means 22 to display the first raised portion N and the second raised portion P on the tomographic image. Accordingly, the progress of each lesion is observed from a different angle, and the progress of the lesion can be visually recognized more accurately.
- FIG. 14 is a diagram showing another example of the display mode when the first raised portion N and the second raised portion P are displayed simultaneously.
- the 2nd protruding part P shown by the 2nd color for example, red
- the first color and the second color may have different chromatic colors step by step.
- the first bulge portion N and the second bulge portion P are simultaneously displayed on the image of the tubular portion 1.
- the first bulge portion N and the second bulge portion are displayed. Since it is difficult to distinguish the part P, it is difficult to determine the progress of each lesion in the first raised part N and the second raised part P.
- the image composition means 17 superimposes both the composite image obtained by superimposing the image of the first raised portion N on the image of the tubular portion 1 and the composite image obtained by superimposing the image of the second raised portion P on the image of the tubular portion 1. Then, the display control unit 21 switches and displays both composite images on the display unit 22. Thereby, it becomes possible to make it easy to determine the progress of each lesion in the first raised portion N and the second raised portion P.
- the image generation means 16 is based on information (T1> 0) when the first bulge portion N exists and information (T2> 0) when the second ridge portion P exists.
- a first identification mark for identifying the presence of the first raised portion N and a second identification mark for identifying the presence of the second raised portion P are created, and the display control means 21 serves as the display means.
- the first identification mark and the second identification mark are superimposed and displayed on the image. Thereby, it becomes possible to distinguish the 1st protruding part N and the 2nd protruding part P.
- the display control means 21 includes information (for example, a numerical value) indicating the first thickness T1, information (for example, N1, N2, N3...) Indicating the degree of the first thickness T1, Information indicating the thickness T2 (for example, a numerical value) and information indicating the degree of the second thickness T2 (for example, P1, P2, P3,...) May be displayed in an overlapping manner.
- the first thickness T1 of the first raised portion N and the second thickness T2 of the second raised portion P are displayed in comparison, for example, 2 [mm] / 3 [mm], or the first thickness T1.
- the second thickness T2 are displayed in comparison with each other as N3 / P5, for example, so that it is easy to determine the progress of the lesion.
- the raised portion where the outer wall is raised is displayed on the image of the living tissue at the same time.
- region of the component was color-coded is shown.
- biological tissue images include any one of a cross-sectional image, a developed image, an MPR image, a view image, and an outer wall developed image, or a combination of these images. Details of the cross-sectional image, the developed image, the MPR image, the view image, and the outer wall developed image will be described later.
- FIG. 15 is a diagram illustrating an example of a display mode when a cross-sectional image is displayed together with a developed image.
- 3rd Embodiment mainly demonstrates the structure different from the said embodiment, The description is abbreviate
- the image generation unit 16 includes a cross-sectional image creation unit 171 and a color classification unit 172.
- the cross-sectional image creation means 171 creates an image when the biological tissue is cross-sectioned at a specified position (including a predetermined position) based on the three-dimensional medical image data.
- the three-dimensional medical image data may be referred to as three-dimensional data or volume data.
- the position of the cross section is determined by the three-dimensional coordinates designated based on the three-dimensional medical image data.
- the developed image generating means 161 generates a developed image in which the inner wall 2 of the tubular portion 1 is developed in a planar shape based on the three-dimensional medical image data (described above).
- An example of the developed image is based on the three-dimensional medical image data, the value of the projection processing performed along the radial direction from the central axis of the tubular portion 1, and the horizontal axis around the central axis as the horizontal axis.
- the image is distributed with the position on the central axis as the vertical axis.
- the position on the central axis is determined by three-dimensional coordinates specified based on three-dimensional medical image data.
- the color classification unit 172 classifies (discriminates) the components (for example, calcium and fat) of the biological tissue based on the luminance value in the cross-sectional image created by the cross-sectional image creation unit 171 and color-codes the region of the component for each classification. To do. For example, the calcium component region and the fat component region of the living tissue are displayed so as to be distinguishable by different colors of “white” and “yellow”.
- the display control means 21 displays the developed image together with the cross-sectional image in which the region of the component of the biological tissue is color-coded (see FIG. 15).
- the display control means 21 displays the position of the cross section on the developed image so that it can be designated by the operation of the operation means (input unit) 18.
- the position specified on the developed image (position on the central axis) and the position of the cross section are associated with each other by three-dimensional coordinates.
- the cross-sectional image generation unit 171 receives a position designated on the developed image, and creates a cross-sectional image when the generation information is made a cross-section at the position of the cross-section associated with the position.
- the display control means 21 displays a developed image, a position designated on the developed image, and a cross-sectional image when the biological information is taken as a cross-section at the position of the cross-section corresponding to the position (see FIG. 15).
- FIG. 15 shows the cross-sectional image as “S”, the developed image as “D”, the calcium component region as “C”, and the fat component region as “F”. Further, in FIG. 15, the designated position shown on the developed image is “A”, the central axis of the tubular portion 1 is “L0”, the line along the central axis L0 is “L1”, and passes through the position A. A line orthogonal to the line L1 is indicated by “L2”. The central axis L0 may be referred to as the core wire 4.
- FIG. 16 is a diagram illustrating an example of a display mode when the region of the component of the biological tissue on the developed image illustrated in FIG. 15 is color-coded.
- the color classification unit 172 color-codes the region of the biological tissue component on the cross-sectional image for each classification. In this modification, the color classification unit 172 further determines the region of the biological tissue component on the developed image. Color by category.
- the same component region has the same color as the color image on the cross-sectional image described above (for example, the calcium component region is “white” and the fat component region is the same). “yellow”).
- the cross-sectional image and the developed image it is possible to easily visually recognize the components (for example, lime component and / or lipid component) of the living tissue.
- FIG. 16 shows a developed image “D” that is color-coded similar to the cross-sectional image “S”.
- deployment image was shown as an image of the biological tissue which displays a cross-sectional image together.
- an MPR (Multi Planar Reconstruction) image is further displayed. Note that an MPR image may be displayed instead of the developed image.
- FIG. 17 is a diagram illustrating an example of a display mode when a cross-sectional image is displayed together with a developed image and an MPR image in the medical image diagnostic apparatus according to the fourth embodiment.
- the fourth embodiment will mainly describe the configuration different from the above-described embodiment, and the description of the same configuration as the above-described embodiment will be omitted.
- the image generation means 16 has an MPR image generation means 173.
- the MPR image generation unit 173 receives the designation of the position of the cross section by the operation of the operation unit (input unit) 18 and generates an MPR image representing a plurality of cross sections of the living tissue based on the three-dimensional medical image data. .
- the color classification means 172 further classifies (determines) the components of the living tissue on the MPR image based on the luminance value, and colors the component areas for each classification.
- the color coding on the MPR image is preferably the same as the color coding on the cross-sectional image and / or developed image described above (for example, the calcium component region is “white” and the fat component region is “yellow”). . Thereby, it becomes easy to compare the components of the living tissue between the MPR image and the cross-sectional image and / or the developed image, and the living tissue that has become the lime component or the lipid component can be easily visually recognized.
- FIG. 17 shows an MPR image “M” when the tubular portion 1 is sectioned along the central axis at the position “A” of the section. Further, in FIG. 17, the central axis of the tubular portion 1 shown on the MPR image is indicated by “L0”, the line along the central axis L0 is indicated by “L1”, and the line orthogonal to the line L1 is indicated by “L2”.
- the developed image and the MPR image are shown as the images of the living tissue on which the cross-sectional images are displayed together.
- a view image is displayed together with a developed image and an MPR image. Note that the view image may be displayed instead of the developed image and / or the MPR image.
- FIG. 18 is a diagram illustrating an example of a display mode when a cross-sectional image is displayed together with a developed image, an MPR image, and a view image in the medical image diagnostic apparatus according to the fifth embodiment.
- the fifth embodiment will mainly describe the configuration different from the above-described embodiment, and the description of the same configuration as the above-described embodiment will be omitted.
- the image generation means 16 has a view image generation means 174.
- the view image generation means 174 creates a view image showing the outside of the tubular part 1 when the tubular part 1 is viewed from the viewpoint based on the three-dimensional medical image data. Further, a view image showing the inside of the tubular portion 1 may be created with the viewpoint in the tubular portion 1.
- a known technique for example, Japanese Patent Laid-Open No. 2006-346177 is used for creating the view image.
- the publication discloses a means for setting a plurality of viewpoints in a predetermined mode (fly-through mode) based on the MPR image data, and renders the wall information volume data based on the set viewpoint information to obtain the fly-through image data. And means for generating. It is possible to create a view image using this fly-through image generation technique.
- the viewpoint and the visual field range can be specified by the user, and the control unit 13 stores the viewpoint and the visual field range in the storage unit 14 in response to the operation of the operation unit (input unit) 18 by the user.
- FIG. 18 shows the cross-sectional image as “S”, the developed image as “D”, the MPR image as “M”, the view image as “V”, the central axis of the tubular portion 1 as “L0”, and the viewpoint as “VP”.
- the uppermost position is the origin “0”
- the clockwise angle from the origin 0 is “ ⁇ ”
- the distance from the central axis L0 to the viewpoint VP is “R”.
- the vertical axis along the central axis L0 is the distance (P) from the origin 0
- the horizontal axis is the clockwise rotation angle ( ⁇ ) from the origin 0
- the viewpoint VP is moved ( The movement from “Q1” to “Q2” at the position on the line L1 is indicated by an arrow.
- the movement of the viewpoint VP (movement from “Q1” to “Q2” at the position on the central axis L0) is indicated by an arrow.
- the position of the viewpoint VP on the cross-sectional image S is represented by a rotation angle ⁇ around the central axis L0 and a distance R from the central axis L0.
- the position of the viewpoint VP on the developed image D is represented by a position Q (distance from the origin 0) on the central axis L0 and a rotation angle ⁇ from the origin 0.
- the positions of the viewpoint VP on the developed image D and the viewpoint VP on the MPR image M can be represented by P, ⁇ , and R, respectively. That is, if the expression of the position of the viewpoint VP on the developed image D is f (P, ⁇ , R), the position of the viewpoint VP on the developed image D is obtained by substituting P, ⁇ , and R into the expression. be able to. This means that P, ⁇ , and R can be derived from the position of the viewpoint VP on the developed image D using f (P, ⁇ , R).
- the expression of the position of the viewpoint VP on the MPR image M is g (P, ⁇ , R)
- the position of the viewpoint VP on the MPR image M is obtained by substituting P, ⁇ , and R into the expression. be able to.
- P, ⁇ , and R can be derived from the position of the viewpoint VP on the MPR image M using g (P, ⁇ , R).
- the position of the viewpoint VP on the MPR image M can be obtained from the position of the viewpoint VP on the developed image D. Further, the position of the viewpoint VP on the developed image D can be obtained from the position of the viewpoint VP on the MPR image M.
- the display control means 21 receives the operation of the operation means (input unit) 18 and displays the viewpoint on the MPR image so as to be movable.
- the display control means 21 displays the viewpoint on the developed image and displays the viewpoint on the developed image in conjunction with the viewpoint on the MPR image. Therefore, when the display control means 21 receives an operation of the operation means (input unit) 18 and moves one viewpoint of the developed image and the MPR image, the display control means 21 receives the viewpoint position and moves the viewpoint on the other image. Can be displayed.
- the display control means 21 displays a form including a concave portion and / or a convex portion of the outer wall 3 of the tubular portion 1 in the view image (indicated by “V” in FIG. 18). At this time, the display control means 21 displays the concave portion and the convex portion in a distinguishable manner.
- a concave portion and a convex portion (indicated by “U” in FIG. 18) may be distinguished by different colors, or may be distinguished by different shadows or hatching.
- the concave portion in the inner wall 2 of the tubular portion 1 refers to a portion that is recessed from the estimated normal inner wall 2a
- the convex portion refers to a portion that protrudes from the normal inner wall 2a.
- the concave portion refers to a portion recessed from the estimated normal outer wall 3 a
- the convex portion refers to a portion raised from the normal outer wall 3 a
- both the concave portion and the convex portion are 3 of the medical image. Judgment is made based on the dimension data.
- the developed image, the MPR image, and the view image are shown as the images of the living tissue on which the cross-sectional images are displayed together.
- an MPR image and an outer wall development image are displayed.
- the outer wall developed image may be displayed instead of the MPR image, or may be displayed together with the developed image and / or the view image.
- FIG. 19 is a diagram illustrating an example of a display mode when a cross-sectional image is displayed together with an MPR image and an outer wall development image in the medical image diagnostic apparatus according to the sixth embodiment. Note that the sixth embodiment will mainly describe the configuration different from the above-described embodiment, and the description of the same configuration as the above-described embodiment will be omitted.
- the image generation means 16 has an outer wall expanded image generation means 175.
- the outer wall developed image generation means 175 generates an outer wall developed image that is expressed as if the outer wall 3 of the tubular portion 1 is opened to the outside of the cross-sectional image (as if it is extended in the radial direction with the central axis L0).
- the extended length is the length of the portion of the outer wall 3 that falls within the visual field range.
- the display control means 21 displays the cross-sectional image together with the MPR image and the outer wall development image.
- the display control means 21 displays a form including a concave portion and / or a convex portion of the outer wall 3 of the tubular portion 1 in the outer wall developed image.
- the display control means 21 displays the concave portion and the convex portion (indicated by “U” in FIG. 18) in a distinguishable manner.
- the concave portion and the convex portion may be distinguished by different colors, or may be distinguished by different shadows or hatching.
- the concave portion in the inner wall 2 of the tubular portion 1 refers to a portion that is recessed from the estimated normal inner wall 2a
- the convex portion refers to a portion that protrudes from the normal inner wall 2a. Both concave and convex portions are determined based on the three-dimensional data of the medical image.
- the concave portion refers to a portion recessed from the estimated normal outer wall 3 a
- the convex portion refers to a portion raised from the normal outer wall 3 a
- both the concave portion and the convex portion are 3 of the medical image. Judgment is made based on the dimension data.
- FIG. 19 shows the outer wall development image “OD”.
- the MPR image and the outer wall development image are displayed together with the cross-sectional image.
- an MPR image and an outer wall developed image are displayed together with the developed image.
- FIG. 20 is a diagram illustrating an example of a display mode when the developed image is displayed together with the MPR image and the outer wall developed image in the medical image diagnostic apparatus according to the seventh embodiment.
- the seventh embodiment will mainly describe the configuration different from the above-described embodiment, and the description of the same configuration as the above-described embodiment will be omitted.
- the display control means 21 displays the developed image together with the MPR image and the outer wall developed image.
- the display control means 21 displays the unfolded image and the unfolded image of the outer wall.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Geometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
内壁抽出手段は医用画像データを基に生体組織の内壁を抽出する。外壁抽出手段は医用画像データを基に生体組織の外壁を抽出する。第1隆起部算出手段は抽出された生体組織の内壁を基に生体組織の内壁が内側に隆起する第1隆起部の存在を含む情報を求める。第2隆起部算出手段は抽出された生体組織の外壁を基に生体組織の外壁が外側に隆起する第2隆起部の存在を含む情報を求める。表示制御手段は第1隆起部算出手段により求められた第1隆起部の情報及び第2隆起部算出手段により求められた第2隆起部の情報を生体組織の画像に重ねて表示手段に表示させる。
Description
本発明の実施形態は、生体組織を撮影することにより生体組織の3次元の医用画像データを取得する医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラムに関する。
3次元の医用画像データを基に、生体組織の壁面を表示する医用画像を処理するためのアプリケーションがある(例えば特許文献1)。このアプリケーションを用いることにより、例えば、管状の形態を有する生体組織の内壁の凹凸を観察することが可能となる。
このアプリケーションの一例としては、生体組織の管内に設定された芯線に沿って移動しながら、管内の壁面形状の観察ができるフライスルー画像、また、管状組織を所定断面に沿って断面にした断層像を生成し、断層像に表される特定組織の境界を設定し、特定組織を境界に沿って展開することで、管状組織の内壁を一望することが可能となる展開像フィレビュー、さらに、例えば170度の広角で管内の壁面形状を観察することができるフィッシュアイビュー等がある。
しかしながら、例えば、冠動脈の血管内壁に形成されるプラークは、血管の内腔を狭窄させるように内向きに隆起する場合と、血管の径を大きくするように外向きに隆起する場合とがある。内向きに隆起するネガティブリモデリング(Negative Remodeling)を第1隆起部という場合がある。また、外向きに隆起するポジティブリモデリング(Positive Remodeling)を第2隆起部という場合がある。さらに、内向き及び外向きにそれぞれ隆起するモデリングを第3隆起部という場合がある。
したがって、前述のアプリケーションを用いて血管内を観察したとき、血管内壁に対し凸となって現れる第1隆起部を発見することが可能であるが、血管内壁に対し凸となって現れない第2隆起部は、血管内の観察だけでは、見逃してしまうという問題点があった。
第2隆起部はソフトプラークの場合が多く、急性疾患を起こすことが多いため、疾患の早期発見、早期治療が必要である。また、プラークが形成し始める初期に生じることが多いので、確実に見つけ出すことにより、疾患の早期発見、早期治療を実現することが可能となる。
この実施形態は、上記の問題を解決するものであり、生体組織の内壁を表示するときに、外壁が隆起する隆起部を同時に表示することが可能な医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラムを提供することを目的とする。
上記課題を解決するために、実施形態の医用画像診断装置は、画像取得手段、内壁抽出手段、外壁抽出手段、第1隆起部算出手段、第2隆起部算出手段、及び表示制御手段を有し、画像取得手段は内壁及び外壁を有する生体組織を撮影することにより生体組織の3次元の医用画像データを取得する。内壁抽出手段は前記医用画像データを基に、前記生体組織の内壁を抽出する。外壁抽出手段は前記医用画像データを基に、前記生体組織の外壁を抽出する。第1隆起部算出手段は前記抽出された前記生体組織の内壁を基に、前記生体組織の内壁が内側に隆起する第1隆起部の存在を含む情報を求める。第2隆起部算出手段は前記抽出された前記生体組織の外壁を基に、前記生体組織の外壁が外側に隆起する第2隆起部の存在を含む情報を求める。表示制御手段は前記第1隆起部算出手段により求められた前記第1隆起部の情報及び前記第2隆起部算出手段により求められた前記第2隆起部の情報を前記生体組織の画像に重ねて表示手段に表示させる。
[第1の実施形態]
この医用画像診断装置の実施形態について各図を参照して説明する。
この医用画像診断装置の実施形態について各図を参照して説明する。
〔構成〕
図1は、医用画像診断装置の構成を示すブロック図である。図1に示すように、撮影手段11は通信手段12を介して医用画像表示装置と接続されている。
図1は、医用画像診断装置の構成を示すブロック図である。図1に示すように、撮影手段11は通信手段12を介して医用画像表示装置と接続されている。
撮影手段11は、モダリティと称され、被検体に対して検査を行って3次元の医用画像データ(デジタルデータ)を生成する装置である。モダリティとしては、従来から用いられている任意の装置、たとえばX線CT(Computer Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置などが適用される。
X線CT装置は、被検体を放射線で走査し、被検体を透過した放射線を検出してコンピュータ処理を施すことにより被検体の内部画像(断層像や3次元画像)を再構成する。MRI装置は、核磁気共鳴現象を利用して被検体の内部画像を再構成する。超音波診断装置は、被検体に超音波を照射し、その反響状態を解析して体内を画像化する。なお、これらの装置は従来から広く使用されているものであり、詳細な説明は省略する。
通信手段12は、LAN(Local area network)を介してデータ通信を行う。通信手段12は、LANカード等の通信デバイスを含んで構成される。
〔医用画像表示装置〕
医用画像表示装置は、制御手段13、記憶手段14、データ変換手段15、画像生成手段16、画像合成手段17、操作手段18、表示制御手段21、及び表示手段22を有している。なお、画像処理装置は、一例として、上記の制御手段13、記憶手段14、データ変換手段15、画像生成手段16、画像合成手段17、操作手段18により構成される。
医用画像表示装置は、制御手段13、記憶手段14、データ変換手段15、画像生成手段16、画像合成手段17、操作手段18、表示制御手段21、及び表示手段22を有している。なお、画像処理装置は、一例として、上記の制御手段13、記憶手段14、データ変換手段15、画像生成手段16、画像合成手段17、操作手段18により構成される。
記憶手段14は、各種の情報を記憶する。特に、記憶手段14は、通信手段12がサーバ(図示省略)から受信した医用画像データ及び付帯情報を記憶する。制御手段13は、情報を記憶手段14に記憶させる処理、記憶手段14に記憶された情報を読み出す処理を実行する。記憶手段14は、ハードディスクドライブ等の書き込み可能な記憶装置を含んで構成される。
データ変換手段15は、医用画像データをモノクロ画像データに変換する。モノクロ画像データは、所定の階調範囲(たとえば、0~255)の輝度値で表現された階調画像データであることが多い。
操作手段18は、オペレータが表示手段22を操作したり、各種の情報を入力したりするために用いられる。操作手段18は、マウス、キーボード、ジョイスティック、トラックボール、専用のコントロールパネル等の任意の操作デバイスや入力デバイスを含んで構成される。
図2は、画像生成手段16の構成を示すブロック図である。図2に示すように、画像生成手段16は、展開画像生成手段161、内壁抽出手段162、外壁抽出手段163、正常内壁推定手段164、正常外壁推定手段165、第1隆起部算出手段166、第2隆起部算出手段167、及びカラーマッピング手段168を有する。
画像生成手段16は、上記モダリティにより撮影された被検体の画像データを基に所望の画像を生成するものである。ここでは、X線CT装置により撮影された3次元の医用画像データを基に、生体組織の展開画像及び、展開画像上に病変部の画像を生成する画像生成手段16について説明する。さらに、冠動脈等のように組織が管状に形成される管状部を生体組織の一例として説明する。被検体に造影剤を投与して行われるX線撮影では、管状部内を流れる造影剤、管状部(病変部を含む)、胸腔毎に取得されるCT値が異なる(投影データ)。画像生成手段16は、このCT値を基に生体組織の画像データを生成する。これにより、生成された画像データから生体組織を抽出することが可能となる。
図3~図5は病変部が生じた管状部1の部分斜視図である。図3~図5に示すように、管状部1にはプラークが堆積する病変部が局所に存在する。ここで、管状部1の内壁2が内方向に隆起する病変部を第1隆起部Nという。また、管状部1の外壁3が外方向に隆起する病変部を第2隆起部Pという。さらに、第1隆起部N及び第2隆起部Pの両方を有する病変部を第3隆起部Bという。
展開画像生成手段161は、管状部1の所定断面に沿った断層像に対し境界を設定し、管状部1の所定断面に沿った断層像データに対し、所定位置に視点を設定し、その視点から境界に向けた視線方向に沿ってボリュームデータにボリュームレンダリングを施すことで、管状部1を境界に沿って展開した展開画像を生成する。制御手段13は、生成された展開画像を記憶手段14に記憶させる。
内壁抽出手段162は、医用画像データ(管状部1の近傍画像、管状部1の始点、管状部1の芯線4)を基に、管状部1の内壁2を抽出する。ここで、病変部が生じている箇所において、病変部の内壁が「生体組織の内壁」に相当する。
次に、管状部1の近傍画像抽出、管状部1の始点検出、及び管状部1の芯線4の抽出について説明する。ここで、芯線4とは、管状部1の各横断面の中心4aを通る線に相当する(図3~図5参照)。
例えば、制御手段13は、操作手段18による指定を受けて、表示手段22に表示された管状部1の近傍画像を抽出し、抽出した管状部1の近傍画像を記憶手段14に記憶させる(管状部1の近傍画像抽出)。
例えば、制御手段13は、操作手段18による操作を受けて、表示手段22に管状部1の近傍画像を表示させるとともに、表示された管状部1の始点を指定し、指定した始点を記憶手段14に記憶させる(管状部1の始点検出)。なお、抽出された管状部1を基に始点を求める所定のアプリケーションを用いてもよい。
例えば、画像生成手段16は、所定のアプリケーションを実行して、管状部1の芯線4を抽出する。制御手段13は、抽出した管状部1の芯線4を記憶手段14に記憶させる(管状部1の芯線4の抽出)。
以上により、診断対象である管状部1の画像を抽出する。なお、上述する管状部1の近傍抽出~管状部1の芯線4の抽出は、左冠動脈、右冠動脈のように診断対象が2つあるとき、診断対象毎に行う。
内壁抽出手段162は、管状部1の画像を基に、例えば、平滑化フィルタ及び鮮鋭化フィルタを交互に掛け合わせることにより、管状部1の内壁2の境界を抽出する。なお、実際の壁であるから狭窄等も含まれる。制御手段13は、抽出された管状部1の内壁(第1隆起部Nの内壁を含む)2を第1隆起部Nの情報として記憶手段14に記憶させる。
外壁抽出手段163は、管状部1の近傍画像、及び内壁抽出手段162により抽出された管状部1の内壁2を基に、平滑化フィルタ及び鮮鋭化フィルタを交互に掛け合わせることにより管状部1の外壁3を抽出する。制御手段13は、抽出された管状部1の外壁(第2隆起部Pを含む)3を第2隆起部Pの情報として記憶手段14に記憶させる。
正常内壁推定手段164は、内壁抽出手段162により抽出された管状部1の内壁2を基に、図4及び図5で想像線により示す隆起前の内壁2の形状である正常内壁2aを推定する。たとえば、正常内壁推定手段164は、管状部1の内方向に凸である第1隆起部Nでは、その第1隆起部Nの周囲(隆起前の領域)同士を滑らかな面で補間することにより、正常内壁2aを推定する。なお、正常内壁推定手段164は、芯線4から外方向に所定長さ離間した円弧状の領域を正常内壁2aとして推定してもよい。制御手段13は、推定された正常内壁2aを記憶手段14に記憶させる。
正常外壁推定手段165は、外壁抽出手段163により抽出された管状部1の外壁3を基に、図4及び図5で想像線により示す隆起前の外壁3の形状である正常外壁3aを推定する。正常内壁2aを推定する場合と同様に、たとえば、正常外壁推定手段165は、管状部1の外方向に凸である第2隆起部Pでは、その第2隆起部Pの周囲(隆起前の領域)同士を滑らかな面で補間することにより、正常外壁3aを推定する。また、同様に、正常外壁推定手段165は、芯線4から外方向に所定長さ離間した円弧状の領域を正常外壁3aとして推定してもよい。制御手段13は、推定された正常外壁3aを記憶手段14に記憶させる。
第1隆起部算出手段166は、記憶手段14から読み出された第1隆起部Nの内壁及び正常内壁2aを基に、第1隆起部Nが正常内壁2aから隆起する高さである第1厚さT1を求める。制御手段13は、求められた第1厚さT1を第1隆起部Nの情報として記憶手段14に記憶させる。第1厚さT1が0より大きいとき、その情報(T1>0)は第1隆起部Nが存在することを示す情報となる。
第2隆起部算出手段167は、記憶手段14から読み出された第2隆起部Pの内壁及び正常外壁3aを基に、第2隆起部Pが正常外壁3aから隆起する高さである第2厚さT2を求める。制御手段13は、求められた第2厚さT2を第2隆起部Pの情報として記憶手段14に記憶させる。第2厚さT2が0より大きいとき、その情報(T2>0)は第2隆起部Pが存在することを示す情報となる。
カラーマッピング手段168は、第1厚さT1に対する第1色、及び第2厚さT2に対する第2色を作成する。カラーマッピング手段168は、色の番号(0~15)と実際の色の対応を定義する表(カラーマップ)を有し、例えば、カラーマッピング手段168は、第1色(例えば青)に色番号1を割り当て、第2色(例えば赤)に色番号2を割り当てる。例えば、カラーマッピング手段168は、第1色(例えば青)に色番号1を割り当て、第2色(例えば赤)に色番号2を割り当てる。制御手段13は、割り当てられた色番号を管状部1の領域を表す画素(ピクセル)に対応させて記憶手段14に記憶させる。
カラーマッピング手段168は、第1厚さT1の厚さ方向を例えば2[mm]毎に段階的に分け、各段階の領域を色分けすることにより第1色を作成する。
図6は図3のVI-VI線断面図であって、各段階を色分けすることにより作成される第1色を説明するための図である。図6に示すように、例えば、カラーマッピング手段168は、第1隆起部Nの各段階の領域に対し、第1色(青)の彩度が厚さ方向に高くなるような色(N1~N3)の色番号を割り当る。制御手段13、割り当てられた色番号を第1隆起部Nの各段階の領域を表す画素に対応させて記憶手段14に記憶させる。
画像合成手段17は、記憶手段14から読み出された管状部1の展開画像と、記憶手段14から読み出された第1隆起部Nの情報とを合成した画像を作成する。制御手段13は、合成された画像を記憶手段14に記憶させる。表示制御手段21は、合成された画像を表示手段22に表示させる。
図7は管状部1の展開画像に重ねて表示される第1隆起部Nの平面図である。図7に示すように、表示手段22に表示される第1隆起部Nは、彩度を段階的に異ならせた第1色(N1~N3)で色づけされる。
カラーマッピング手段168は、第1厚さT1の厚さ方向を例えば2[mm]毎に段階的に分け、各段階の領域を色分けすることにより第1色を作成する。段階的に異ならせた第1色で第1隆起部Nを色づけすることにより第1隆起部Nの高さを表すことが可能となる。なお、第1隆起部Nの高さを等高線により表してもよい。
図8は図4のVIII-VIII線断面図であって、各段階を色分けすることにより作成される第2色を説明するための図である。図8に示すように、例えば、カラーマッピング手段168は、第2隆起部Pの各段階の領域に対し、第2色(赤)の彩度が厚さ方向に高くなるような色(P1~P6)の色番号を割り当る。制御手段13は、割り当てられた色番号を第2隆起部Pの各段階の領域を表す画素に対応させて記憶手段14に記憶させる。
画像合成手段17は、記憶手段14から読み出された管状部1の展開画像と、記憶手段14から読み出された第2隆起部Pの情報とを合成した画像を作成する。制御手段13は、合成された画像を記憶手段14に記憶させる。表示制御手段21は、合成された画像を表示手段22に表示させる。
図9は、管状部1の展開画像に重ねて表示される第2隆起部Pの平面図である。図9に示すように、表示手段22に表示される第2隆起部Pは、彩度を段階的に異ならせた第2色(P1~P6)で色づけされる。それにより、第2隆起部Pの高さを表すことが可能となる。なお、第2隆起部Pの高さを等高線により表してもよい。
以上に、管状部1の展開画像に重ねて表示される第1隆起部N及び第2隆起部Pのいずれか一方を説明した。
しかし、管状部1に第2隆起部Pが生じた後に、第1隆起部Nが生じことが一般的であることから、実際には、第1隆起部Nのみが表示されることは少なく、第1隆起部Nが表示されると、第2隆起部Pも共に表示されることが多い。第1隆起部N及び第2隆起部Pの両者を同時に表示させると、両者を混同して相互に視認し難くなるおそれがある。
図10は、図5のX-X線断面図であって、作成される第3色を説明するための図である。図10に示すように、管状部1に第3隆起部B(第1隆起部N及び第2隆起部P)が生じている。なお、カラーマッピング手段168は、第1厚さT1が0より大きいとき(T1>0)、かつ、第2厚さT2が0より大きいとき(T2>0)、第3隆起部Bが生じていることを判断する。
カラーマッピング手段168は、第3隆起部Bが生じている領域に対する第3色を作成する。カラーマッピング手段168は、第3色(例えば紫)に色番号3を割り当てる。制御手段13は、割り当てられた色番号を管状部1の領域を表す画素(ピクセル)に対応させて記憶手段14に記憶させる。
画像合成手段17は、記憶手段14から読み出された管状部1の展開画像と、記憶手段14から読み出された第3隆起部Bの情報とを合成した画像を作成する。制御手段13は、合成された画像を記憶手段14に記憶させる。表示制御手段21は、合成された画像を表示手段22に表示させる。
図11は管状部1の展開画像に重ねて表示される第3隆起部Bの平面図である。図11に示すように、表示手段22に表示される第3隆起部Bの範囲が第3色(紫)で色づけされる。なお、カラーマッピング手段168は、第3隆起部Bの厚さT3に応じて、第3色の彩度を高くすることにより第3隆起部Bを色づけしてもよい。
厚さT3は次の式から求めることができる。
T3=T1+T2 (1)
なお上式(1)の右辺に管状部1の壁部の厚さ(予め定められた厚さ)tを加えてもよい。
厚さT3は次の式から求めることができる。
T3=T1+T2 (1)
なお上式(1)の右辺に管状部1の壁部の厚さ(予め定められた厚さ)tを加えてもよい。
〔動作〕
次に、X線CT装置により撮影された3次元の医用画像データを基に、管状部1の展開画像及び、展開画像上に病変部の画像を生成し、生成された各画像を表示させる医用画像診断装置の動作について図12を参照して説明する。図12は画像処理装置の動作を示すフローチャートである。
次に、X線CT装置により撮影された3次元の医用画像データを基に、管状部1の展開画像及び、展開画像上に病変部の画像を生成し、生成された各画像を表示させる医用画像診断装置の動作について図12を参照して説明する。図12は画像処理装置の動作を示すフローチャートである。
(CT画像の取得:ステップS1)
図12に示すように、X線CT装置により撮影され、サーバ(図示省略)に保存された被検体の3次元の医用画像データが通信手段12を介して記憶手段14に記憶される。
図12に示すように、X線CT装置により撮影され、サーバ(図示省略)に保存された被検体の3次元の医用画像データが通信手段12を介して記憶手段14に記憶される。
(管状部の近傍画像の抽出:ステップS2)
操作手段18による指定を受けて、制御手段13は、表示手段22に表示された管状部1の近傍画像を抽出する。
操作手段18による指定を受けて、制御手段13は、表示手段22に表示された管状部1の近傍画像を抽出する。
(管状部の始点検出:ステップS3)
次に、操作手段18による操作を受けて、抽出された管状部1の近傍画像の始点を指定する。
次に、操作手段18による操作を受けて、抽出された管状部1の近傍画像の始点を指定する。
(管状部の芯線抽出:ステップS4)
次に、画像生成手段16は、管状部1の芯線4を抽出する。管状部1の中心4aの座標(xg,yg)は、例えば、次の式から求めることができる。
xg=Sy/A (2)
yg=Sx/A (3)
ここで、Sxはx軸に関する断面一次モーメント、Syはy軸に関する断面一次モーメント、Aは管状部(病変部及び腔を含む)1の全断面積をいう。
次に、画像生成手段16は、管状部1の芯線4を抽出する。管状部1の中心4aの座標(xg,yg)は、例えば、次の式から求めることができる。
xg=Sy/A (2)
yg=Sx/A (3)
ここで、Sxはx軸に関する断面一次モーメント、Syはy軸に関する断面一次モーメント、Aは管状部(病変部及び腔を含む)1の全断面積をいう。
(管状部の内壁抽出:ステップS5)
次に、内壁抽出手段162は、管状部1の画像を基に、管状部1の内壁2を抽出する。このときの内壁2には、冠動脈の内壁ではなく実際の壁であるから管状部1の内方向に隆起する第1隆起部Nの内壁も含まれる。
次に、内壁抽出手段162は、管状部1の画像を基に、管状部1の内壁2を抽出する。このときの内壁2には、冠動脈の内壁ではなく実際の壁であるから管状部1の内方向に隆起する第1隆起部Nの内壁も含まれる。
(管状部の外壁抽出:ステップS6)
次に、外壁抽出手段163は、管状部1の画像を基に、管状部1の外壁3を抽出する。このときの外壁3は、第2隆起部Pにより管状部1の外方向に隆起する外壁3も含まれる。
次に、外壁抽出手段163は、管状部1の画像を基に、管状部1の外壁3を抽出する。このときの外壁3は、第2隆起部Pにより管状部1の外方向に隆起する外壁3も含まれる。
(正常内壁推定、及び正常外壁推定:ステップS7)
次に、正常内壁推定手段164は、実際の壁である管状部1の内壁2を基に隆起前の内壁2の形状である正常内壁2aを推定する。また、正常外壁推定手段165は、管状部1の外壁3を基に、隆起前の外壁3の形状である正常外壁3aを推定する。
次に、正常内壁推定手段164は、実際の壁である管状部1の内壁2を基に隆起前の内壁2の形状である正常内壁2aを推定する。また、正常外壁推定手段165は、管状部1の外壁3を基に、隆起前の外壁3の形状である正常外壁3aを推定する。
(第1厚さの算出:ステップS8)
第1隆起部算出手段166は、第1隆起部Nの内壁2及び正常内壁2aを基に、第1隆起部Nの高さである第1厚さT1を求める。
第1隆起部算出手段166は、第1隆起部Nの内壁2及び正常内壁2aを基に、第1隆起部Nの高さである第1厚さT1を求める。
(第1厚さのカラーマッピング:ステップS9)
カラーマッピング手段168は、第1厚さT1に対する第1色(例えば青)を作成する。例えば、カラーマッピング手段168は、第1隆起部Nの領域を表す各画素に対し第1色の色番号を割り当て、制御手段13は、色番号を各画素に対応させて記憶手段14に記憶させる。
カラーマッピング手段168は、第1厚さT1に対する第1色(例えば青)を作成する。例えば、カラーマッピング手段168は、第1隆起部Nの領域を表す各画素に対し第1色の色番号を割り当て、制御手段13は、色番号を各画素に対応させて記憶手段14に記憶させる。
(第2厚さの算出:ステップS10)
第2隆起部算出手段167は、第2隆起部Pの外壁3及び正常外壁3aを基に、第2隆起部P高さである第2厚さT2を求める。
第2隆起部算出手段167は、第2隆起部Pの外壁3及び正常外壁3aを基に、第2隆起部P高さである第2厚さT2を求める。
(第2厚さのカラーマッピング:ステップS11)
カラーマッピング手段168は、第2厚さT2に対する第2色(例えば赤)を作成する。例えば、カラーマッピング手段168は、第2隆起部Pの領域を表す各画素に対し第2色の色番号を割り当て、制御手段13は、色番号を各画素に対応させて記憶手段14に記憶させる。
カラーマッピング手段168は、第2厚さT2に対する第2色(例えば赤)を作成する。例えば、カラーマッピング手段168は、第2隆起部Pの領域を表す各画素に対し第2色の色番号を割り当て、制御手段13は、色番号を各画素に対応させて記憶手段14に記憶させる。
(展開画像生成:ステップS13)
前記ステップS1~S11に平行して、展開画像生成手段161は、管状部1の画像データを基に、管状部1を展開した展開画像を生成する。
前記ステップS1~S11に平行して、展開画像生成手段161は、管状部1の画像データを基に、管状部1を展開した展開画像を生成する。
(画像の合成表示:ステップS12)
画像合成手段17は、管状部1の展開画像に第1隆起部Nの情報及び第2隆起部Pの情報を重ねて表示する。
画像合成手段17は、管状部1の展開画像に第1隆起部Nの情報及び第2隆起部Pの情報を重ねて表示する。
ここで、第1隆起部Nの情報とは、第1隆起部Nの画像、第1隆起部Nが管状部1に存在していることの情報(存在情報)、並びに、第1厚さT1及びその厚さT1の程度を示す情報を含む。同じく、第2隆起部Pの情報とは、第2隆起部Pの画像、第2隆起部Pが管状部1に存在していることの情報(存在情報)、並びに、第2厚さT2及びその厚さT2の程度を示す情報を含む。
なお、画像処理プログラムは、一例として上記ステップS1からステップS12の処理をコンピュータに実行させるように構成されるものである。
[第2の実施形態]
管状部1の画像に第1隆起部N及び第2隆起部Pを同時に表示させるとき、第1隆起部N及び第2隆起部Pの両方が生じていることを表すために第3隆起部Bの範囲を第3色(紫)で色づけ、また、第3隆起部Bの厚さT3に応じて第3色の彩度を高くすることにより第3隆起部Bの範囲を色づけするようにしたが、第1隆起部N及び第2隆起部Pを区別することが困難であるため、第1隆起部N及び第2隆起部Pの各病変部の進行状態を判断し難い。
管状部1の画像に第1隆起部N及び第2隆起部Pを同時に表示させるとき、第1隆起部N及び第2隆起部Pの両方が生じていることを表すために第3隆起部Bの範囲を第3色(紫)で色づけ、また、第3隆起部Bの厚さT3に応じて第3色の彩度を高くすることにより第3隆起部Bの範囲を色づけするようにしたが、第1隆起部N及び第2隆起部Pを区別することが困難であるため、第1隆起部N及び第2隆起部Pの各病変部の進行状態を判断し難い。
次に、第2の実施形態に係る医用画像診断装置について説明する。なお、以下の説明では、第1の実施形態の構成と同じものについては同一番号を付してその説明を省略する。
図13は第1隆起部N及び第2隆起部Pを同時に表示するときの表示態様の一例を示す図である。図13に示すように、管状部1の壁を芯線4に沿って断面にした断層像(管状部1の画像)に第1色(例えば青)により示された第1隆起部N、及び、第2色(例えば赤)により示された第2隆起部Pが重ねて表示される。
管状部1のどこの断層像を作成するかは、操作手段18による表示手段22上での操作を受けて、制御手段13が管状部1の位置を指定し、指定された位置を受けて、画像生成手段16がその位置で管状部1を断面にした断層像を作成する。
画像生成手段16は、管状部1の画像として断層像を作成し、その断層像に対する第1隆起部N及び第2隆起部Pを作成し、断層像と第1隆起部N及び第2隆起部Pとを合成する。表示制御手段21は、表示手段22に合成した画像を表示させる。なお、第1色、第2色は、段階的に彩色が異なるようにしてもよい。
以上のように、断層像に第1隆起部N及び第2隆起部Pを重ねて表示させることにより、第1隆起部N及び第2隆起部Pの各病変部の進行状況を容易に視認することが可能となる。
さらに、操作手段18による操作を受けて、制御手段13が断層像を作成するときの断面を変更し、変更された断面を受けて画像生成手段16が管状部1の断層像、第1隆起部N及び第2隆起部Pを作成し、表示制御手段21が表示手段22に、断層像に第1隆起部N及び第2隆起部Pを重ねて表示させる。それにより、各病変部の進行状況を別の角度から観察することととなり、病変部の進行状況をより正確に視認することが可能となる。
図14は第1隆起部N及び第2隆起部Pを同時に表示するときの表示態様の他の例を示す図である。図14に示すように、管状部1の壁を芯線4と直交する方向で断面にした断層像(管状部1の画像)に第1色(例えば青)により示された第1隆起部N、及び、第2色(例えば赤)により示されたれた第2隆起部Pが重ねて表示される。なお、第1色、第2色は、段階的に彩色が異なるようにしてもよい。
なお、上記実施形態では、管状部1の画像に第1隆起部N及び第2隆起部Pを同時に表示させたが、共に平面上に表示する表示態様では、第1隆起部N及び第2隆起部Pを区別するのが困難なため、第1隆起部N及び第2隆起部Pの各病変部の進行状況が判断し難い。
そこで、画像合成手段17は、管状部1の画像に第1隆起部Nの画像を重ねた合成画像、並びに、管状部1の画像に第2隆起部Pの画像を重ねて合成画像の両方を作成し、表示制御手段21が表示手段22に両方の合成画像を切り替えて表示させる。それにより、第1隆起部N及び第2隆起部Pの各病変部の進行状況を判断し易くすることが可能となる。
また、実施形態では、画像生成手段16は、第1隆起部Nが存在するときの情報(T1>0)及び、第2隆起部Pが存在するときの情報(T2>0)を基に、第1隆起部Nの存在を識別するための第1識別標識及び、第2隆起部Pの存在を識別するための第2識別標識を作成し、表示制御手段21が表示手段に、管状部1の画像に第1識別標識及び第2識別標識を重ねて表示させる。それにより、第1隆起部N及び第2隆起部Pを区別することが可能となる。
さらに、表示制御手段21は、管状部1の画像に第1厚さT1を表す情報(例えば数値)及び第1厚さT1の程度を表す情報(例えばN1、N2、N3…)、並びに、第2厚さT2を表す情報(例えば数値)及び第2厚さT2の程度を表す情報(例えばP1、P2、P3…)を重ねて表示させてもよい。第1隆起部Nの第1厚さT1と第2隆起部Pの第2厚さT2とが例えば2[mm]/3[mm]のように対比して表示され、または第1厚さT1の程度と第2厚さT2の程度とが例えば、N3/P5のように対比して表示されるので、病変部の進行状況を判断し易くなる。
[第3実施形態]
前記第1及び第2実施形態では、生体組織の内壁を表示させるときに、外壁が隆起する隆起部を生体組織の画像に同時に表示させるものを示した。これに対し、以下の実施形態では、その成分の領域が色分けされた生体組織の画像を表示させるものを示す。それにより、石灰成分あるいは脂質成分となった生体組織を容易に視認することで、病変部を確実に見つけ出すことができる。そのため、疾患の早期発見、早期治療を実現することが可能となる。
前記第1及び第2実施形態では、生体組織の内壁を表示させるときに、外壁が隆起する隆起部を生体組織の画像に同時に表示させるものを示した。これに対し、以下の実施形態では、その成分の領域が色分けされた生体組織の画像を表示させるものを示す。それにより、石灰成分あるいは脂質成分となった生体組織を容易に視認することで、病変部を確実に見つけ出すことができる。そのため、疾患の早期発見、早期治療を実現することが可能となる。
生体組織の画像の例としては、断面画像、展開画像、MPR画像、ビュー画像、及び、外壁展開画像のいずれか一つ、または、これらの画像が組み合わされたものを挙げることができる。なお、断面画像、展開画像、MPR画像、ビュー画像、及び、外壁展開画像の詳細については後述する。
次に、第3実施形態に係る医用画像診断装置について図15を参照して説明する。図15は断面画像を展開画像と共に表示させたときの表示態様の一例を示す図である。なお、第3実施形態が前記実施形態と異なる構成につて主に説明し、前記実施形態と同様の構成についてはその説明を省略する。
第3実施形態において、画像生成手段16は、断面画像作成手段171及び色分け手段172を有している。
断面画像作成手段171は、3次元の医用画像データに基づいて、生体組織を指定された位置(予め定められた位置を含む)で断面にしたときの画像を作成する。なお、3次元の医用画像データを、3次元データまたはボリュームデータという場合がある。その断面の位置は、3次元の医用画像データに基づいて指定された3次元座標により定まる。
展開画像生成手段161は、3次元の医用画像データを基に管状部1の内壁2を平面状に展開した展開画像を生成する(前述)。展開画像の一例は、3次元の医用画像データを基に、管状部1の中心軸から半径方向に沿って行った投影処理の値を、中心軸の回りの円周方向の角度を横軸とし、中心軸上の位置を縦軸として分布した画像である。なお、中心軸上の位置は、3次元の医用画像データに基づいて指定される3次元座標で定まる。
色分け手段172は、断面画像作成手段171により作成された断面画像において、生体組織の成分(例えば、カルシウム、脂肪)を輝度値を基に分類(判別)し、その成分の領域を分類毎に色分けする。例えば、生体組織のカルシウム成分の領域及び脂肪成分の領域は、”白”及び”黄”の異なる色により区別可能に表示される。
表示制御手段21は、生体組織の成分の領域が色分けされた断面画像と共に、展開画像を表示させる(図15参照)。
さらに、表示制御手段21は、操作手段(入力部)18の操作により、展開画像上に断面の位置を指定可能に表示させる。展開画像上で指定された位置(中心軸上の位置)と、断面の位置は、3次元座標で対応付けられている。したがって、断面画像生成手段171は、展開画像上で指定された位置を受けて、その位置に対応付けられた断面の位置で生成情報を断面にしたときの断面画像を作成する。
表示制御手段21は、展開画像、展開画像上で指定された位置、その位置に対応する断面の位置で生体情報を断面にしたときの断面画像を表示させる(図15参照)。
図15に、断面画像を”S”、展開画像を”D”、カルシウム成分の領域を”C”、脂肪成分の領域を”F”でそれぞれ示す。さらに、図15に、展開画像上に表された、指定された位置を”A”、管状部1の中心軸を”L0”、中心軸L0に沿った線を”L1”、位置Aを通り、線L1と直交する線を”L2”で示す。なお、中心軸L0を芯線4という場合がある。
〔変形例〕
次に、第3実施形態の変形例について図16を参照して説明する。図16は、図15に示す展開画像上の生体組織の成分の領域を色分けしたときの表示態様の一例を示す図である。
次に、第3実施形態の変形例について図16を参照して説明する。図16は、図15に示す展開画像上の生体組織の成分の領域を色分けしたときの表示態様の一例を示す図である。
前記実施形態では、色分け手段172が断面画像上の生体組織の成分の領域を分類毎に色分けしたが、この変形例では、色分け手段172が、さらに、展開画像上の生体組織の成分の領域を分類毎に色分けする。
展開画像上での色分けについては、前述する断面画像上での色分けと同様に、同じ成分の領域は同じ色にすることが好ましい(例えば、カルシウム成分の領域を”白”、脂肪成分の領域を”黄”)。それにより、断面画像と展開画像とを対比することで、生体組織の成分(例えば、石灰成分及び/または脂質成分)を容易に視認することが可能となる。図16に、断面画像”S”と同様の色分けがされた展開画像”D”を示す。
[第4実施形態]
前記第3実施形態においては、断面画像を共に表示させる生体組織の画像として、展開画像を示した。これに対して、この第4実施形態では、さらにMPR(Multi Planar Reconstruction)画像を表示させるものを示す。なお、展開画像に代えてMPR画像を表示させてもよい。
前記第3実施形態においては、断面画像を共に表示させる生体組織の画像として、展開画像を示した。これに対して、この第4実施形態では、さらにMPR(Multi Planar Reconstruction)画像を表示させるものを示す。なお、展開画像に代えてMPR画像を表示させてもよい。
次に、第4実施形態に係る医用画像診断装置について図17を参照して説明する。図17は、第4実施形態に係る医用画像診断装置において、断面画像を展開画像及びMPR画像と共に表示させたときの表示態様の一例を示す図である。なお、第4実施形態が前記実施形態と異なる構成につて主に説明し、前記実施形態と同様の構成についてはその説明を省略する。
この実施形態では、画像生成手段16はMPR画像生成手段173を有している。MPR画像生成手段173は、操作手段(入力部)18の操作による断面の位置の指定を受けて、3次元の医用画像データに基づいて、生体組織の複数の断面を表したMPR画像を作成する。
色分け手段172は、さらに、MPR画像上の生体組織の成分を輝度値を基に分類(判別)し、その成分の領域を分類毎に色分けする。
MPR画像上での色分けについては、前述する断面画像及び/または展開画像上での色分けと同様にすることが好ましい(例えば、カルシウム成分の領域を”白”、脂肪成分の領域を”黄”)。それにより、生体組織の成分をMPR画像と断面画像および/または展開画像とで対比することが容易となって、石灰成分あるいは脂質成分となった生体組織を容易に視認することが可能となる。
図17に、断面の位置”A”で中心軸に沿って管状部1を断面にしたときのMPR画像”M”を示す。さらに、図17に、MPR画像上に表された管状部1の中心軸を”L0”、中心軸L0に沿った線を”L1”、線L1と直交する線を”L2”で示す。
[第5実施形態]
前記第4実施形態では、断面画像を共に表示させる生体組織の画像として、展開画像及びMPR画像を示した。これに対して、この第5実施形態では、展開画像及びMPR画像と併せてビュー画像を表示させるものを示す。なお、ビュー画像を展開画像及び/またはMPR画像に代えて表示させてもよい。
前記第4実施形態では、断面画像を共に表示させる生体組織の画像として、展開画像及びMPR画像を示した。これに対して、この第5実施形態では、展開画像及びMPR画像と併せてビュー画像を表示させるものを示す。なお、ビュー画像を展開画像及び/またはMPR画像に代えて表示させてもよい。
次に、第5実施形態に係る医用画像診断装置について図18を参照して説明する。図18は、第5実施形態に係る医用画像診断装置において、断面画像を展開画像、MPR画像及びビュー画像と共に表示させたときの表示態様の一例を示す図である。なお、第5実施形態が前記実施形態と異なる構成につて主に説明し、前記実施形態と同様の構成についてはその説明を省略する。
この実施形態では、画像生成手段16はビュー画像生成手段174を有している。ビュー画像生成手段174は、3次元の医用画像データを基に、視点から管状部1を見たときの管状部1の外側を示すビュー画像を作成する。また、視点を管状部1内において、管状部1の内側を示すビュー画像を作成してもよい。
ビュー画像の作成には、公知の技術(例えば、特開2006-346177号公報)を用いる。同公報には、MPR画像データに基づいて、所定モード(フライスルーモード)における複数の視点を設定する手段と、設定された視点情報に基づき壁情報ボリュームデータをレンダリング処理してフライスルー画像データを生成する手段とが示されている。このフライスルー画像の生成する技術を用いて、ビュー画像を作成することが可能である。なお、視点及び視野範囲はユーザが指定可能であり、制御手段13は、ユーザによる操作手段(入力部)18の操作を受けて、視点及び視野範囲を記憶手段14に記憶させる。
ここで、視点について図18を参照して説明する。図18に、断面画像を”S”、展開画像を”D”、MPR画像を”M”、ビュー画像を”V”、管状部1の中心軸を”L0”、視点を”VP”で示す。また、断面画像Sにおいて、最上位置を原点”0”とし、原点0から時計回りの角度を”θ”とし、中心軸L0から視点VPまでの距離を”R”とする。さらに、展開画像Dにおいて、中心軸L0に沿った縦軸に原点0からの距離(P)をとり、横軸に原点0から時計方向への回転角(θ)をとり、視点VPの移動(線L1上の位置では”Q1”から”Q2”への移動)を矢印で示す。さらに、MPR画像Mにおいて、視点VPの移動(中心軸L0上の位置では”Q1”から”Q2”への移動)を矢印で示す。
断面画像S上の視点VPの位置は、中心軸L0回りの回転角度θ、及び中心軸L0からの距離Rで表される。これに対して、展開画像D上の視点VPの位置は、中心軸L0上の位置Q(原点0からの距離)、及び原点0からの回転角度θで表される。さらに、MPR画像M上の視点VPの位置は、中心軸L0上の位置Q、及び、高さH(線L2からの距離)で表される。なお、H=R*cosθで表される。
したがって、展開画像D上の視点VP及びMPR画像M上の視点VPの各位置は、共にP、θ及びRで表すことができる。すなわち、展開画像D上の視点VPの位置の式をf(P、θ、R)とすると、その式にP、θ及びRを代入することで、展開画像D上の視点VPの位置を求めることができる。これは、展開画像D上の視点VPの位置からf(P、θ、R)を用いてP、θ及びRを導き出すことができるということである。
また、MPR画像M上の視点VPの位置の式をg(P、θ、R)とすると、その式にP、θ及びRを代入することで、MPR画像M上の視点VPの位置を求めることができる。これは、MPR画像M上の視点VPの位置からg(P、θ、R)を用いてP、θ及びRを導き出すことができるということである。
すなわち、展開画像D上の視点VPの位置からMPR画像M上の視点VPの位置を求めることができる。また、MPR画像M上の視点VPの位置から展開画像D上の視点VPの位置を求めることができる。
表示制御手段21は、操作手段(入力部)18の操作を受けて、視点を移動可能にMPR画像上に表示させる。
さらに、表示制御手段21は、視点を展開画像上に表示させるとともに、展開画像上の視点をMPR画像上の視点と連動させて表示させる。
したがって、表示制御手段21は、操作手段(入力部)18の操作を受けて、展開画像及びMPR画像の一方の視点を移動させると、その視点位置を受けて、他方の画像上の視点を移動して表示させることができる。
したがって、表示制御手段21は、操作手段(入力部)18の操作を受けて、展開画像及びMPR画像の一方の視点を移動させると、その視点位置を受けて、他方の画像上の視点を移動して表示させることができる。
さらに、表示制御手段21は、ビュー画像(図18に”V”で示す)において管状部1の外壁3の凹部及び/または凸部を含む形態を表示させる。このとき、表示制御手段21は、凹部と凸部とを区別可能に表示させる。凹部と凸部(図18に”U”で示す)を、互いに異なる色で区別してもよく、互いに異なる影やハッチングで区別してもよい。なお、管状部1の内壁2において凹部とは推定された正常内壁2aから凹んだ部位をいい、凸部とは正常内壁2aから隆起した部位をいい、凹部及び凸部は共に、医用画像の3次元データを基に判断される。さらに、管状部1の外壁3において凹部とは推定された正常外壁3aから凹んだ部位をいい、凸部とは正常外壁3aから隆起した部位をいい、凹部及び凸部は共に、医用画像の3次元データを基に判断される。
[第6実施形態]
前記第5実施形態では、断面画像を共に表示させる生体組織の画像として、展開画像、MPR画像及びビュー画像を示した。これに対して、第6実施形態では、MPR画像及び外壁展開画像を表示させるものを示す。なお、外壁展開画像をMPR画像に代えて表示させてもよく、展開画像及び/またはビュー画像と併せて表示させてもよい。
前記第5実施形態では、断面画像を共に表示させる生体組織の画像として、展開画像、MPR画像及びビュー画像を示した。これに対して、第6実施形態では、MPR画像及び外壁展開画像を表示させるものを示す。なお、外壁展開画像をMPR画像に代えて表示させてもよく、展開画像及び/またはビュー画像と併せて表示させてもよい。
次に、第6実施形態に係る医用画像診断装置について図19を参照して説明する。図19は、第6実施形態に係る医用画像診断装置において、断面画像をMPR画像及び外壁展開画像と共に表示させたときの表示態様の一例を示す図である。なお、第6実施形態が前記実施形態と異なる構成につて主に説明し、前記実施形態と同様の構成についてはその説明を省略する。
この実施形態では、画像生成手段16は外壁展開画像生成手段175を有している。外壁展開画像生成手段175は、管状部1の外壁3を断面画像の外側に開いたように(中心軸L0とする放射方向に延ばされたように)表される外壁展開画像を生成する。なお、延ばされる長さは、視野範囲内に入る外壁3の部分の長さである。
表示制御手段21は、断面画像をMPR画像及び外壁展開画像と共に表示させる。表示制御手段21は、外壁展開画像において、管状部1の外壁3の凹部及び/または凸部を含む形態を表示させる。このとき、表示制御手段21は、凹部と凸部(図18に”U”で示す)とを区別可能に表示させる。凹部と凸部を、互いに異なる色で区別してもよく、互いに異なる影やハッチングで区別してもよい。なお、外壁展開画像においても、ビュー画像と同様に、管状部1の内壁2において凹部とは推定された正常内壁2aから凹んだ部位をいい、凸部とは正常内壁2aから隆起した部位をいい、凹部及び凸部は共に、医用画像の3次元データを基に判断される。さらに、管状部1の外壁3において凹部とは推定された正常外壁3aから凹んだ部位をいい、凸部とは正常外壁3aから隆起した部位をいい、凹部及び凸部は共に、医用画像の3次元データを基に判断される。
図19に、外壁展開画像”OD”を示す。外壁展開画像を表示させたことにより、内壁2の生体組織を視認する中で、外壁3に生じた病変部(図19に”U”で示す部位に相当)を見つけ出すことができる。
[第7実施形態]
前記第6実施形態では、断面画像と共にMPR画像及び外壁展開画像を表示させるものを示した。これに対して、この第7実施形態では、展開画像と共にMPR画像及び外壁展開画像を表示させるものを示す。
前記第6実施形態では、断面画像と共にMPR画像及び外壁展開画像を表示させるものを示した。これに対して、この第7実施形態では、展開画像と共にMPR画像及び外壁展開画像を表示させるものを示す。
次に、第7実施形態に係る医用画像診断装置について図20を参照して説明する。図20は、第7実施形態に係る医用画像診断装置において、展開画像をMPR画像及び外壁展開画像と共に表示させたときの表示態様の一例を示す図である。なお、第7実施形態が前記実施形態と異なる構成について主に説明し、前記実施形態と同様の構成についてはその説明を省略する。
図20に示すように、表示制御手段21は、展開画像をMPR画像及び外壁展開画像と共に表示させる。展開画像及び外壁展開画像を表示させることにより、管状部1の内壁2及び外壁3の各生体組織を同時に確認することが可能となる。それにより、内壁2または外壁3の一方に生じた病変部を基に、その病変部が生じた一方の壁とは反対側の壁に病変部が生じているかどうかを、他方の生体組織が同時に見ることにより、容易に確認することが可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、書き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるととともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 管状部 2 内壁 3 外壁 4 芯線 4a 図心
N 第1隆起部 P 第2隆起部 B 第3隆起部
11 撮影手段 12 通信手段 13 制御手段 14 記憶手段
15 データ変換手段 16 画像生成手段 17 画像合成手段
18 操作手段
21 表示制御手段 22 表示手段
161 展開画像生成手段 162 内壁抽出手段
163 外壁抽出手段 164 正常内壁推定手段 165 正常外壁推定手段
166 第1隆起部算出手段 167 第2隆起部算出手段
168 カラーマッピング手段
171 断面画像生成手段 172 色分け手段 173 MPR画像生成手段
174 ビュー画像生成手段 175 外壁展開画像生成手段
N 第1隆起部 P 第2隆起部 B 第3隆起部
11 撮影手段 12 通信手段 13 制御手段 14 記憶手段
15 データ変換手段 16 画像生成手段 17 画像合成手段
18 操作手段
21 表示制御手段 22 表示手段
161 展開画像生成手段 162 内壁抽出手段
163 外壁抽出手段 164 正常内壁推定手段 165 正常外壁推定手段
166 第1隆起部算出手段 167 第2隆起部算出手段
168 カラーマッピング手段
171 断面画像生成手段 172 色分け手段 173 MPR画像生成手段
174 ビュー画像生成手段 175 外壁展開画像生成手段
Claims (21)
- 内壁及び外壁を有する生体組織を撮影することにより生体組織の3次元の医用画像データを取得する画像取得手段と、
前記医用画像データを基に、前記生体組織の内壁を抽出する内壁抽出手段と、
前記医用画像データを基に、前記生体組織の外壁を抽出する外壁抽出手段と、
前記抽出された前記生体組織の内壁を基に、前記生体組織の内壁が内側に隆起する第1隆起部の存在を含む情報を求める第1隆起部算出手段と、
前記抽出された前記生体組織の外壁を基に、前記生体組織の外壁が外側に隆起する第2隆起部の存在を含む情報を求める第2隆起部算出手段と、
前記第1隆起部算出手段により求められた前記第1隆起部の情報及び前記第2隆起部算出手段により求められた前記第2隆起部の情報を前記生体組織の画像に重ねて表示手段に表示させる表示制御手段と、
を有する
ことを特徴とする医用画像診断装置。 - 前記表示制御手段は、前記第1隆起部及び前記第2隆起部の各情報を区別可能に表示させることを特徴とする請求項1に記載の医用画像診断装置。
- 前記抽出された生体組織の内壁を基に、隆起前の内壁の形状である正常内壁を推定する正常内壁推定手段と、
前記抽出された生体組織の外壁を基に、隆起前の外壁の形状である正常外壁を推定する正常外壁推定手段と、
をさらに有し、
第1隆起部算出部は、前記第1隆起部が前記正常内壁から隆起する高さである第1厚さを求め、
前記第2隆起部算出部は、前記第2隆起部が前記正常外壁から隆起する高さである第2厚さを求め、
前記表示制御手段は、前記求められた前記第1厚さを前記第1隆起部の情報として表示させ、前記求められた前記第2厚さを前記第2隆起部の情報として表示させることを特徴とする請求項1または請求項2に記載の医用画像診断装置。 - 前記第1厚さに対する第1色、及び、前記第1色とは異なる、前記第2厚さに対応する第2色を作成するカラーマッピング手段をさらに有し、
前記表示制御手段は、前記第1色及び前記第2色により、前記第1隆起部及び前記第2隆起部の各情報を表示させることを特徴とする請求項3に記載の医用画像診断装置。 - 前記カラーマッピング手段は、前記第1厚さの厚さ方向を段階的に分け、各段階を色分けすることにより前記第1色を作成するとともに、前記第2厚さの厚さ方向を段階的に分け、各段階を色分けすることにより前記第2色を作成することを特徴とする請求項4に記載の医用画像診断装置。
- 前記内壁抽出手段は、管状部を含む前記生体組織の内壁を抽出し、
前記外壁抽出手段は、管状部を含む前記生体組織の外壁を抽出し、
前記表示制御手段は、前記管状部の内壁の画像に重ねて前記第2隆起部の情報を表示させることを特徴とする請求項1から請求項5のいずれかに記載の医用画像診断装置。 - 前記医用画像データを基に、前記生体組織を指定された位置で断面にしたときの断面画像を作成する断面画像生成手段と、
前記作成された断面画像において、前記生体組織の成分を分類し、前記分類ごとに色分けする色分け手段と、
をさらに有し、
前記表示制御手段は、前記色分け手段により前記色分けされた前記断面画像を表示させる
ことを特徴とする請求項1から請求項6のいずれかに記載の医用画像診断装置。 - 前記管状部の内壁を平面状に展開した展開画像を生成する展開画像生成手段をさらに有し、
前記表示制御手段は、前記生成された前記展開画像を表示させるとともに、入力部の操作により前記展開画像上に前記位置を指定可能に表示させ、
前記断面画像生成手段は、前記指定を受けて、前記指定された前記位置で前記生体組織を断面にしたときの前記断面画像を作成し、
前記表示制御手段は、前記作成された前記展開画像を前記断面画像と共に表示させる
ことを特徴とする請求項7に記載の医用画像診断装置。 - 前記色分け手段は、前記展開画像において、前記生体組織の成分を分類し、前記分類毎に色分けし、
前記表示制御手段は、前記色分けされた前記展開画像を表示させる
ことを特徴とする請求項8に記載の医用画像診断装置。 - 前記医用画像データを基に、前記生体組織の複数の断面を表したMPR画像を作成するMPR画像生成手段をさらに有し、
前記表示制御手段は、前記MPR画像を、前記断面画像及び前記展開画像と共に表示させる
ことを特徴とする請求項7から請求項9のいずれかに記載の医用画像診断装置。 - 前記色分け手段は、前記MPR画像において、前記生体組織の成分を分類し、前記分類毎に色分けし、
前記表示制御手段は、前記色分けされた前記MPR画像を表示させる
ことを特徴とする請求項10に記載の医用画像診断装置。 - さらに、前記表示制御手段は、前記医用画像データに基づいて指定された視点を前記MPR画像上に表示させる
ことを特徴とする請求項11に記載の医用画像診断装置。 - さらに、前記表示制御手段は、入力部の操作を受けて、前記視点を移動可能に表示させる
ことを特徴とする請求項12に記載の医用画像診断装置。 - さらに、前記表示制御手段は、前記視点を前記展開画像上に表示させるとともに、前記展開画像上の前記視点を前記MPR画像上の前記視点と連動させて表示させる
ことを特徴とする請求項13に記載の医用画像診断装置。 - 前記管状部の外壁を前記断面画像の外側に開いたように表される外壁展開画像を生成する外壁展開画像生成手段をさらに有し、
前記表示制御手段は、前記生成された外壁展開画像を、前記断面画像及び前記MPR画像と共に表示させる
ことを特徴とする請求項7から請求項14のいずれかに記載の医用画像診断装置。 - さらに、前記表示制御手段は、前記外壁展開画像において前記管状部の外壁の凹部及び/または凸部を含む形態を表示させるとともに、前記凹部及び前記凸部を区別可能に表示させる
ことを特徴とする請求項15に記載の医用画像診断装置。 - 前記医用画像データを基に、指定された視点から前記管状部を見たときの前記管状部の外側を示すビュー画像を作成するビュー画像生成手段をさらに有し、
前記表示制御手段は、前記作成されたビュー画像を、前記断面画像、前記展開画像、及びMPR画像と共に表示させる
ことを特徴とする請求項7から請求項16のいずれかに記載の医用画像診断装置。 - さらに、前記表示制御手段は、前記ビュー画像において前記管状部の外壁の凹部及び/または凸部を含む形態を表示させるとともに、前記凹部及び前記凸部を区別可能に表示させる
ことを特徴とする請求項17に記載の医用画像診断装置。 - 外部から取得される、内壁及び外壁を有する生体組織の3次元の医用画像データを基に、前記生体組織の内壁を抽出する内壁抽出手段と、
前記医用画像データを基に、前記生体組織の外壁を抽出する外壁抽出手段と、
前記生体組織の内壁を基に、前記生体組織の内壁が内側に隆起する第1隆起部の情報を求める第1隆起部算出手段と、
前記生体組織の内壁を基に、前記生体組織の外壁が外側に隆起する第2隆起部の情報を求める第2隆起部算出手段と、
前記第1隆起部算出手段により求められた前記第1隆起部の情報及び前記第2隆起部算出手段により求められた前記第2隆起部の情報を前記生体組織の画像に重ねて表示手段に表示させる表示制御手段と、
を有する
ことを特徴とする医用画像表示装置。 - 外部から取得される、内壁及び外壁を有する生体組織の3次元の医用画像データを基に、前記生体組織の内壁を抽出する内壁抽出手段と、
前記医用画像データを基に、前記生体組織の外壁を抽出する外壁抽出手段と、
前記生体組織の内壁を基に、前記生体組織の内壁が内側に隆起する第1隆起部の情報を求める第1隆起部算出手段と、
前記生体組織の内壁を基に、前記生体組織の外壁が外側に隆起する第2隆起部の情報を求める第2隆起部算出手段と、
前記第1隆起部の情報及び前記第2隆起部の情報を関連付けて記憶手段に記憶させる記憶制御手段と、
を有する
ことを特徴とする医用画像処理装置。 - 外部から取得される、内壁及び外壁を有する生体組織の3次元の医用画像データを基に、前記生体組織の内壁を抽出するステップと、
前記医用画像データを基に、前記生体組織の外壁を抽出するステップと、
前記生体組織の内壁を基に、前記生体組織の内壁が内側に隆起する第1隆起部の情報を求める第1隆起部算出ステップと、
前記生体組織の内壁を基に、前記生体組織の外壁が外側に隆起する第2隆起部の情報を求める第2隆起部算出ステップと、
前記第1隆起部の情報及び前記第2隆起部の情報を関連付けて記憶手段に記憶させる記憶制御ステップと、
をコンピュータに実行させることを特徴とする医用画像処理プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201280011423.2A CN103402434B (zh) | 2011-03-10 | 2012-03-09 | 医用图像诊断装置、医用图像显示装置以及医用图像处理装置 |
| US13/981,451 US9196057B2 (en) | 2011-03-10 | 2012-03-09 | Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program |
| US14/931,206 US9449387B2 (en) | 2011-03-10 | 2015-11-03 | Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011052982 | 2011-03-10 | ||
| JP2011-052982 | 2011-03-10 |
Related Child Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US13/981,451 A-371-Of-International US9196057B2 (en) | 2011-03-10 | 2012-03-09 | Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program |
| US14/931,206 Division US9449387B2 (en) | 2011-03-10 | 2015-11-03 | Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2012121368A1 true WO2012121368A1 (ja) | 2012-09-13 |
Family
ID=46798319
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/056109 Ceased WO2012121368A1 (ja) | 2011-03-10 | 2012-03-09 | 医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (2) | US9196057B2 (ja) |
| JP (1) | JP6054043B2 (ja) |
| CN (1) | CN103402434B (ja) |
| WO (1) | WO2012121368A1 (ja) |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6113460B2 (ja) * | 2012-11-09 | 2017-04-12 | 東芝メディカルシステムズ株式会社 | 医用画像処理装置および医用画像診断装置 |
| JP6257913B2 (ja) * | 2013-04-19 | 2018-01-10 | 東芝メディカルシステムズ株式会社 | 医用画像処理装置および医用画像処理プログラム |
| WO2015088277A1 (ko) | 2013-12-12 | 2015-06-18 | 삼성메디슨 주식회사 | 초음파 영상 표시 방법 및 장치 |
| JP2015127680A (ja) | 2013-12-27 | 2015-07-09 | スリーエム イノベイティブ プロパティズ カンパニー | 計測装置、システムおよびプログラム |
| US9741104B2 (en) * | 2015-05-18 | 2017-08-22 | Toshiba Medical Systems Corporation | Apparatus, method, and computer-readable medium for quad reconstruction using hybrid filter convolution and high dynamic range tone-mapping |
| JP6591203B2 (ja) * | 2015-06-01 | 2019-10-16 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置 |
| JP6639935B2 (ja) * | 2016-02-09 | 2020-02-05 | キヤノンメディカルシステムズ株式会社 | 画像処理装置およびmri装置 |
| EP3576601B1 (en) * | 2017-02-01 | 2023-04-19 | University of Utah Research Foundation | Devices for mapping cardiac tissue |
| DE102017210528B4 (de) * | 2017-06-22 | 2025-09-04 | Siemens Healthineers Ag | Visualisierung eines medizintechnischen Objekts |
| JP6907324B2 (ja) * | 2017-08-25 | 2021-07-21 | 富士フイルム株式会社 | 診断支援システム、内視鏡システム及び診断支援方法 |
| JP7536777B2 (ja) * | 2019-09-30 | 2024-08-20 | テルモ株式会社 | 診断支援装置、診断支援システム、及び診断支援方法 |
| US11276250B2 (en) * | 2019-10-23 | 2022-03-15 | International Business Machines Corporation | Recognition for overlapped patterns |
| CA3160940A1 (en) | 2019-12-17 | 2021-06-24 | Nathan J. KNIGHTON | Cardiac tissue characterization using catheterized light scattering spectroscopy |
| JPWO2021200296A1 (ja) * | 2020-03-31 | 2021-10-07 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006110341A (ja) * | 2004-10-11 | 2006-04-27 | General Electric Co <Ge> | 筒状構造に沿って組織種別を解析するための装置及び方法 |
| WO2006118100A1 (ja) * | 2005-04-28 | 2006-11-09 | Hitachi Medical Corporation | 画像表示装置及びプログラム |
| JP2008067991A (ja) * | 2006-09-15 | 2008-03-27 | Toshiba Corp | 画像診断装置、管腔物情報表示装置及び管腔物情報表示方法 |
| JP2009502227A (ja) * | 2005-07-22 | 2009-01-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多色スペクトルによるx線検出器イメージング |
| WO2010047324A1 (ja) * | 2008-10-20 | 2010-04-29 | 株式会社 日立メディコ | 医用画像処理装置、及び医用画像処理方法 |
| JP2010178906A (ja) * | 2009-02-05 | 2010-08-19 | Toshiba Corp | 医用画像処理装置、画像診断装置および医用画像処理プログラム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10317367B4 (de) | 2003-04-15 | 2007-01-11 | Siemens Ag | Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze |
| US7432924B2 (en) | 2003-08-28 | 2008-10-07 | Kabushiki Kaisha Toshiba | 3D digital subtraction angiography image processing apparatus |
| US8175348B2 (en) * | 2007-06-05 | 2012-05-08 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Segmenting colon wall via level set techniques |
| JP5283877B2 (ja) | 2007-09-21 | 2013-09-04 | 株式会社東芝 | 超音波診断装置 |
| JP5624308B2 (ja) | 2008-11-21 | 2014-11-12 | 株式会社東芝 | 画像処理装置及び画像処理方法 |
-
2012
- 2012-03-09 WO PCT/JP2012/056109 patent/WO2012121368A1/ja not_active Ceased
- 2012-03-09 US US13/981,451 patent/US9196057B2/en active Active
- 2012-03-09 JP JP2012052409A patent/JP6054043B2/ja active Active
- 2012-03-09 CN CN201280011423.2A patent/CN103402434B/zh active Active
-
2015
- 2015-11-03 US US14/931,206 patent/US9449387B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006110341A (ja) * | 2004-10-11 | 2006-04-27 | General Electric Co <Ge> | 筒状構造に沿って組織種別を解析するための装置及び方法 |
| WO2006118100A1 (ja) * | 2005-04-28 | 2006-11-09 | Hitachi Medical Corporation | 画像表示装置及びプログラム |
| JP2009502227A (ja) * | 2005-07-22 | 2009-01-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多色スペクトルによるx線検出器イメージング |
| JP2008067991A (ja) * | 2006-09-15 | 2008-03-27 | Toshiba Corp | 画像診断装置、管腔物情報表示装置及び管腔物情報表示方法 |
| WO2010047324A1 (ja) * | 2008-10-20 | 2010-04-29 | 株式会社 日立メディコ | 医用画像処理装置、及び医用画像処理方法 |
| JP2010178906A (ja) * | 2009-02-05 | 2010-08-19 | Toshiba Corp | 医用画像処理装置、画像診断装置および医用画像処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6054043B2 (ja) | 2016-12-27 |
| US9449387B2 (en) | 2016-09-20 |
| US9196057B2 (en) | 2015-11-24 |
| CN103402434B (zh) | 2016-06-08 |
| US20160071267A1 (en) | 2016-03-10 |
| US20130315455A1 (en) | 2013-11-28 |
| CN103402434A (zh) | 2013-11-20 |
| JP2012196437A (ja) | 2012-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6054043B2 (ja) | 医用画像診断装置、医用画像表示装置、医用画像処理装置、及び医用画像処理プログラム | |
| JP5551957B2 (ja) | 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム | |
| JP6395995B2 (ja) | 医療映像処理方法及び装置 | |
| CN103356155B (zh) | 虚拟内窥镜辅助的腔体病灶检查系统 | |
| US9036882B2 (en) | Diagnosis assisting apparatus, diagnosis assisting method, and recording medium having a diagnosis assisting program stored therein | |
| JP6445784B2 (ja) | 画像診断支援装置、その処理方法及びプログラム | |
| JP7132299B2 (ja) | 医用画像処理方法、医用画像処理装置、医用画像処理システム及び医用画像処理プログラム | |
| JP2020522827A (ja) | 外科ナビゲーションにおける拡張現実の使用 | |
| JP2008259696A (ja) | 三次元画像処理装置および方法並びにプログラム | |
| JP4563421B2 (ja) | 画像処理方法及び画像処理プログラム | |
| JP4912389B2 (ja) | 画像表示装置及びプログラム | |
| JP2013165936A (ja) | 情報処理装置 | |
| KR101293744B1 (ko) | 복수의 2차원 영상들과 3차원 모델의 합성을 위한 방법 및 장치 | |
| JP2012187161A (ja) | 画像処理装置、方法、及びプログラム | |
| US7286693B2 (en) | Medical viewing system and image processing method for visualization of folded anatomical portions of object surfaces | |
| JP4350226B2 (ja) | 三次元画像処理装置 | |
| JP6533687B2 (ja) | 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム | |
| CN106028943A (zh) | 超声虚拟内窥成像系统和方法及其装置 | |
| JP2010075549A (ja) | 画像処理装置 | |
| WO2011040015A1 (ja) | 医用画像表示装置および方法ならびにプログラム | |
| JP2006198059A (ja) | 識別方法 | |
| JP6400160B2 (ja) | 情報処理装置 | |
| JP5487339B2 (ja) | 医用画像処理装置 | |
| JP2005261531A (ja) | 医用画像表示方法および装置 | |
| EP4431042A1 (en) | Medical support device, and operation method and operation program of medical support device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12755298 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 13981451 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 12755298 Country of ref document: EP Kind code of ref document: A1 |