[go: up one dir, main page]

WO2008044441A1 - appareil de diagnostic d'images médicales, procédé de mesure d'images médicales et programme de mesure d'images médicales - Google Patents

appareil de diagnostic d'images médicales, procédé de mesure d'images médicales et programme de mesure d'images médicales Download PDF

Info

Publication number
WO2008044441A1
WO2008044441A1 PCT/JP2007/068156 JP2007068156W WO2008044441A1 WO 2008044441 A1 WO2008044441 A1 WO 2008044441A1 JP 2007068156 W JP2007068156 W JP 2007068156W WO 2008044441 A1 WO2008044441 A1 WO 2008044441A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
measurement
measurement position
information
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2007/068156
Other languages
English (en)
French (fr)
Inventor
Tomoaki Chouno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to US12/445,088 priority Critical patent/US20100036248A1/en
Priority to JP2008538614A priority patent/JP4934143B2/ja
Priority to EP07807542.1A priority patent/EP2072013A4/en
Priority to CN200780037719.0A priority patent/CN101522107B/zh
Publication of WO2008044441A1 publication Critical patent/WO2008044441A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0891Clinical applications for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Definitions

  • Medical image diagnostic apparatus medical image measurement method, medical image measurement program
  • the present invention relates to a medical image diagnostic apparatus that performs measurement of a living tissue using an image.
  • a conventional medical image diagnostic apparatus an operator designates a measurement position on an acquired image using an input device such as a mouse or a track ball. Thereafter, the medical image diagnostic apparatus performs measurement calculation and displays the measurement result on the screen.
  • a measurement application is used to specify the measurement position.
  • the measurement application measures the distance, area, and volume between the measurement points.
  • the measurement application calculates a measurement value in the area.
  • the main operation of the operator is to acquire and display a medical image to be measured, and to specify a measurement position in the medical image.
  • This ultrasonic diagnostic apparatus stores a past measurement position of a target patient in a database and stores it in the apparatus.
  • the ultrasound diagnostic device initially sets the target patient ID and the approximate measurement position in the input image.
  • the ultrasonic diagnostic apparatus finds a likely measurement point from the database based on the initial setting and displays the position on the image.
  • a medical image processing apparatus that automatically sets the cross-sectional type and measurement position of a medical image with reference to past medical images and measurement positions has been proposed.
  • a medical image processing apparatus that recognizes which cross-sectional type is a cross-sectional image of the heart using a pattern matching method (see [Patent Document 2]).
  • This medical image processing device holds a cross-sectional image acquired in the past as a dictionary image, performs pattern matching processing between the input image and the dictionary image, and has the most similar! / Information.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2005-224465
  • Patent Document 2 JP 2002-140689 A
  • the specification of the measurement position is complicated in operation, and the burden on the operator who inspects a large number of images every day is large.
  • the measurement position may vary depending on the subjectivity of the operator, and it may be difficult to specify the measurement position depending on the image quality and the degree of measurement experience. The above patent document does not solve the above problem.
  • the conventional medical image processing apparatus is premised on the input of a medical image of an appropriate cross-sectional type, accurate measurement is performed when a medical image other than the measurement target is input. It may not be possible.
  • the medical image other than the measurement target is, for example, an image that does not include the living tissue itself, a medical image with an inappropriate cross-sectional type, or a medical image that deviates from the standard cross-section.
  • the present invention has been made in view of the above problems, and provides a medical image diagnostic apparatus that can reduce an operation burden when performing a measurement process using a medical image. aimed to.
  • the first invention provides an image information acquisition unit that acquires image information of a subject, a display unit that displays the image information acquired by the image information acquisition unit,
  • a medical image diagnostic apparatus comprising measurement calculation means for performing measurement calculation based on image information displayed on the display unit, image information acquired in the past, past measurement position information set for the image information, and Storage means for associating and holding, image selection means for recognizing and selecting past image information most similar to input image information, and past measurement corresponding to past image information selected by the image selection means Based on the position information, a measurement position setting means for setting a measurement position for the input image information, and the measurement position set by the measurement position setting means as the input image information.
  • a medical image diagnostic apparatus characterized by comprising: a measurement position display means for displaying.
  • the medical image diagnostic apparatus of the first invention is based on image information acquired in the past and the image information.
  • the past measurement position information set for the database is stored in a database.
  • the medical image diagnostic apparatus performs image recognition calculation between the input image information and past image information held in the database, and selects past image information most similar to the input image information.
  • the medical image diagnostic apparatus sets a measurement position based on past measurement position information corresponding to the selected past image information, and displays the measurement position superimposed on the input image information.
  • the medical image diagnostic apparatus performs measurement calculation of the biological tissue at the set measurement position and displays the measurement result.
  • the medical image diagnostic apparatus is, for example, an ultrasonic diagnostic apparatus, an X-ray CT diagnostic apparatus, or an MRI diagnostic apparatus.
  • the medical image diagnostic apparatus can search past image measurement information and automatically set a measurement position based on input image information that is not initialized by the operator in advance. .
  • the operation burden on the operator can be reduced.
  • image recognition calculation may be performed between the input image information and all past image information held in the storage means.
  • an optimal measurement position can be set based on all past image information and measurement position information.
  • past image information is classified for each category and representative image information representing the category is stored in a database, and input is performed by first performing image recognition calculation between the input image information and the representative image information.
  • a category of image information may be determined, and then an image recognition calculation may be performed between the input image information and past image information belonging to the determined category. Since image information is classified first and then sub-classified, the recognition rate and processing efficiency are improved.
  • the medical image diagnostic apparatus can recognize the category of the input image information, it can classify and measure the input image information at the same time, and can automatically classify and organize the measurement results. .
  • past measurement condition information is stored in a database in association with past image information, and measurement condition recognition calculation is performed between the input measurement condition information and the past measurement condition information, and the input measurement condition information Recognize and select the past measurement condition that is most similar to, and set the measurement position based on the past measurement position information corresponding to the selected past measurement condition information. You may do it.
  • the measurement conditions are various conditions related to measurement.
  • the measurement conditions are, for example, the initial settings and the measurement timing that can be obtained only with the measurement items, the time-series frame number, the age and sex of the subject, the diagnostic information about the subject, and the classification of the measurement target and the subject.
  • past image measurement information can be searched based on not only input image information but also input measurement conditions, and a measurement position can be automatically set.
  • An accurate measurement position can be set according to input measurement conditions as well as input image information. For example, it is possible to automatically switch and set the measurement position according to the measurement item selected by the operator.
  • the suitability of the set measurement position is evaluated based on the image feature amount of the input image information. If the set measurement position is not appropriate, the set value is set based on the image feature amount of the input image information. It is desirable to correct the measured position!
  • the edge strength may be calculated in the vicinity of the measurement position set in the input image information, and the measurement position set at the position where the calculated edge strength is the maximum may be corrected.
  • the measurement position set based on the displacement between the image information around the measurement position set in the input image information and the image information around the measurement position indicated by the past measurement position information may be corrected.
  • the measurement position can be corrected based on the input image information. If the measurement position after correction is not appropriate, the operator can manually correct the measurement position.
  • a region of interest is set based on the set measurement position, and displayed together with the input image information.
  • the region of interest is automatically set, and the measurement result for the region of interest is displayed. Since not only the measurement points but also the region of interest is automatically set, the operation load can be reduced and the time required for diagnosis can be reduced.
  • a predetermined range of an image part including the measurement position set from the input image information is selected, and the set measurement position is moved by tracking the movement of the image part. May be.
  • the medical image diagnostic apparatus sets a measurement point based on past image information and measurement position information for a frame image at a predetermined time point, and for subsequent frame images! /
  • the measurement point is tracked based on the degree of coincidence of images. Therefore, the measurement position can be automatically set, and the measurement point can be moved according to the movement of the tissue to accurately measure the tissue dynamics (movement of each tissue such as the myocardium). .
  • an image recognition result related to the input image information may be displayed.
  • the force S can be used to confirm the type of the biological tissue site or tomographic image currently displayed on the screen.
  • the amount of information in the database increases, and a learning effect of improving the image recognition rate when image information is newly input next time can be obtained.
  • the luminance information and cross-sectional types of a plurality of cross-sectional images acquired in the past are associated with each other and stored in the storage unit, and the similarity between the input image and the plurality of cross-sectional images stored in the storage unit is determined.
  • Calculate the similarity difference which is the difference between the similarity between the input image and the most similar cross-sectional image, and the similarity between the input image and another cross-sectional image, and calculate the similarity and similarity.
  • An input image rejection determination may be made by performing threshold processing on the degree difference.
  • the input image is an ambiguous plane image similar to two types of standard cross-sectional images
  • the input image is rejected and the operator can re-acquire the cross-sectional type input image necessary for measurement. Prompts and processes quickly and efficiently.
  • a luminance statistic of the input image is calculated and threshold processing is performed, and it is determined whether or not the biological tissue image to be measured has a statistical property peculiar to the input image, and the rejection of the input image is determined. May be.
  • the biological tissue to be measured is drawn! /,! /, And the input image can be rejected.
  • a rejection rate or an erroneous recognition rate may be set in place of the threshold value, and threshold processing may be performed using the threshold value corresponding to the rejection rate or the erroneous recognition rate to determine whether the input image is rejected. Good. In this way, it is possible to adapt to the operation feeling of the operator by using the rejection rate or the misrecognition rate instead of the threshold value.
  • the number and range of cross-sectional types to be classified may be determined based on the set measurement items.
  • the recognition rate can be improved and the operability in the measurement operation can be improved by selecting the necessary number of section types according to the measurement item as the classification target.
  • a second invention is a medical image measurement method for acquiring image information of a subject, displaying the acquired image information, and performing measurement calculation based on the displayed image information.
  • a measurement position setting step for setting a measurement position for the input image information based on past measurement position information corresponding to the past image information selected by the image selection step!
  • a measurement position display step for displaying the measurement position set by the measurement position setting step together with the input image information.
  • a second invention is an invention relating to a medical image measurement method for acquiring image information of a subject, displaying the acquired image information, and performing measurement calculation based on the displayed image information.
  • FIG. 1 Configuration diagram of an ultrasonic diagnostic apparatus 100 2] Diagram showing an aspect of image measurement database 7
  • FIG. 3 is a flowchart showing the operation of the measurement processing setting processing unit 6
  • FIG. 4 is a diagram showing an aspect of the display screen 31 on the display unit 12.
  • FIG. 5 is a diagram showing an aspect of the display screen 34 on the display unit 12.
  • FIG. 7 is a flowchart showing the operation of the measurement processing setting processing unit 6
  • FIG. 9 is a flowchart showing the operation of the measurement processing setting processing unit 6
  • FIG. 10 is a flowchart showing the operation of the measurement position correction unit 10
  • FIG. 11 A view showing one aspect of the display screen 51 in the measurement position correction processing.
  • FIG. 12 A view showing one aspect of the display screen 51 in the measurement position correction processing.
  • FIG. 13 Diagram showing setting of region of interest 79 in ultrasound image 61
  • FIG. 16 is a diagram showing one mode of records held in the image luminance database 171.
  • FIG. 17 is a flowchart showing rejection processing based on image brightness statistics of an input image.
  • FIG. 18 is a diagram showing a screen 228 and an ultrasonic image 229 displayed on the display unit 12.
  • FIG. 19 is a flowchart showing rejection processing based on similarity
  • FIG. 20 is a diagram showing the similarity between the input image 220 and the standard cross-sectional image for each cross-sectional type.
  • FIG. 21 is a flowchart showing rejection processing based on similarity difference
  • FIG. 22 is a diagram showing the similarity between the input image 220 and the standard cross-sectional image for each cross-sectional type.
  • FIG. 23 is a diagram showing an aspect of screen 250 displayed on display unit 12.
  • FIG. 24 is a diagram showing screen 260 and screen 264 on display unit 12.
  • FIG. 25 is a flowchart showing rejection processing based on similarity.
  • the medical image diagnostic apparatus of the present invention can be applied to an ultrasonic diagnostic apparatus, an X-ray CT diagnostic apparatus, an MRI diagnostic apparatus, and a system combining these.
  • an ultrasonic diagnostic apparatus as a medical image diagnostic apparatus, measurement based on a cross-sectional image of the heart will be described.
  • the present invention can also be applied to biological tissues other than the heart. It can also be applied to images other than cross-sectional images.
  • FIG. 1 is a configuration diagram of the ultrasonic diagnostic apparatus 100.
  • the ultrasonic diagnostic apparatus 100 includes an ultrasonic probe 1 that transmits and receives ultrasonic waves, an image generation unit 2 that generates an image from an ultrasonic signal, and a storage unit 3 that is a storage area for storing the image.
  • the operator 4 operates the device using an input device, the measurement item setting unit 5 sets the measurement items, the measurement position setting processing unit 6 automatically sets the measurement position, and the measurement position.
  • a measurement calculation unit 11 that performs measurement calculation using a display, a display unit 12 that displays measurement positions and measurement results, and a tracking unit 14 are provided.
  • the measurement position setting processing unit 6 uses the image measurement database 7 including at least the past image information, the measurement position, and the image information around the measurement position, and the input image information and the image measurement database 7 to generate an image. Perform recognition processing! / Image selection unit 8 that selects an image, measurement position setting unit 9 that sets the measurement position corresponding to the recognized image, and the position specified by the measurement position setting unit 9 is evaluated and corrected A measurement position correction unit 10 and a measurement condition selection unit 13 for selecting a measurement condition by performing measurement condition recognition processing using the input measurement condition and the image measurement database 7 are provided.
  • the ultrasonic probe 1 is a device that transmits and receives ultrasonic waves to and from a subject.
  • the ultrasonic probe 1 has a sector type, a linear type, a convex type or the like.
  • the ultrasonic probe 1 receives reflected ultrasonic waves from the subject, converts them to electrical signals, and inputs them to the image generation unit 2
  • the image generation unit 2 is a device that generates a B-mode image based on an input signal from the ultrasonic probe 1.
  • the input signal is converted into a B-mode image through a phasing adder, logarithmic amplifier, envelope detector, A / D converter, and scan converter.
  • the storage unit 3 is a device that stores acquired images.
  • the storage unit 3 is, for example, a hard disk, a general-purpose memory, a frame memory, or a cine memory.
  • the operation unit 4 is an input device such as a keyboard, a mouse, and a trackball.
  • the operator uses the operation unit 4 to perform image quality adjustment, measurement instructions, and information input.
  • the measurement item setting unit 5 is a device that selects a measurement item desired by the operator.
  • the measurement items are, for example, the distance, volume, myocardial wall thickness, and doppler of a specific part.
  • the measurement position setting processing unit 6 is an apparatus that sets the measurement position by performing image recognition processing between the input image information and the database.
  • the image measurement database 7 is a set of records having past measurement position information, image information, and image information around the measurement position. In order to reduce the data capacity, the data may be compressed and stored.
  • the image measurement database 7 stores measurement condition information in association with each other. The measurement condition information will be described later.
  • the image selection unit 8 is an apparatus that performs image recognition calculation of input image information using the image measurement database 7.
  • the image selection unit 8 performs image recognition calculation, and selects image information that is closest to the input image information from the image measurement database 7. Note that pattern matching calculation such as correlation calculation can be used as the image recognition calculation.
  • the measurement condition selection unit 13 is a device that performs measurement condition recognition calculation of input measurement conditions using the image measurement database 7.
  • the measurement condition selection unit 13 performs measurement condition recognition calculation, and selects measurement condition information closest to the input measurement condition from the image measurement database 7.
  • the measurement position setting unit 9 is a device that sets a measurement position based on measurement position information included in a record of image information selected from the image measurement database 7. It is desirable that the measurement position setting unit 9 sets only the information necessary for the measurement item specified by the measurement item setting unit 5 to set the measurement position! /.
  • the measurement position correction unit 10 is a device that corrects the measurement position set by the measurement position setting unit 9.
  • the measurement position correction unit 10 evaluates the measurement position and determines whether or not the set measurement position is appropriate.
  • the measurement position correction unit 10 corrects the measurement position if the set measurement position is not an appropriate measurement position!
  • the edge strength can be used as the evaluation amount.
  • an edge detection method can be used for correction of misalignment. Further, the correction can be made using the displacement between the image information around the measurement position indicated by the measurement position information in the image measurement database 7 and the image information around the set measurement position. You can also manually correct the measurement position via the input device.
  • the measurement calculation unit 11 is a device that performs various measurements using a set measurement position.
  • the measurement performed by the measurement calculation unit 11 includes, for example, calculation of distance and volume, measurement by Doppler method, stress echo, construction of temporal luminance curve in contrast agent mode, strain measurement, and the like.
  • the display unit 12 is a display device such as a CRT display or a liquid crystal display.
  • the display unit 1 2 displays the measurement position set on the input image in a superimposed manner, displays the recognition result, and displays the measurement calculation result.
  • the tracking unit 14 is a device that tracks the movement of the living tissue of the moving image displayed on the display unit 12. is there.
  • FIG. 2 is a diagram showing an aspect of the image measurement database 7.
  • the image measurement database 7 holds a plurality of records of image measurement information 22.
  • the image measurement information 22 is information related to images and measurement positions used for measurement in the past.
  • measurement position information 23, image information 24, and measurement condition information 25 are associated with a single measurement and held as one record.
  • the image measurement information 22 is held in association with the image information 26 around the measurement position indicated by the measurement position information 23.
  • the measurement position information 23 is information relating to the measurement position, and is, for example, a coordinate value indicating a measurement point or a contour point group of a measurement region.
  • the measurement position information 23 will be described with reference to FIG. 4 in which an image 32 and measurement points 33 are superimposed on the display screen 31 of the display unit 12.
  • a plurality of measurement points 33 are set along the heart wall.
  • the plurality of measurement points 33 is a contour point group of the measurement region described above.
  • the coordinate values indicated by the coordinates (XI, Y1), coordinates (X2, Y2) of the measurement points 33 are held in the image measurement database 7 as measurement position information 23, respectively.
  • the coordinate values indicated by the force r- ⁇ coordinates in the X-Y coordinates and the coordinate values indicated in the image measurement database 7 are measured position information 23 of the plurality of measurement points 33, respectively. Is held in the first 7! /, Even! /.
  • the image information 26 around the measurement position is image information related to the periphery of the measurement position indicated by the measurement position information 23.
  • the measurement position information 26 is, for example, a luminance value around the measurement point or a luminance value around the contour point group in the measurement area.
  • the luminance value around the measurement point is the luminance value of a rectangular area created from 1 cm to 2 cm in length and width around the measurement point. This area may be an elliptical area or a circular area.
  • the image information 24 is information related to the image 32 in FIG. 4, for example, the luminance value of the image 32 itself.
  • the luminance value is code-compressed. In the image 32 used for the past measurement, the luminance value is distributed for each coordinate (X, Y). The coordinate value is made to correspond to the luminance value, and the luminance value of the entire image 32 is held in the image measurement database 7 as the image information 24.
  • the code-compressed luminance value is, for example, the luminance value of each scanning line, a luminance value compressed by arbitrarily selecting one of the two pixels.
  • the amount of data can be further reduced by performing principal component analysis on the entire image 32 or the luminance values compressed above and storing only the principal component values that characterize the properties of the luminance values.
  • the coordinate value and the luminance value are held in the image measurement database 7 in the XY coordinates, but the coordinate value and the luminance value are held in the image measurement database 7 in the coordinate value indicated by the r ⁇ coordinate. May be.
  • the measurement condition information 25 is information related to the measurement environment and the measurement target.
  • the measurement condition information 25 is, for example, initial setting, measurement item, measurement timing, time-series frame number, age and sex of the subject, diagnostic information about the subject, and classification of the measurement target and subject.
  • FIG. 3 is a flowchart showing the operation of the measurement process setting processing unit 6.
  • the ultrasonic diagnostic apparatus 100 acquires the input image information 21 that is the image data of the subject and stores it in the storage unit 3.
  • image data generated by the image generation unit 2 using the ultrasonic probe 1 may be input, or image data generated by a different medical image diagnostic apparatus may be input. Good (S1001).
  • the image selection unit 8 performs image recognition calculation between the input image information 21 and the image information 24 of the image measurement database 7 (S1002).
  • image recognition calculation pattern matching calculation such as correlation calculation can be used.
  • the image selection unit 8 correlates a plurality of pieces of image information 24 in which coordinate values and luminance values are stored in correspondence with input image information 21 (correlation calculation, similarity calculation, etc.). A value is calculated, and it is determined whether or not the correlation value is larger than a predetermined threshold value.
  • the image selection unit 8 determines the success or failure of the image recognition calculation (S 1003).
  • the image selection unit 8 has a recognition calculation result (for example, a correlation coefficient or similarity) that exceeds a predetermined threshold. In this case, the image recognition is successful, and when the predetermined threshold is not exceeded, the image recognition is failed. Then, the image selection unit 8 selects the past image information 24 most similar to the input image information 21.
  • the measurement position setting unit 9 records one record (measurement position information 23 and image) having the image information 24 most similar to the input image information 21. Information 24, measurement condition information 25, and image information 26 around the measurement position are associated with each other). The measurement position setting unit 9 extracts and sets the measurement position information 23 held by the record of the image measurement information 22.
  • the measurement position setting unit 9 takes out information corresponding to a predetermined measurement item from the measurement position information 23.
  • the measurement items include, for example, four chambers, two chambers, a long axis, a base short axis, a middle short axis, and a cusp short axis.
  • measurement position information 23 (coordinate values indicating the measurement point and the contour point group of the measurement area) is predetermined.
  • the measurement position information 23 is determined so that the measurement points are arranged in a U-shape projecting upward near the center of the image 32.
  • the measurement position information 23 is determined so that the measurement points are arranged in a circle near the center of the image 32 on the short axis of the apex.
  • the operator operates the measurement item setting unit 5 to select a measurement item, and retrieves the measurement position information 23 corresponding to the measurement item by reading the measurement position information 23 stored corresponding to the measurement item. be able to.
  • the measurement position correction unit 10 corrects the measurement position information 23 extracted by the measurement position setting unit 9 based on the input image information 21 (S1004). The details of the measurement position correction process will be described later.
  • the measurement position setting processing unit 6 sets the measurement position based on the corrected measurement position information 23.
  • the measurement position setting processing unit 6 superimposes the measurement position on the input image information 21 and displays it on the display unit 12 (S1005).
  • the measurement position setting processing unit 6 preferably performs initial setting based on the measurement condition information 25 of the image measurement information 22! /.
  • the measurement calculation unit 11 performs measurement calculation for the measurement position set by the measurement position setting unit 9, and displays the measurement result on the display unit 12 (S1006).
  • the measurement position setting processing unit 6 is used for the measurement set by the input image information 21 and the measurement position setting unit 9.
  • the image measurement database 7 is updated based on the position and the like (S 1007).
  • the measurement position setting processing unit 6 displays the image recognition result on the display unit 12.
  • the image recognition result for example, it is displayed on the current screen
  • V the biological tissue site and the type of tomographic image are displayed.
  • the measurement position setting processing unit 6 warns the operator to re-acquire the input image information 21 (S1011).
  • the warning can be given by display on the display unit 12 or by voice.
  • the measurement position setting processing unit 6 automatically performs S 1
  • the processing from 001 may be repeated.
  • FIG. 4 is a diagram showing an aspect of the display screen 31 on the display unit 12.
  • the image 32 is an image based on the input image information 21.
  • Image 32 is a tomographic image of the heart.
  • the measurement point 33 is a point indicating the measurement position. The position of the measurement point 33 is set based on the corrected measurement position information 23.
  • FIG. 5 is a diagram showing an aspect of the display screen 34 on the display unit 12.
  • the measurement position setting processing unit 6 performs one-to-one image recognition calculation using the image measurement information 22 of the database 7 using the input image information 21 as a key.
  • the measurement position setting processing unit 6 searches the image measurement database 7 for the image measurement information 22 of the image information 24 most similar to the input image information 21.
  • the measurement position setting processing unit 6 sets the measurement position in the input image information 21 based on the past measurement position information 23 included in the searched record of the image measurement information 22.
  • the ultrasonic diagnostic apparatus searches past image measurement information based on input image information that is not initialized by the operator in advance, and determines a measurement position. Can be set automatically. Depending on the measurement item selected by the operator It is possible to automatically switch to the measurement position. Furthermore, the ultrasonic diagnostic apparatus can update the measurement position in real time according to the operation of the ultrasonic probe 1 by the operator by speeding up the image recognition calculation.
  • the ultrasonic diagnostic apparatus creates a database of past measurement position information and image information (for example, luminance information) regardless of the target patient, and holds it in a storage device.
  • the ultrasound diagnostic apparatus performs initial setting by using image recognition processing with image information in the database using input image information that does not use patient ID or rough measurement position as a key.
  • the measurement position can be set without any change.
  • FIG. 6 is a diagram showing an aspect of the image measurement database 7.
  • the image measurement database 7 holds a plurality of classified image measurement databases 41 1, 41-2,. Each classification image measurement database 41 1, 41 -2,... Holds a record of representative image information 42 and a plurality of image measurement information 22.
  • the classified image measurement database 41 1, 41 -2,... Is a database that holds the image measurement information 22 by classifying it into predetermined categories.
  • the predetermined category is a category related to the subject and the measurement target.
  • the predetermined category includes, for example, measurement items (“long axis”, “short axis”, “two chambers”, “four chambers”, etc.) of the tomogram of the heart, the age and sex of the subject, and the type of disease.
  • the predetermined category is held in the field of the measurement condition information 25 of the image measurement information 22.
  • the classified image measurement database 411 holds image measurement information 22 classified into “long axis” images.
  • the representative image information 42 is image information representing each predetermined category.
  • the representative image information 42 is created based on the image measurement information 22 held by each of the classified image measurement databases 41-1, 41-2,.
  • FIG. 7 is a flowchart showing the operation of the measurement processing setting processing unit 6.
  • the ultrasonic diagnostic apparatus 100 acquires the input image information 21 that is the image data of the subject and stores it in the storage unit 3 (S2001).
  • the image selection unit 8 includes input image information 21 and a classification image measurement database 41 1, 41 2,
  • Image recognition calculation is performed between the representative image information 42-1, 42-2, ... (S2002).
  • image recognition calculation pattern matching calculation such as correlation calculation can be used.
  • the image selection unit 8 determines whether the image recognition calculation is successful (S2003).
  • the image selection unit 8 classifies the input image information 21 into a category to which the representative image information 42 that is most similar to the input image information 21 belongs.
  • the input image information 21 is held in the classified image measurement database 41 determined in the processes of S2002 to S2003. Further, based on the input image information 21 and the existing image information 24, new representative image information 42 may be created and held in the classified image measurement database 41.
  • the measurement position setting processing unit 6 first determines the category by performing image recognition calculation between the input image information 21 and the representative image information 42 representing the category. Next, the measurement position setting processing unit 6 performs image recognition calculation on a one-to-one basis using the image measurement information 22 of the category image measurement database 41 of the category using the input image information 21 as a key. In addition, each category may be further classified into a plurality of categories, and three or more stages of processing may be performed.
  • the ultrasonic diagnostic apparatus performs the large classification first on the input image information and then performs the small classification, so that the recognition rate and the processing efficiency are improved.
  • the ultrasonic diagnostic apparatus can recognize the category of the input image information, Input image information can be classified and measured at the same time, and measurement results can be automatically classified and organized.
  • the measurement condition recognition calculation is performed between the input measurement condition 43 and the measurement condition information 25 in the image measurement database 7.
  • FIG. 8 is a diagram showing an aspect of the image measurement database 7.
  • the image measurement database 7 in the third embodiment is the same as the image measurement database 7 in the first embodiment.
  • recognition calculation is performed between the input image information 21 and the input measurement condition 43 and each record of the image measurement information 22.
  • FIG. 9 is a flowchart showing the operation of the measurement process setting processing unit 6.
  • the processing of S300 ;! to S3003 is the same as the processing of S100 ;! to S1003 in FIG. If the image recognition is successful (Yes in S1003), the ultrasonic diagnostic apparatus 100 acquires the input measurement condition 43 and holds it in the storage unit 3 (S3004).
  • the measurement conditions are various conditions related to measurement.
  • the measurement conditions include, for example, measurement timing based on only initial settings and measurement items, time-series frame numbers, age and sex of the subject, diagnostic information about the subject, and classification of the measurement target and subject.
  • information input by the operator using the operation unit 4 or the measurement item setting unit 5 may be acquired.
  • the measurement condition selection unit 13 performs measurement condition recognition calculation between the input measurement condition 43 and the measurement condition information 25 in the image measurement database 7 (S3005). Specifically, priorities are given to initial settings, measurement items, measurement timing, time-series frame numbers, subject age and gender, diagnosis information about the subject, measurement target, subject classification, etc. The measurement condition selection unit 13 compares in order of priority. Then, the measurement condition selection unit 13 The comparison is performed in order, and if the measurement condition information 25 in the image measurement database 7 and the input measurement condition 43 do not match, the measurement condition recognition calculation ends. The measurement condition selection unit 13 determines whether the measurement condition recognition calculation is successful (S3006).
  • the measurement position setting unit 9 When the measurement condition recognition is successful (Yes in S3006), the measurement position setting unit 9 has many items that most closely match the input image information 21, that is, has the most similar image information 24, and the input measurement condition 43 The record of image measurement information 22 having the most similar measurement condition information 25 is selected. The measurement position setting unit 9 extracts and sets the measurement position information 23 held by the record of the image measurement information 22.
  • the measurement position setting processing unit 6 performs image recognition calculation and measurement condition recognition calculation using the image measurement information 22 of the database 7 using the input image information 21 and the input measurement condition 43 as keys. Do.
  • the measurement position setting processing unit 6 searches the image measurement database 7 for image measurement information 22 having image information 24 most similar to the input image information 21 and having measurement condition information 25 most similar to the input measurement condition 43. To do.
  • the measurement position setting processing unit 6 sets the measurement position in the input image information 21 based on the past measurement position information 23 included in the searched record of the image measurement information 22.
  • the ultrasonic diagnostic apparatus searches past image measurement information based on the input measurement conditions as well as the input image information, and automatically determines the measurement position. Can be set automatically. Accurate measurement positions can be set according to input measurement conditions as well as input image information.
  • the fourth embodiment relates to measurement position correction (S1004 in FIG. 3, S2006 in FIG. 7, S3007 in FIG. 9).
  • measurement position correction S1004 in FIG. 3, S2006 in FIG. 7, S3007 in FIG. 9.
  • an image similar to the input image information 21 is used. If the information 24 exists in the database 7, the measurement position can be set with high accuracy. However, if image information 24 similar to input image information 21 does not exist in database 7, There are cases where the measurement position cannot be set with high accuracy. Therefore, it is desirable to perform measurement position correction processing.
  • FIG. 10 is a flowchart showing the operation of the measurement position correction unit 10.
  • the measurement position correction unit 10 evaluates the suitability of the measurement position. If the measurement position is not correct! /, The measurement position correction unit 10 automatically corrects the measurement position using the image feature amount (S4001). The measurement position correction unit 10 displays the measurement position after the automatic correction on the display unit 12 (S4002). Note that the measurement position before automatic correction may be displayed together on the display unit 12.
  • the measurement position correction unit 10 displays the measurement position after manual correction on the display unit 12 (S4005).
  • FIG. 11 is a diagram showing an aspect of the display screen 51 in the measurement position correction process.
  • the image 52, the measurement point 54 before correction, and the measurement point 55 are superimposed and displayed.
  • the measurement point 54 is generally set on the contour of the left ventricular membrane 53.
  • the measurement point 55 is displayed at a position away from the contour of the left ventricular membrane 53.
  • the image 52 and the corrected measurement point 56 are displayed in a superimposed manner.
  • the corrected measurement point 56 is a measurement point whose measurement position is corrected with respect to the measurement point 55 before correction.
  • the corrected measurement point 56 is displayed on the contour of the left ventricle 53.
  • the measurement position correcting unit 10 evaluates the suitability of the measurement position for all the measurement points.
  • the measurement position correcting unit 10 since measurement points are placed on the left ventricle 53, it is desirable to calculate image feature values as edge strengths for evaluation of measurement positions.
  • the measurement position correction unit 10 corrects the measurement point 55 to the measurement point 56 so that the edge strength is increased. For measurement position correction, the edge strength near measurement point 55 is calculated. The position of maximum intensity can be searched and the measurement point 56 can be calculated.
  • the image feature amount it is desirable to change the image feature amount appropriately according to the arrangement position of the measurement point and the arrangement target. If the measurement position after automatic correction is not appropriate, the operator can manually correct the measurement position by operating an input device such as a mouse.
  • the measurement position correcting unit 10 uses measurement position information 23 in the record of the image measurement database 7 and image information 26 around the measurement position indicated by the measurement position information 23.
  • the measurement position indicated by the measurement position information 23 is the measurement point 27. is there.
  • the image measurement information 22 and the input image information 21 are compared, there may be a deviation between the image information 26 around the measurement point 27 and the image information 28 around the measurement point 57.
  • the coordinates of the measurement point 57 in the input image information 21 are set at the same position as the coordinates of the measurement point 27 in the image measurement information 22.
  • the image information 26 around the measurement point 27 and the image information 28 around the measurement point 57 are quadrangular, but the shape is not limited.
  • the displacement of this deviation is calculated.
  • a method for calculating the displacement for example, an image correlation process such as a block matching method can be used. After calculating the displacement of the displacement by performing image correlation processing between the image information 26 around measurement point 27 and the image information 28 around measurement point 57, the first measurement point 57 is moved by the amount of displacement. And correct to the correct measurement point 58.
  • the similarity between the image information 26 around the measurement point 27 and the image information 28 around the measurement point 57 is calculated, and this is used as the image energy (M. Kass et ai. Snakes : Active Contour Models, Internationa Journal of Computer Vision, 321—331, 1988).
  • the measurement point is v (s)
  • the image energy E has the similarity and edge.
  • contour correction processing using an Active Shape Model or Active Appearance Model can be performed.
  • the input image can be corrected based on the information. Also, if the corrected measurement position is correct! /, The operator can manually correct the measurement position.
  • the measurement point is set and displayed as the measurement position.
  • the region of interest is set and displayed based on the measurement point. .
  • FIG. 13 is a diagram showing the setting of the region of interest 79 in the ultrasound image 61.
  • a carotid artery 62 is displayed in the ultrasonic image 61.
  • the carotid artery 62 is a blood vessel through which blood flows in the direction of the arrow 65.
  • the wall surface 63 and the wall surface 64 of the carotid artery 62 are portions where an edge is clearly depicted on the ultrasonic image 61.
  • the measurement position setting unit 9 uses the measurement points 71 to 7 on the ultrasound image 61 of the carotid artery 62 based on the past carotid artery image information and measurement point information held in the image measurement database 7. Place 8.
  • the measurement position setting processing unit 6 connects the measurement point 71, the measurement point 74, the measurement point 78, and the measurement point 75 at the corner to set the region of interest 79.
  • the frame of the region of interest 79 is displayed on the display unit 12 with a broken line, for example.
  • the measurement calculation unit 11 performs a predetermined measurement calculation for the set region of interest 79 and displays the measurement result on the display unit 12. For example, the measurement calculation unit 11 performs a Doppler calculation on the region of interest 79 and performs a CFM (color flow mapping) process to display a blood flow image in color.
  • CFM color flow mapping
  • the measurement position setting processing unit 6 sets a rectangular region of interest 79 by connecting the measurement points 71 and 74, the measurement points 78, and 75 at the corners. It is not limited to.
  • the region of interest may be set by connecting all the measurement points 71 to 78. Alternatively, only the measurement point 72, the measurement point 73, the measurement point 76, and the measurement point 77, which are measurement points other than the corners, may be selected to partially set the region of interest.
  • the operation of the operation unit 4 such as a trackball is performed.
  • the region of interest 79 is automatically set without performing the steps, and a blood flow image, for example, is displayed in the set region of interest 79.
  • the operation of the operation unit 4 such as the trackball is not required, the time required for diagnosis using the ultrasonic diagnostic imaging apparatus can be shortened.
  • unnecessary CFM processing outside the blood vessel is eliminated, so that an ultrasonic image without greatly deteriorating the frame rate can be displayed.
  • the sixth embodiment relates to measurement of tissue dynamics, which is the movement of each tissue such as the myocardium.
  • FIG. 14 is a diagram illustrating tracking of measurement points in an ultrasound image.
  • the measurement position setting processing unit 9 sends a frame at a predetermined time point from the storage unit 3.
  • the image is read out and the ultrasonic image 81 is displayed on the display unit 12.
  • the ultrasound image 81 includes an image of the myocardium 82.
  • the measurement position setting unit 9 arranges the measurement points 84 on the ultrasonic image 81 of the myocardium 82 based on the past myocardial image information and measurement point information held in the image measurement database 7.
  • the measurement point 84 is disposed along the left ventricular membrane 83 of the myocardium 82.
  • the tracking unit 14 sets a cutout image 85 in a predetermined range including the measurement point 84.
  • the tracking unit 14 reads the next frame image from the storage unit 3 and displays the ultrasonic image 86 on the display unit 12.
  • the ultrasound image 86 includes an image of the myocardium 87.
  • Myocardium 82 becomes myocardium 87 due to the movement of the tissue.
  • the left ventricular membrane 83 of the myocardium 82 expands to the left ventricular membrane 88 of the myocardium 87.
  • the tracking unit 14 sequentially extracts local images 89-1, 89-2,... Having the same size as the cut-out image 85 in the ultrasonic image 86.
  • the tracking unit 14 calculates the degree of coincidence between the local images 89-1, 89-2,.
  • image correlation processing such as a block matching method can be used for calculating the degree of coincidence of images.
  • the tracking unit 14 selects the position of the local image 89 having the highest image matching degree (local image 89-4 in FIG. 14 (c)).
  • the tracking unit 14 calculates the position of the selected local image 89 as the measurement point 91 after movement.
  • the tracking unit 14 displays the measurement point 91 superimposed on the myocardium 87 of the ultrasonic image 86.
  • the measurement point 91 is arranged along the left ventricle 88 that is enlarged from the left ventricle 83.
  • the ultrasonic diagnostic apparatus uses a frame image at a predetermined time, and based on past image information and measurement position information. Measurement points are set, and for the subsequent frame images, the measurement points are tracked based on the degree of coincidence of the images. Therefore, the measurement position can be automatically set, and the measurement of the tissue dynamics can be accurately performed by moving the measurement point in accordance with the movement of the tissue.
  • the same processing as in the first to fourth embodiments may be performed on each frame image whose time series changes. That is, the measurement position setting processing unit 6 may set measurement points for each frame based on past myocardial image information and past measurement point information. [0086] (8. Others)
  • Each of the above embodiments can be applied to images displayed in real time, images stored in a cine memory, images stored in a storage device in a moving image file format (for example, AVI format), and the like.
  • a moving image file format for example, AVI format
  • the measurement position is set according to the ECG (Electrocardiogram) time phase once or multiple times per heartbeat, when the freeze button on the operation unit is pressed and when image acquisition is temporarily stopped, after freezing, in the cine memory.
  • the timing can be selected by the user from the saved frame group, the timing selected by the user from the frame group saved in the moving image file in the storage device, or the like. In this case, it is desirable to store the image information in accordance with the timing in a database.
  • the temporal change in luminance of a certain tissue is analyzed by TIC (Time Intensity Curve).
  • TIC Time Intensity Curve
  • the database is used to store the window for Dobler measurement and the measurement area for strain measurement, these measurements can be automated as well.
  • FIG. 15 is a configuration diagram of the ultrasonic diagnostic apparatus 150.
  • the ultrasonic diagnostic apparatus 150 includes an ultrasonic probe 1 that transmits and receives ultrasonic waves, an image generation unit 2 that generates an image from an ultrasonic signal, a storage unit 3 that is a storage area for storing the image, and an operator
  • An operation unit 4 for operating the apparatus using an input device, a measurement item setting unit 5 for setting measurement items, an image luminance extraction unit 160 for extracting luminance values from an image, a cross-section recognition processing unit 170, Rejection processing unit 180, measurement position setting processing unit 6 that sets the measurement position, measurement calculation unit 11 that performs measurement calculation based on the set measurement position, and display unit 12 that displays the measurement position and measurement result .
  • the description is omitted because it is similar.
  • the image luminance extraction unit 160 is a device that extracts the luminance value in the range where the heart is drawn in the image.
  • the cross-section recognition processing unit 170 is a device that recognizes the cross-sectional type of the input image using the luminance value pattern obtained by the image luminance extraction unit 160.
  • the input image is an image input from among images acquired by the ultrasonic probe 1 and the image generation unit 2. Note that an image stored in the storage unit 3 can also be used as an input image.
  • the cross-section recognition processing unit 170 includes an image luminance database 171, a similarity calculation unit 172, and a cross-section type determination unit 173.
  • the image luminance database 171 is a device that stores the luminance values and cross-sectional types of standard cross-sectional images in a database.
  • the image brightness database 171 will be described later.
  • the similarity calculation unit 172 is a device that calculates the similarity between the luminance value obtained by the image luminance extraction unit 160 and the luminance value of the standard cross-sectional image in the image luminance database 171 for each cross-sectional type. The calculation result of the similarity is displayed as a scalar or a vector.
  • the cross-section type determination unit 173 is an apparatus that determines the cross-section type that is most similar by comparing the similarities for the respective cross-section types calculated by the similarity calculation unit 172.
  • Rejection processing unit 180 is a device that rejects an input image based on the similarity and the like obtained by similarity calculation unit 172.
  • Rejection processing unit 180 includes image brightness statistic calculation unit 181, similarity difference calculation unit 182, threshold setting unit 183, and rejection determination unit 184.
  • the image brightness statistic calculation unit 181 is a device that calculates the statistic of the brightness value obtained by the image brightness extraction unit 160.
  • Statistics are, for example, standard statistics (eg, mean or variance) and second order texture statistics.
  • the similarity difference calculation unit 182 calculates, for the similarity calculated by the similarity calculation unit 172, the difference between the similarity of the most similar standard cross-sectional image and the similarity of the next similar standard cross-sectional image. It is a device to calculate. Using this similarity difference, it is determined whether or not the cross-sectional type of the input image is V, Ma! /.
  • the threshold setting unit 183 is a device that sets a threshold for performing rejection processing.
  • the threshold value setting unit 183 performs the image luminance statistic obtained by the image luminance statistic calculating unit 181, the similarity obtained by the similarity calculating unit 172, and the similarity difference obtained by the similarity difference calculating unit 182, respectively.
  • Set the threshold The default value may be set as a threshold value, or the operator may set it individually via an input device.
  • Rejection determination unit 184 sets threshold value setting unit 183 for the statistics obtained by image luminance statistics calculation unit 181, the similarity obtained by similarity calculation unit 172, and the similarity difference obtained by similarity difference calculation unit 182. This is a device that performs threshold processing using the determined threshold and determines whether or not to reject the input image.
  • the display unit 12 displays, for example, the result of the cross-section type determination unit 173 and the result of the rejection determination unit 184, a graph indicating the cross-section type, the similarity and the similarity, and a warning of rejection and input image reacquisition. indicate.
  • the operator can manually set the cross-sectional type via the operation unit 4.
  • FIG. 16 is a diagram showing an aspect of the record held in the image luminance database 171.
  • the image luminance database 171 holds information related to the standard cross-sectional image for each cross-sectional type. To do.
  • the information regarding the standard cross-sectional image is the brightness value and image data that has been subjected to a predetermined process.
  • the predetermined processing is, for example, feature extraction processing or code compression processing by pattern recognition processing such as a subspace method.
  • the image brightness database 171 may store images acquired in the past in a database.
  • An image luminance database 171 shown in FIG. 16 holds a cross-sectional type 221, standard cross-sectional image information 222, a measurement item 223, and a measurement position 224 in association with each other.
  • the cross-sectional type 221 indicates the type of image.
  • the cross-sectional type 221 is, for example, “long axis”, “short axis”, “two chambers”, “four chambers”.
  • the standard cross-sectional image information 222 indicates information (luminance value and the like) regarding the standard cross-sectional image belonging to the cross-sectional type 221.
  • a measurement item 223 indicates a measurement item corresponding to the section type 221.
  • the measurement position 224 is information regarding the measurement position.
  • the measurement position 224 is, for example, a coordinate value indicating a measurement point, a measurement region, or a contour point group indicating the measurement region.
  • FIG. 17 is a flowchart showing rejection processing based on the image brightness statistics of the input image.
  • the ultrasonic diagnostic apparatus 150 acquires the input image 220 that is image data of the subject and holds it in the storage unit 3. Regarding the input image 220, image data generated by the image generation unit 2 using the ultrasonic probe 1 may be input, or image data generated by a different medical image diagnostic apparatus may be input. Alternatively, image data acquired in the past and stored in the storage unit 3 such as a node disk may be input.
  • FIG. 18 is a diagram showing a screen 228 and an ultrasonic image 229 displayed on the display unit 12.
  • the image luminance extraction unit 160 extracts the luminance value of the input image 220 (S5001). Note that the image luminance extraction unit 160 may extract the luminance value of the entire probe viewing angle in the ultrasonic image 229 of FIG. 18, or may extract a partial luminance value of the ultrasonic image 229. Good.
  • the image brightness statistic calculation unit 181 calculates the statistic of the brightness value of the input image 220 extracted in the process of S 5001 (S 5002).
  • the statistics are standard statistics (for example, mean, variance, skewness, kurtosis) and secondary texture statistics (for example, features of density co-occurrence matrix).
  • An ultrasound image of the heart is an image in which the luminance probability distributions of the heart chamber, the myocardium, and other regions are mixed.
  • the image brightness statistic of the ultrasound image of the heart shows a characteristic value.
  • the threshold value setting unit 183 sets a threshold value for the image brightness statistic of the input image 220 (S5003).
  • Rejection determination unit 184 performs threshold processing to determine whether or not an ultrasound image of the heart is drawn on input image 220! / (S5004).
  • the rejection determination unit 184 determines that an ultrasound image of the heart is not drawn on the input image 220 (No in S5004), the display unit 12 indicates that the input image 220 has been rejected as a cross-sectional recognition result. And prompts the operator to reacquire the input image 220 (S5005).
  • rejection determination unit 184 determines that an ultrasound image of the heart is drawn on input image 220 (Yes in S5004), the process proceeds to the processing in FIG.
  • the ultrasound diagnostic apparatus 150 extracts the luminance value of the input image 220, calculates the image luminance statistic of the input image 220, and calculates the image luminance statistic based on the threshold value of the image luminance statistic. Then, it is determined whether or not an ultrasound image of the heart is drawn on the input image 220. If it is determined that the ultrasound image of the heart is not drawn on the input image 220, the input image 220 is rejected. The operator is urged to reacquire the input image 220.
  • the operator may input a threshold value using an input device, or may use a preset initial value as the threshold value.
  • the rejection rate and the misrecognition rate change by changing the threshold value.
  • the rejection rate is high, the error recognition rate is low, and the operability deteriorates because the cross-sectional type is not recognized for images that deviate from the standard cross-sectional image.
  • the rejection rate is low, the cross-sectional type is recognized even if the image is slightly deviated from the standard cross-sectional image, but the misrecognition rate increases. Therefore, by using a rejection rate or a false recognition rate instead of a threshold value, the operator It may be adapted to the sense of operation. In this case, the rejection rate or misrecognition rate estimated from the threshold may be displayed.
  • FIG. 19 is a flowchart showing a rejection process based on similarity.
  • the similarity calculation unit 172 calculates the similarity between the input image 220 and the standard cross-sectional image held in the image measurement database 6 for each cross-sectional type (S6001).
  • the threshold value setting unit 183 sets a threshold value for the similarity (S6002).
  • Rejection determination unit 184 performs threshold value processing to determine whether or not a standard cross-sectional image similar to input image 220 exists (
  • the rejection determination unit 184 determines that there is no standard cross-sectional image similar to the input image 220 (No in S6003), the display unit 12 displays that the input image 220 is rejected as a cross-sectional recognition result, The operator is urged to reacquire the input image 220 (S6004). If the operator can specify the cross-sectional type of the input image 220, the cross-sectional type of the input image 220 can be selected and corrected by manual operation through the input device (S6005).
  • rejection determination unit 184 determines that a standard cross-sectional image similar to input image 220 exists (Yes in S6003), the process proceeds to the processing in FIG.
  • FIG. 20 is a diagram showing the similarity between the input image 220 and the standard cross-sectional image for each cross-sectional type.
  • the similarity is calculated as a scalar, and is defined as a similarity that increases as the similarity value increases, and a similarity that decreases as the similarity value decreases.
  • the ultrasonic diagnostic apparatus 150 receives the input image 220 and the image for each cross-sectional type.
  • the similarity with the standard cross-sectional image held in the measurement database 6 is calculated, and based on the similarity threshold, it is determined whether or not there is a standard cross-sectional image similar to the input image 220, and is similar to the input image 220.
  • the standard cross-sectional image does not exist! /
  • the fact that the input image 220 is rejected is displayed as a cross-sectional recognition result, and the operator is prompted to re-acquire the input image 220.
  • the threshold may be set for the similarity, or set for the rejection rate or the false recognition rate.
  • FIG. 21 is a flowchart showing rejection processing based on the similarity difference.
  • the similarity difference calculation unit 182 calculates the similarity between the standard cross-sectional image that is most similar to the input image 220 and the next similar standard cross-sectional image.
  • the difference with the similarity is calculated (S7001).
  • the similarity difference is an index indicating whether or not the input image 220 is similar to two types of standard cross-sectional images and has a cross-sectional type.
  • the threshold setting unit 183 sets a threshold for the similarity difference (S7002).
  • Rejection determination unit 184 performs threshold processing to determine whether or not the cross-sectional type of input image 220 is ambiguous (S7003).
  • the rejection determination unit 184 determines that the cross-sectional type of the input image 220 is ambiguous (Yes in S7003), the display unit 12 displays that the input image 220 has been rejected as a cross-sectional recognition result, and is operated. The user is prompted to reacquire the input image 220 (S 7004). If the operator himself can specify the cross-sectional type of the input image 220, the cross-sectional type of the input image 220 can be selected and corrected by manual operation via the input device (S7005).
  • FIG. 22 is a diagram showing the similarity between the input image 220 and the standard cross-sectional image for each cross-sectional type. In Fig.
  • PLA parsternal long axis image
  • PSA parsternal short axis image
  • A2C apical apex image
  • A3C apex apex image
  • A4C apical apex region
  • the rejection determination unit 184 determines that the cross-sectional type of the input image 220 is ambiguous when the similarity difference “A d” is smaller than the threshold set by the threshold setting unit 183, and rejects the input image 220. Yes (Yes in S7003).
  • the ultrasonic diagnostic apparatus 150 calculates the difference between the similarity of the standard cross-sectional image most similar to the input image 220 and the similarity of the next standard cross-sectional image. Based on the threshold value of the similarity difference, it is determined whether or not the cross-sectional type of the input image 220 is ambiguous. If the cross-sectional type of the input image 220 is determined to be ambiguous, A message indicating that 220 has been rejected is displayed, and the operator is prompted to reacquire input image 220.
  • the threshold value may be set for the similarity difference, or may be set for the rejection rate or the false recognition rate.
  • FIG. 23 is a diagram showing an aspect of the screen 250 displayed by the display unit 12. As shown in FIG.
  • An ultrasonic image 251 is displayed on the screen 250.
  • an A4C image (apex four-chamber image) is drawn.
  • the section type display 252 displays the section recognition result.
  • the section type display 252 for example, “A4C” is displayed.
  • the section type display 252 displays, for example, “reject”.
  • the similarity display 253 displays the similarity for each section type. In FIG. 23, the similarity of “A4C” is “40”, and the similarity value is the largest! /, (Most similar).
  • the graph display 254 displays the contents of the similarity display 253 in a graph.
  • the force S is used to visually grasp the force that the input image 220 is similar to the standard cross-sectional image of any cross-sectional type.
  • cross-section type display 252 when performing cross-section recognition processing for each R wave of ECG (Electrocardiogram), cross-section type display 252, similarity display 253, and graph display 254 are set for each R wave. Updated. While viewing these displays, the operator can adjust the position and angle of the ultrasonic probe 1 and draw an image of the cross-sectional type to be measured.
  • ECG Electrocardiogram
  • FIG. 24 is a diagram showing a screen 260 and a screen 264 on the display unit 12.
  • the measurement point 263 corresponding to the measurement item is superimposed on the ultrasonic image 262. Is displayed.
  • the measurement region 267 corresponding to the measurement item is displayed superimposed on the ultrasonic image 266.
  • the measurement item setting unit 5 sets measurement items
  • the measurement position setting processing unit 6 sets measurement points 263 based on the cross-sectional type 221, measurement item 223, and measurement position 224 of the image brightness database 171.
  • measurement area 267 are set.
  • the measurement calculation unit 11 performs measurement on the set measurement point 263 and measurement area 267! / ⁇ Displays the measurement calculation result on the display unit 12.
  • the ultrasonic diagnostic apparatus 150 can construct a measurement menu corresponding to the cross-sectional type recognized by the cross-section recognition process. For example, if the cross-sectional type of the input image is recognized as “PSA (parasternal short axis image)”, select the measurement item by narrowing down to only the measurement menu used in “PSA (parasternal short axis image)”. Can be reduced.
  • PSA parsternal short axis image
  • the ultrasonic diagnostic apparatus 150 is configured to input the input image.
  • Image brightness statistics, similarity between the input image and the standard cross-sectional image, similarity difference between the input image and the two standard cross-sectional images, and the image brightness statistics, similarity, and similarity difference Since the rejection process is performed by setting the threshold, the rejection rate, and the misrecognition rate, the input image of the cross-sectional type necessary for the measurement can be acquired quickly and efficiently.
  • FIG. 25 is a flowchart showing rejection processing based on similarity.
  • the ultrasonic diagnostic apparatus 150 accepts input of measurement items by the measurement item setting unit 5 (S
  • the ultrasound diagnostic apparatus 150 refers to the image luminance database 171 and extracts the cross-sectional type 221 corresponding to the measurement item 223, and sets the extracted cross-sectional type 221 as the classification target (S
  • S8003 to S8007 is the same as the processing of S600 ;! to S6005 in FIG.
  • Fig. 26 is a diagram showing cross-sectional types of the heart.
  • FIG. 27 is a diagram showing measurement items and classification targets.
  • the heart 270 in FIG. 26 includes a standard sectional image 271 (four chambers), a standard sectional image 272 (two chambers), a standard sectional image 273 (long axis), a standard sectional image 274 (base short axis), and a standard sectional image 275.
  • Six types of standard cross-sectional images are set: (Middle short axis) and Standard cross-sectional image 276 (Point short axis).
  • the ultrasonic diagnostic apparatus 150 classifies the six cross-sectional types to which the standard cross-sectional image 271 to the standard cross-sectional image 276 belong.
  • the measurement item 283 measures item B
  • the three types of cross-sections to which the standard cross-sectional image 271 to the standard cross-sectional image 273 belong are classified.
  • the ultrasonic diagnostic apparatus 150 has been described as performing rejection processing based on the image brightness statistics (Fig. 17), similarity (Fig. 19), and similarity difference (Fig. 21) of the input image.
  • rejection processing based on the image brightness statistics (Fig. 17), similarity (Fig. 19), and similarity difference (Fig. 21) of the input image.
  • Fig. 17 image brightness statistics
  • Fig. 19 similarity difference
  • Fig. 21 similarity difference
  • the input image captured by the ultrasound diagnostic apparatus has been described as performing cross-sectional recognition processing and rejection processing in real time.
  • the image captured by the ultrasound diagnostic apparatus is saved in a moving image format, and the cross-section is recorded offline. You can execute recognition process and rejection process! /,

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

明 細 書
医用画像診断装置、医用画像計測方法、医用画像計測プログラム 技術分野
[0001] 本発明は、画像を用いて生体組織の計測を行う医用画像診断装置に関する。
背景技術
[0002] 従来の医用画像診断装置では、操作者は、取得した画像上でマウスやトラックボー ル等の入力機器を用いて計測位置を指定する。その後、医用画像診断装置は、計 測計算を行って計測結果を画面表示する。
計測位置の指定には、計測アプリケーションが用いられる。操作者が画像上で複数 点を指定すると、計測アプリケーションは、その計測点間の距離や面積や容積を計 測する。操作者が画像上で所定領域を設定すると、計測アプリケーションは、その領 域内の計測値を計算する。
操作者の主要操作は、計測対象の医用画像を取得して表示すること、医用画像に おいて計測位置を指定すること、である。これらの操作は、 日々大量の医用画像を検 查する操作者にとって負担が大き!/ヽ作業である。
[0003] そこで、胎児計測の設定自動化を図る超音波診断装置が提案されて!/、る( [特許文 献 1]参照。)。この超音波診断装置は、対象患者の過去の計測位置をデータベース 化して装置に保持する。超音波診断装置は、対象患者の IDと入力画像内でのおお まかな計測位置を初期設定する。超音波診断装置は、初期設定に基づいて尤もらし い計測点をデータベース内から見つけ出してその位置を画像上に表示する。
また、過去の医用画像や計測位置を参照して、医用画像の断面種類や計測位置 を自動的に設定する医用画像処理装置が提案されている。例えば、心臓の断面画 像がどの断面種類であるかをパターンマッチング法を用いて認識する医用画像処理 装置が提案されている([特許文献 2]参照。)。この医用画像処理装置は、過去に取 得済の断面画像を辞書画像として保持し、入力画像と辞書画像との間でパターンマ ツチング処理を行い、最も類似して!/、る辞書画像の断面の情報を用いる。
[0004] 特許文献 1 :特開 2005— 224465号公報 特許文献 2:特開 2002— 140689号公報
発明の開示
発明が解決しょうとする課題
[0005] しかしながら、計測位置の指定は、操作が煩雑であり、 日々大量の画像を検査する 操作者には負担が大きい。また、操作者の主観によって計測位置が異なったり、画 質や計測経験の程度等によって計測位置の指定が困難な場合がある。上記特許文 献では、上記課題が解決されていない。
[0006] また、従来の医用画像処理装置は、適正な断面種類の医用画像が入力されること が前提となっているので、計測対象以外の医用画像が入力されると、正確な計測を 行うことができない可能性がある。尚、計測対象以外の医用画像は、例えば、生体組 織自体が含まれない画像、適正でない断面種類の医用画像、標準断面からずれた 医用画像である。
[0007] 本発明は、以上の問題点に鑑みてなされたものであり、医用画像を用いて計測処 理を行う際の操作負担を軽減することを可能とする医用画像診断装置を提供するこ とを目的とする。
課題を解決するための手段
[0008] 前述した目的を達成するために第 1の発明は、被検体の画像情報を取得する画像 情報取得手段と、前記画像情報取得手段によって取得された画像情報を表示する 表示部と、前記表示部に表示された画像情報に基づいて計測計算を行う計測計算 手段と、を備える医用画像診断装置において、過去に取得した画像情報と当該画像 情報に対して設定された過去の計測位置情報とを対応付けて保持する記憶手段と、 入力画像情報と最も類似した過去の画像情報を認識して選択する画像選択手段と、 前記画像選択手段によって選択された過去の画像情報に対応する過去の計測位置 情報に基づレ、て、前記入力画像情報に対して計測位置を設定する計測位置設定手 段と、前記計測位置設定手段によって設定された計測位置を前記入力画像情報と 共に表示する計測位置表示手段と、を具備することを特徴とする医用画像診断装置 である。
[0009] 第 1の発明の医用画像診断装置は、過去に取得した画像情報と当該画像情報に 対して設定された過去の計測位置情報とをデータベース化して保持する。医用画像 診断装置は、入力画像情報とデータベースに保持される過去の画像情報との間で画 像認識計算を行い、入力画像情報と最も類似した過去の画像情報を選択する。医用 画像診断装置は、選択した過去の画像情報に対応する過去の計測位置情報に基づ いて計測位置を設定し、入力画像情報に重畳して表示する。医用画像診断装置は、 設定した計測位置における生体組織の計測計算を行!/、計測結果を表示する。医用 画像診断装置は、例えば、超音波診断装置や X線 CT診断装置や MRI診断装置で ある。
[0010] これにより、医用画像診断装置は、操作者が事前に初期設定することなぐ入力画 像情報に基づいて、過去の画像計測情報を探索し、計測位置を自動的に設定する ことができる。操作者の操作負担を軽減することができる。
[0011] また、入力画像情報と記憶手段に保持される全ての過去の画像情報との間で画像 認識計算を行うようにしてもょレ、。
これにより、過去の全ての画像情報と計測位置情報とに基づいて、最適な計測位 置を設定することができる。
[0012] また、カテゴリ毎に過去の画像情報を分類すると共にカテゴリを代表する代表画像 情報をデータベースに保持し、最初に、入力画像情報と代表画像情報との間で画像 認識計算を行って入力画像情報のカテゴリを決定し、次に、入力画像情報と決定さ れたカテゴリに属する過去の画像情報との間で画像認識計算を行うようにしてもよい これにより、医用画像診断装置は、入力画像情報について先に大分類を行って次 に小分類を行うので、認識率及び処理効率が向上する。また、医用画像診断装置は 、入力画像情報のカテゴリを認識することができるので、入力画像情報の分類と計測 とを同時に行うことができ、計測結果を自動的に分類して整理することができる。
[0013] また、過去の計測条件情報を過去の画像情報に対応付けてデータベースに保持し 、入力計測条件情報と過去の計測条件情報との間で計測条件認識計算を行って入 力計測条件情報と最も類似した過去の計測条件を認識して選択し、選択された過去 の計測条件情報に対応する過去の計測位置情報に基づいて、計測位置を設定する ようにしてもよい。
計測条件は、計測に係る各種条件である。計測条件は、例えば、初期設定や計測 項目だけでなぐ計測タイミング、時系列フレーム番号、被検体の年齢や性別、被検 体に関する診断情報、計測対象や被検体の分類である。
これにより、入力画像情報だけでなく入力計測条件に基づいて、過去の画像計測 情報を探索し、計測位置を自動的に設定することができる。入力画像情報だけでなく 入力計測条件に応じて正確な計測位置を設定することができる。例えば、操作者が 選択した計測項目に応じた計測位置に自動的に切り替えて設定することができる。
[0014] また、入力画像情報の画像特徴量に基づいて、設定された計測位置の適否を評価 し、設定された計測位置が適正でない場合、入力画像情報の画像特徴量に基づい て、設定された計測位置を補正することが望まし!/、。
また、入力画像情報に設定された計測位置近傍においてエッジ強度を算出し、算 出されたエッジ強度が最大の位置に設定された計測位置を補正してもよい。
また、入力画像情報に設定された計測位置周辺の画像情報と過去の計測位置情 報が示す計測位置周辺の画像情報の間の変位に基づいて設定された計測位置を 補正してもよい。
これにより、入力画像情報と類似した過去の画像情報がデータベースに存在せず、 設定された計測位置が適正でない場合であっても、入力画像情報に基づいて計測 位置を補正すること力できる。また、補正後の計測位置が適正でない場合には、操作 者が計測位置を手動補正可能としてもょレ、。
[0015] また、設定された計測位置に基づいて関心領域を設定し、入力画像情報と共に表 示するようにしてあよレヽ。
これにより、入力画像情報を表示させることにより、関心領域が自動的に設定され、 当該関心領域についての計測結果が表示される。計測点だけでなく関心領域も自 動的に設定されるので、操作負担を軽減すると共に、診断に要する時間を短縮する こと力 Sでさる。
[0016] また、入力画像情報から設定された計測位置を含む所定範囲の画像部位を選択し 、当該画像部位の動きを追跡することにより設定された計測位置を移動させるように してもよい。
これにより、医用画像診断装置は、所定の時点のフレーム画像について、過去の画 像情報及び計測位置情報に基づレ、て計測点を設定し、以降のフレーム画像につ!/、 ては、画像の一致度に基づいて計測点を追跡する。従って、計測位置を自動的に設 定すること力 Sできると共に、当該計測点を組織の動きに応じて移動させて組織動態( 心筋等の各組織の動き)の計測を精度よく行うことができる。
[0017] また、画像認識が成功した場合、入力画像情報に関する画像認識結果を表示する ようにしてもよい。
これにより、現在画面に表示されている生体組織部位や断層像の種類を確認する こと力 Sでさる。
[0018] また、画像認識が失敗した場合、警告処理や入力画像情報の再入力処理を実行 するようにしてあよレヽ。
これにより、画像認識不可能である場合に、入力画像情報の再取得を操作者に促 したり、自動的に再取得したりすることができる。
[0019] また、新たに入力された画像情報と当該画像情報に設定された計測位置とをデー タベースに登録して更新することが望ましレ、。
これにより、データベースの情報量が増加し、次回新たに画像情報を入力する際に 画像認識率を向上させるといった学習効果を得ることができる。
[0020] また、過去に取得した複数の断面画像の輝度情報と断面種類とを対応付けて記憶 手段に保持し、入力画像と記憶手段に保持された複数の断面画像との間の類似度 を計算し、入力画像と最も類似する断面画像との間の類似度と、入力画像と他の断 面画像との間の類似度と、の差分である類似度差分を計算し、類似度及び類似度差 分に対して閾値処理を行って入力画像の棄却判定を行うようにしてもよい。
これにより、入力画像が 2種類の標準断面画像に類似するあいまいな面像である場 合、入力画像を棄却した上で、操作者に対して計測に必要な断面種類の入力画像 の再取得を促し、迅速かつ効率的に処理を行うことができる。
[0021] また、入力画像の輝度統計量を計算して閾値処理を行い、計測対象の生体組織 画像に特有の統計的性質を持っているか否かを判定して入力画像の棄却判定を行 つてもよい。
このように、入力画像の統計的性質を棄却基準とすることにより、計測対象の生体 組織が描画されて!/、な!/、入力画像を棄却することができる。
[0022] また、閾値に代えて棄却率や誤認識率を設定し、これらの棄却率や誤認識率に対 応する閾値を用いて閾値処理を行って、入力画像の棄却判定を行ってもよい。 このように、閾値に代えて棄却率や誤認識率を用いることにより、操作者の操作感 覚に適応させることカでさる。
[0023] また、設定された計測項目に基づ!/、て分類対象とする断面種類の数や範囲を決定 してもよい。
これにより、計測項目に応じて必要な分類数の断面種類を分類対象とすることによ り、認識率を向上させて計測操作における操作性を向上させることができる。
[0024] 第 2の発明は、被検体の画像情報を取得し、前記取得した画像情報を表示し、前 記表示した画像情報に基づいて計測計算を行う医用画像計測方法において、過去 に取得した画像情報と当該画像情報に対して設定された過去の計測位置情報とを 対応付けて記憶装置に保持するステップと、入力画像情報と最も類似した過去の画 像情報を認識して選択する画像選択ステップと、前記画像選択ステップによって選 択された過去の画像情報に対応する過去の計測位置情報に基づ!/、て、前記入力画 像情報に対して計測位置を設定する計測位置設定ステップと、前記計測位置設定ス テツプにより設定された計測位置を前記入力画像情報と共に表示する計測位置表示 ステップと、を具備することを特徴とする医用画像計測方法である。
[0025] 第 2の発明は、被検体の画像情報を取得し、前記取得した画像情報を表示し、前 記表示した画像情報に基づいて計測計算を行う医用画像計測方法に関する発明で ある。
発明の効果
[0026] 本発明によれば、医用画像を用いて計測処理を行う際の操作負担を軽減すること を可能とする医用画像診断装置を提供することができる。
図面の簡単な説明
[0027] [図 1]超音波診断装置 100の構成図 園 2]画像計測データベース 7の一態様を示す図
[図 3]計測処理設定処理部 6の動作を示すフローチャート
[図 4]表示部 12における表示画面 31の一態様を示す図
[図 5]表示部 12における表示画面 34の一態様を示す図
園 6]画像計測データベース 7の一態様を示す図
[図 7]計測処理設定処理部 6の動作を示すフローチャート
園 8]画像計測データベース 7の一態様を示す図
[図 9]計測処理設定処理部 6の動作を示すフローチャート
[図 10]計測位置補正部 10の動作を示すフローチャート
[図 11]計測位置補正処理における表示画面 51の一態様を示す図
[図 12]計測位置補正処理における表示画面 51の一態様を示す図
[図 13]超音波画像 61における関心領域 79の設定を示す図
園 14]超音波画像における計測点の追跡を示す図
園 15]超音波診断装置 150の構成図
[図 16]画像輝度データベース 171が保持するレコードの一態様を示す図
[図 17]入力画像の画像輝度統計量に基づく棄却処理を示すフローチャート
[図 18]表示部 12に表示される画面 228及び超音波画像 229を示す図
[図 19]類似度に基づく棄却処理を示すフローチャート
[図 20]入力画像 220と標準断面画像との類似度を断面種類毎に示す図
[図 21]類似度差分に基づく棄却処理を示すフローチャート
[図 22]入力画像 220と標準断面画像との類似度を断面種類毎に示す図
[図 23]表示部 12が表示する画面 250の一態様を示す図
[図 24]表示部 12における画面 260及び画面 264を示す図
[図 25]類似度に基づく棄却処理を示すフローチャート
園 26]心臓の断面種類を示す図
[図 27]計測項目及び分類対象を示す図
符号の説明
100 超音波診断装置 •超音波プローブ
•画像生成部
,記憶部
•操作部
•計測項目設定部
•計測位置設定処理部
•画像計測データベース
-画像選択部
•計測位置設定部 …… …計測位置補正部 …… …計測計算部
…… …表示部
…… …計測条件選択部 …… …追跡部
…… …入力画像情報
…画像計測情報 …… …計測位置情報 、 28· 計測位置周辺の画
…画像情報
…計測条件情報 、 34、 51 表示画面 、 35、 52 画像
、 37· 計測点
…… …計測項目
…… …計測領域
…分類画像計測データべ、
· ·代表画像情報
· ·入力計測条件 、 83、 88 左心室内膜 、 55、 57 補正前の計測点 、 58 補正後の計測点 、 81、 86 超音波画像 頸動脈
、 64 壁面
-78 計測点
関心領域
、 87 心筋
移動前の計測点 切り出し画像
局所画像
移動後の計測点
0 超音波診断装置0 画像輝度抽出部0 断面認識処理部1 画像輝度データベース2 類似度計算部
3 断面種類判定部0 棄却処理部
1 画像輝度統計量計算部2 類似度差分計算部3 閾値設定部
棄却判定部
0 入力画像
1 断面種類
2 標準断面画像情報3 計測項目 224 計測位置
228、 250、 260、 264 画面
229、 251、 262、 266 超音波画像
252 断面種類表示
253 類似度表示
254 グラフ表示
261、 265、 281、 283 計測項目
263 計測点
267 計測領域
270 心臓
271-276 標準断面画像
発明を実施するための最良の形態
[0029] 以下添付図面を参照しながら、本発明に係る医用画像診断装置の好適な実施形 態について詳細に説明する。尚、以下の説明及び添付図面において、略同一の機 能構成を有する構成要素については、同一の符号を付することにより重複説明を省 略することにする。
本発明の医用画像診断装置は、超音波診断装置、 X線 CT診断装置、 MRI診断装 置やこれらを組み合わせたシステムに適用可能である。以下、医用画像診断装置と して超音波診断装置を取り上げ、心臓の断面画像に基づく計測について説明する。 尚、心臓以外の生体組織についても適用可能である。また、断面画像以外の画像に ついても適用可能である。
[0030] (1.超音波診断装置の構成)
最初に、図 1を参照しながら、超音波診断装置 100の構成について説明する。 図 1は、超音波診断装置 100の構成図である。
[0031] 超音波診断装置 100は、超音波の送受信を行う超音波プローブ 1と、超音波信号 から画像を生成する画像生成部 2と、この画像を保存する記憶領域である記憶部 3と 、操作者が入力機器を用いて装置の操作を行う操作部 4と、計測項目を設定する計 測項目設定部 5と、計測位置を自動設定する計測位置設定処理部 6と、計測位置を 用いて計測計算を行う計測計算部 11と、計測位置や計測結果を表示する表示部 12 と、追跡部 14を備える。
[0032] 計測位置設定処理部 6は、過去の少なくとも画像情報と計測位置と計測位置周辺 の画像情報を含む画像計測データベース 7と、入力画像情報と画像計測データべ一 ス 7とを用いて画像認識処理を行!/、画像を選択する画像選択部 8と、認識した画像と 対応する計測位置を設定する計測位置設定部 9と、計測位置設定部 9で指定した位 置を評価し補正する計測位置補正部 10と、入力計測条件と画像計測データベース 7とを用いて計測条件認識処理を行い計測条件を選択する計測条件選択部 13を備 X·る。
[0033] 超音波プローブ 1は、被検体に対して超音波を送受信する装置である。超音波プロ ーブ 1は、セクタ型、リニア型、コンベックス型等の形状を有する。超音波プローブ 1は 、被検体からの反射超音波を受信し、電気信号に変換して画像生成部 2に入力する
画像生成部 2は、超音波プローブ 1から入力信号に基づいて、 Bモード画像を生成 する装置である。入力信号は、整相加算器、対数増幅器、包絡線検波器、 A/D変 換器、スキャンコンバータを通して Bモード画像に変換される。
記憶部 3は、取得した画像を記憶する装置である。記憶部 3は、例えば、ハードディ スク、汎用メモリ、フレームメモリ、シネメモリである。
操作部 4は、キーボード、マウス、トラックボール等の入力機器である。操作者は、操 作部 4を用いて、画質調整や計測指示や情報入力を行う。
計測項目設定部 5は、操作者が希望する計測項目を選択する装置である。計測項 目は、例えば、特定部位の距離、容積、心筋壁厚、ドッブラである。
[0034] 計測位置設定処理部 6は、入力画像情報とデータベース間の画像認識処理を行 い、計測位置を設定する装置である。
画像計測データベース 7は、過去の計測位置情報及び画像情報及び計測位置周 辺の画像情報を有するレコードの集合である。尚、データ容量を少なくするために符 号圧縮化して保持してもよい。また、画像計測データベース 7は、計測条件情報を対 応付けて保持する。計測条件情報については、後述する。 画像選択部 8は、画像計測データベース 7を用いて、入力画像情報の画像認識計 算を行う装置である。画像選択部 8は、画像認識計算を行って、画像計測データべ ース 7内から入力画像情報と最も近似した画像情報を選択する。尚、画像認識計算 としては、相関計算等のパターンマッチング計算を用いることができる。
計測条件選択部 13は、画像計測データベース 7を用いて、入力計測条件の計測 条件認識計算を行う装置である。計測条件選択部 13は、計測条件認識計算を行つ て、画像計測データベース 7内から入力計測条件と最も近似した計測条件情報を選 択する。
[0035] 計測位置設定部 9は、画像計測データベース 7から選択した画像情報のレコードに 含まれる計測位置情報に基づいて、計測位置を設定する装置である。尚、計測位置 設定部 9は、計測項目設定部 5で指定した計測項目に必要な情報のみ選択して計 測位置を設定することが望まし!/、。
計測位置補正部 10は、計測位置設定部 9が設定した計測位置を補正する装置で ある。計測位置補正部 10は、計測位置の評価を行い、設定された計測位置が適正 であるか否かを判断する。計測位置補正部 10は、設定された計測位置が適正な計 測位置でな!/、場合には計測位置を補正する。
計測位置の評価に関しては、例えば、エッジ強度を評価量として用いることができる 。位置ずれの補正に関しては、例えば、エッジ検出法を用いることができる。また、画 像計測データベース 7の計測位置情報が示す計測位置周辺の画像情報と、設定さ れた計測位置周辺の画像情報との間の変位を用いて補正することができる。また、入 力機器を介して計測位置を手動補正してもよレ、。
[0036] 計測計算部 11は、設定された計測位置を用いて各種計測を行う装置である。計測 計算部 11が行う計測は、例えば、距離及び容積の計算やドプラ法による計測、ストレ スエコー、造影剤モード時の時間輝度曲線の構築、ストレイン計測等である。
表示部 12は、 CRTディスプレイや液晶ディスプレイ等の表示装置である。表示部 1 2は、入力画像上に設定した計測位置を重畳表示したり、認識結果を表示したり、計 測計算の結果を表示する。
追跡部 14は、表示部 12に表示される動画像の生体組織の動きを追跡する装置で ある。
[0037] (2.第 1の実施形態)
次に、図 2〜図 5を参照しながら、第 1の実施形態における計測位置設定処理部 6 の動作について説明する。
[0038] (2— 1 ·画像計測データベース 7)
図 2は、画像計測データベース 7の一態様を示す図である。
画像計測データベース 7は、複数の画像計測情報 22のレコードを保持する。画像 計測情報 22は、過去に計測に用いた画像や計測位置等に関する情報である。画像 計測情報 22は、ある 1つの計測に対して、計測位置情報 23と画像情報 24と計測条 件情報 25とが対応付けられ、 1つのレコードとして保持されている。さらに、画像計測 情報 22に計測位置情報 23が示す計測位置周辺の画像情報 26を対応付けて保持 するようにしてあよレヽ。
計測位置情報 23は、計測位置に関する情報であり、例えば、計測点や計測領域の 輪郭点群を示す座標値である。表示部 12における表示画面 31に画像 32及び計測 点 33が重畳して表示されている図 4を用いて、計測位置情報 23を説明する。過去の 計測に用いた画像 32には、例えば心臓の壁に沿って複数の計測点 33が設定され ている。これらの複数の計測点 33は、上述した計測領域の輪郭点群である。これらの 計測点 33の座標 (XI、 Y1)、座標 (X2、 Y2) · · ·で示される座標値が、計測位置情 報 23として、それぞれ画像計測データベース 7に保持されている。尚、上記では X— Y座標で座標値が画像計測データベース 7に保持されている力 r- Θ座標で示され る座標値で、複数の計測点 33の計測位置情報 23がそれぞれ画像計測データべ一 ス 7に保持されて!/、てもよ!/、。
[0039] 計測位置周辺の画像情報 26は、計測位置情報 23が示す計測位置周辺に関する 画像情報である。計測位置情報 26は、例えば、計測点周辺の輝度値や計測領域の 輪郭点群周辺の輝度値である。計測点周辺の輝度値とは、計測点を中心として縦横 lcm〜2cmで作成された矩形領域の輝度値である。尚、この領域は、楕円領域や円 形領域であってもよい。
画像情報 24は、図 4の画像 32に関する情報、例えば、画像 32の輝度値そのもの 、符号圧縮化された輝度値である。過去の計測に用いた画像 32は、座標 (X, Y) 毎に輝度値が分布されている。座標値を輝度値に対応させ、画像 32全体の輝度値 が画像情報 24として画像計測データベース 7に保持されている。符号圧縮化された 輝度値とは、例えば、各走査線の輝度値、 2画素のうち 1画素を任意に選択して、圧 縮した輝度値である。座標値を圧縮した輝度値に対応させて記憶させることで、画像 計測データベース 7に保持させておくレコードのデータ量を抑えることができる。さら に、画像 32全体または上記で圧縮した輝度値に主成分分析を施し、輝度値の性質 を特徴づける主成分値のみを記憶させることでさらにデータ量を抑えることもできる。 尚、上記では X— Y座標で座標値と輝度値が画像計測データベース 7に保持され ているが、 r Θ座標で示される座標値で、座標値と輝度値を画像計測データベース 7に保持されていてもよい。
計測条件情報 25は、計測環境や計測対象に関する情報である。計測条件情報 25 は、例えば、初期設定、計測項目、計測タイミング、時系列フレーム番号、被検体の 年齢や性別、被検体に関する診断情報、計測対象や被検体の分類である。
[0040] (2- 2.計測位置設定処理部 6の動作)
図 3は、計測処理設定処理部 6の動作を示すフローチャートである。
超音波診断装置 100は、被検体の画像データである入力画像情報 21を取得して 記憶部 3に保持する。入力画像情報 21に関しては、超音波プローブ 1を用いて画像 生成部 2により生成された画像データを入力してもよいし、異なる医用画像診断装置 により生成された画像データを入力するようにしてもよい(S1001)。
[0041] 画像選択部 8は、入力画像情報 21と画像計測データベース 7の画像情報 24との間 で画像認識計算を行う(S1002)。画像認識計算としては、相関計算等のパターンマ ツチング計算を用いることができる。画像選択部 8は、例えば、座標値と輝度値が対 応して記憶されている複数の画像情報 24と入力画像情報 21を対比 (相関演算や類 似度演算など)することによって得られる相関値を算出し、相関値が所定の閾値よりも 大きいか否か判断する。
そして、画像選択部 8は、画像認識計算の成否を判定する(S 1003)。例えば、画 像選択部 8は、認識計算結果 (例えば、相関係数や類似度)が所定の閾値を超えた 場合に画像認識成功とし、所定の閾値を超えない場合には画像認識失敗とする。そ して、画像選択部 8は、入力画像情報 21と最も類似した過去の画像情報 24を選択 する。
[0042] 画像認識成功の場合(S1003の Yes)、計測位置設定部 9は、入力画像情報 21と 最も類似する画像情報 24を有する画像計測情報 22の 1つのレコード (計測位置情 報 23と画像情報 24と計測条件情報 25と計測位置周辺の画像情報 26とが対応付け られている。)を抽出する。計測位置設定部 9は、当該画像計測情報 22のレコードが 保持する計測位置情報 23を取り出して設定する。
また、計測位置設定部 9は、所定の計測項目に応じた情報を計測位置情報 23から 取り出す。具体的に、計測項目には、例えば、四腔、二腔、長軸、基部短軸、中部短 軸、尖部短軸などがある。それぞれの計測項目には、計測位置情報 23 (計測点と計 測領域の輪郭点群を示す座標値)が予め定められている。例えば、二腔では、計測 点が画像 32の中央付近で上方向に凸の U字型に配置されるように、計測位置情報 2 3が定められている。また、尖部短軸では、計測点が画像 32の中央付近で円形に配 置されるように、計測位置情報 23が定められている。操作者は、計測項目設定部 5を 操作して計測項目を選択し、その計測項目に対応して記憶された計測位置情報 23 を読み出すことによって、当該計測項目に対応した計測位置情報 23を取り出すこと ができる。
[0043] 計測位置補正部 10は、入力画像情報 21に基づいて、計測位置設定部 9が取り出 した計測位置情報 23を補正する(S1004)。尚、計測位置補正処理の詳細について は後述する。
計測位置設定処理部 6は、補正後の計測位置情報 23に基づいて計測位置を設定 する。計測位置設定処理部 6は、当該計測位置を入力画像情報 21と重畳して表示 部 12に表示する(S1005)。尚、計測位置設定処理部 6は、画像計測情報 22の計測 条件情報 25に基づ!/、て初期設定を行うことが望まし!/、。
[0044] 計測計算部 11は、計測位置設定部 9が設定した計測位置について計測計算を行 い、計測結果を表示部 12に表示する(S 1006)。
計測位置設定処理部 6は、入力画像情報 21や計測位置設定部 9が設定した計測 位置等に基づいて、画像計測データベース 7を更新する(S 1007)。
[0045] 尚、画像認識成功の場合(S 1003の Yes)、計測位置設定処理部 6は、画像認識 結果を表示部 12に表示する。画像認識結果として、例えば、現在画面に表示されて
V、る生体組織部位や断層像の種類が表示される。
一方、画像認識失敗の場合(S 1003の No)、計測位置設定処理部 6は、操作者に 入力画像情報 21を再取得するように警告を行う(S1011)。警告は、表示部 12への 表示や音声等により行うことができる。また、計測位置設定処理部 6は、自動的に S 1
001からの処理を繰り返すようにしてもよい。
[0046] 図 4は、表示部 12における表示画面 31の一態様を示す図である。
表示画面 31には、画像 32及び計測点 33が重畳して表示される。画像 32は、入力 画像情報 21に基づく画像である。画像 32は、心臓の断層像である。計測点 33は、 計測位置を示す点である。計測点 33の位置は、補正後の計測位置情報 23に基づ いて設定される。
[0047] 図 5は、表示部 12における表示画面 34の一態様を示す図である。
図 5 (a)に示すように、表示画面 34において、操作者が計測項目 36として「項目 A」 を選択すると、当該計測項目に対応する計測点 37が画像 35と重畳して表示される。 図 5 (b)に示すように、表示画面 34にお!/、て、操作者が計測項目 36として「項目 B」 を選択すると、当該計測項目に対応する計測領域 38が画像 35と重畳して表示され
[0048] 以上の過程を経て、計測位置設定処理部 6は、入力画像情報 21をキーとして、デ ータベース 7の画像計測情報 22を用いて 1対 1で画像認識計算を行う。計測位置設 定処理部 6は、入力画像情報 21に最も類似する画像情報 24の画像計測情報 22を 画像計測データベース 7から探索する。計測位置設定処理部 6は、探索した画像計 測情報 22のレコードに含まれる過去の計測位置情報 23に基づいて、入力画像情報 21における計測位置を設定する。
[0049] 以上説明したように、第 1の実施形態では、超音波診断装置は、操作者が事前に 初期設定することなぐ入力画像情報に基づいて、過去の画像計測情報を探索し、 計測位置を自動的に設定することができる。また、操作者が選択した計測項目に応じ た計測位置に自動的に切り替えて設定することができる。さらに、超音波診断装置は 、画像認識計算を高速化することにより、操作者による超音波プローブ 1の操作に応 じてリアルタイムに計測位置を更新することができる。
[0050] 超音波診断装置は、対象患者に関わらず過去の計測位置情報と画像情報 (例え ば、輝度情報)をデータベース化して記憶装置に保持する。超音波診断装置は、患 者 IDやおおまかな計測位置をキーとするのではなぐ入力画像情報をキーとしてデ ータベース内の画像情報との画像認識処理を利用することにより、初期設定を行うこ となく計測位置を設定することができる。
[0051] (3.第 2の実施形態)
次に、図 6及び図 7を参照しながら、第 2の実施形態について説明する。 第 1の実施形態では、入力画像情報 21と画像計測データベース 7の画像情報 24と の間で 1対 1の画像認識計算を行うものとして説明した。第 2の実施形態では、画像 情報 24との間で 1対 1の画像認識計算を行う前に、カテゴリを代表する代表画像情 報 42との間で画像認識計算が行われる。
[0052] (3— 1 ·画像計測データベース 7)
図 6は、画像計測データベース 7の一態様を示す図である。
画像計測データベース 7は、複数の分類画像計測データベース 41 1、 41 - 2, …を保持する。各分類画像計測データベース 41 1、 41 - 2,…は、それぞれ、代 表画像情報 42及び複数の画像計測情報 22のレコードを保持する。
[0053] 分類画像計測データベース 41 1、 41 - 2,…は、画像計測情報 22を所定のカテ ゴリ毎に分類して保持するデータベースである。所定のカテゴリは、被検体や計測対 象に関するカテゴリである。所定のカテゴリは、例えば、心臓の断層像の計測項目(「 長軸」「短軸」「二腔」「四腔」等)、被検体の年齢や性別、疾患の種類である。所定の カテゴリは、画像計測情報 22の計測条件情報 25のフィールドに保持される。例えば 、分類画像計測データベース 41 1は、「長軸」像に分類された画像計測情報 22を 保持する。
[0054] 代表画像情報 42は、各所定のカテゴリを代表する画像情報である。各分類画像計 測データベース 41— 1、 41 - 2,…は、少なくとも 1つの代表画像情報 42を保持する 。代表画像情報 42は、各分類画像計測データベース 41— 1、 41— 2、…が保持する 画像計測情報 22に基づ!/、て作成される。
[0055] (3- 2.計測位置設定処理部 6の動作)
図 7は、計測処理設定処理部 6の動作を示すフローチャートである。
超音波診断装置 100は、被検体の画像データである入力画像情報 21を取得して 記憶部 3に保持する(S2001)。
[0056] 画像選択部 8は、入力画像情報 21と分類画像計測データベース 41 1、 41 2、
…の代表画像情報 42— 1、 42— 2、…との間で画像認識計算を行う(S2002)。画像 認識計算としては、相関計算等のパターンマッチング計算を用いることができる。画 像選択部 8は、画像認識計算の成否を判定する(S2003)。
画像認識成功の場合(S2003の Yes)、画像選択部 8は、入力画像情報 21と最も 類似する代表画像情報 42が属するカテゴリに、入力画像情報 21を分類する。
[0057] S2004〜S2009及び S2011の処理は、画像計測データベース 7に代えて分類画 像計測データベース 41を用いること以外は、図 3の S1002〜S 1007及び S1011の 処理と同様である。
尚、入力画像情報 21は、 S2002〜S2003の処理で決定した分類画像計測データ ベース 41に保持される。また、入力画像情報 21と既存の画像情報 24とに基づいて、 新たな代表画像情報 42を作成して分類画像計測データベース 41に保持するように してもよい。
[0058] 以上の過程を経て、計測位置設定処理部 6は、最初に、入力画像情報 21とカテゴ リを代表する代表画像情報 42との間で画像認識計算を行ってカテゴリを決定する。 次に、計測位置設定処理部 6は、入力画像情報 21をキーとして、当該カテゴリの分 類画像計測データベース 41の画像計測情報 22を用いて 1対 1で画像認識計算を行 う。尚、各カテゴリをさらに複数のカテゴリに分類して 3段階以上の処理を行うようにし てもよい。
[0059] 以上説明したように、第 2の実施形態では、超音波診断装置は、入力画像情報に ついて先に大分類を行って次に小分類を行うので、認識率及び処理効率が向上す る。また、超音波診断装置は、入力画像情報のカテゴリを認識することができるので、 入力画像情報の分類と計測とを同時に行うことができ、計測結果を自動的に分類し て整理すること力 Sできる。
[0060] (4.第 3の実施形態)
次に、図 8及び図 9を参照しながら、第 3の実施形態について説明する。 第 1の実施形態では、入力画像情報 21と画像計測データベース 7の画像情報 24と の間で 1対 1の画像認識計算を行うものとして説明した。第 3の実施形態では、さらに
、入力計測条件 43と画像計測データベース 7の計測条件情報 25との間で計測条件 認識計算が行われる。
[0061] (4 1 ·画像計測データベース 7)
図 8は、画像計測データベース 7の一態様を示す図である。
第 3の実施形態における画像計測データベース 7は、第 1の実施形態における画 像計測データベース 7と同様のものである。第 3の実施形態では、入力画像情報 21 及び入力計測条件 43と画像計測情報 22の各レコードとの間で認識計算が行われる
(4- 2.計測位置設定処理部 6の動作)
図 9は、計測処理設定処理部 6の動作を示すフローチャートである。
S300;!〜 S3003の処理は、図 3の S 100;!〜 S1003の処理と同様である。 画像認識成功の場合(S1003の Yes)、超音波診断装置 100は、入力計測条件 43 を取得して記憶部 3に保持する(S3004)。計測条件は、計測に係る各種条件である 。計測条件は、例えば、初期設定や計測項目だけでなぐ計測タイミング、時系列フ レーム番号、被検体の年齢や性別、被検体に関する診断情報、計測対象や被検体 の分類である。入力計測条件 43に関しては、操作者が操作部 4や計測項目設定部 5 を用いて入力した情報を取得するようにしてもよい。
[0062] 計測条件選択部 13は、入力計測条件 43と画像計測データベース 7の計測条件情 報 25との間で計測条件認識計算を行う(S3005)。具体的には、初期設定、計測項 目、計測タイミング、時系列フレーム番号、被検体の年齢や性別、被検体に関する診 断情報、計測対象、被検体の分類などに優先順位が与えられており、計測条件選択 部 13は、優先順位の順に比較を行う。そして、計測条件選択部 13は、優先順位の 順に比較を行い、画像計測データベース 7の計測条件情報 25と入力計測条件 43が 合致しないと項目になったら、計測条件認識計算を終了する。計測条件選択部 13は 、計測条件認識計算の成否を判定する(S3006)。
計測条件認識成功の場合(S3006の Yes)、計測位置設定部 9は、入力画像情報 21と最も合致する項目が多い、すなわち最も類似する画像情報 24を有し、かつ、入 力計測条件 43と最も類似する計測条件情報 25を有する画像計測情報 22のレコード を選択する。計測位置設定部 9は、当該画像計測情報 22のレコードが保持する計測 位置情報 23を取り出して設定する。
[0063] S3007〜S3010、 S3011の処理は、図 3の S1004〜S1007、 S 1011の処理と同 様である。
[0064] 以上の過程を経て、計測位置設定処理部 6は、入力画像情報 21及び入力計測条 件 43をキーとして、データベース 7の画像計測情報 22を用いて画像認識計算及び 計測条件認識計算を行う。計測位置設定処理部 6は、入力画像情報 21に最も類似 する画像情報 24を有し、かつ、入力計測条件 43に最も類似する計測条件情報 25を 有する画像計測情報 22を画像計測データベース 7から探索する。計測位置設定処 理部 6は、探索した画像計測情報 22のレコードに含まれる過去の計測位置情報 23 に基づ!/、て、入力画像情報 21における計測位置を設定する。
[0065] 以上説明したように、第 3の実施形態では、超音波診断装置は、入力画像情報だ けでなく入力計測条件に基づいて、過去の画像計測情報を探索し、計測位置を自 動的に設定することができる。入力画像情報だけでなく入力計測条件に応じて正確 な計測位置を設定することができる。
[0066] (5.第 4の実施形態:計測位置補正)
次に、図 10及び図 11を参照しながら、第 4の実施形態について説明する。第 4の 実施形態は、計測位置ネ甫正(図 3の S1004、図 7の S2006、図 9の S3007)に関する 第 1の実施形態〜第 3の実施形態では、入力画像情報 21と類似した画像情報 24 がデータベース 7に存在すれば、精度よく計測位置を設定することができる。しかしな がら、入力画像情報 21と類似した画像情報 24がデータベース 7に存在しない場合、 精度よく計測位置を設定することができない場合がある。従って、計測位置補正処理 を行うことが望ましい。
[0067] (5- 1.計測位置補正部 10の動作)
図 10は、計測位置補正部 10の動作を示すフローチャートである。
画像認識計算あるいは計測条件認識計算が終了して計測位置が決定すると、計 測位置補正部 10は、計測位置の適否を評価する。計測位置補正部 10は、計測位 置が適正でな!/、場合、画像特徴量を用いて計測位置の自動補正を行う(S4001)。 計測位置補正部 10は、自動補正後の計測位置を表示部 12に表示する(S4002)。 尚、 自動補正前の計測位置を併せて表示部 12に表示するようにしてもよい。
[0068] 操作者は、自動補正後の計測位置を観察して適正でないと判断した場合(S4003 の No)、計測位置を手動補正する(S4004)。計測位置補正部 10は、手動補正後の 計測位置を表示部 12に表示する(S4005)。
[0069] (5- 2.エッジ強度による計測位置の補正)
図 11は、計測位置補正処理における表示画面 51の一態様を示す図である。図 11
(a)は、計測位置補正前を示す図である。図 11 (b)は、計測位置補正後を示す図で ある。
図 11 (a)の表示画面 51には、画像 52及び補正前の計測点 54及び計測点 55が重 畳して表示される。計測点 54は、概ね左心室内膜 53の輪郭上に設定される。しかし ながら、計測点 55は、左心室内膜 53の輪郭上から離れた位置に表示されている。 図 11 (b)の表示画面 51には、画像 52及び補正後の計測点 56が重畳して表示さ れる。補正後の計測点 56は、補正前の計測点 55に対して計測位置補正された計測 点である。補正後の計測点 56は、左心室内膜 53の輪郭上に表示される。
[0070] 計測位置補正部 10は、計測点を配置すると、全ての計測点に対して計測位置の 適否を評価する。図 11では左心室内膜 53に計測点を配置するので、計測位置の評 価に関しては、画像特徴量をエッジ強度として計算することが望ましい。
エッジ強度が高ければ計測位置は適正であり、エッジ強度が低ければ計測位置は 適正でな!/、。計測位置補正部 10は、エッジ強度が高くなるように計測点 55を計測点 56に補正する。計測位置補正に関しては、計測点 55近傍のエッジ強度を計算して 最大強度の位置を探索し、計測点 56を算出することができる。
尚、計測点の配置位置や配置対象によって、画像特徴量を適宜変更することが望 ましい。また、自動補正後の計測位置が適正でない場合、操作者は、マウス等の入 力機器を操作して計測位置を手動補正することができる。
(5 - 3.計測位置周辺の画像情報による計測位置の補正)
また、計測位置補正部 10は、図 12に示すように、画像計測データベース 7のレコー ドの中の計測位置情報 23と当該計測位置情報 23が示す計測位置周辺の画像情報 26を用いる。
例えば、心臓の左心室内膜 53の膜面に計測位置を設定しょうとする時、画像計測 データベース 7が保持する画像計測情報 22を参照すると、計測位置情報 23が示す 計測位置は計測点 27である。
画像計測情報 22と入力画像情報 21とを比較すると、計測点 27周辺の画像情報 2 6と計測点 57周辺の画像情報 28との間にズレを生じる場合がある。尚、入力画像情 報 21における計測点 57の座標は、画像計測情報 22における計測点 27の座標と同 一位置に設定される。また、計測点 27周辺の画像情報 26と計測点 57周辺の画像情 報 28の形状は四角形としているが形状は問わない。
入力画像情報 21にお!/、て最初に設定された計測点 57を本来設定すべき計測点 5 8に補正するために、このズレの変位を計算する。変位の計算方法は、例えば、プロ ックマッチング法等の画像相関処理を用いることができる。計測点 27周辺の画像情 報 26と計測点 57周辺の画像情報 28との間で画像相関処理等を行ってズレの変位 を計算した後、最初に設定された計測点 57を変位分だけ移動させて正しい計測点 5 8に補正する。
また、計測点 27周辺の画像情報 26と計測点 57周辺の画像情報 28との間の類似 度を計算し、これを画像エネルギーとした動的輪郭モデル (非特許文献 M. Kass et ai. Snakes: Active Contour Models, Internationa丄 Journal of Co mputer Vision, 321— 331 , 1988)を用いて、ネ甫正する方法を用いることもできる 。式(1)のように計測点を v (s)として、画像エネルギー E に前記類似度やエッジ
image
強度を、内部エネルギー E に曲率等の輪郭形状に関する特徴量を設定し、全体の エネルギー Eを最小化することにより、特に壁面のような滑らかな面にフィットさせるこ とが可能である。これにより、計測位置設定の精度が向上するだけでなぐ生体組織 の滑らかさを考慮した設定が可能となる。
[0072] [数 1]
E = lEM ) Eimage (v(s))ds (1 )
[0073] また、動的な画像処理を用いた他の例として Active Shape Modelや Active Appearance Modelによる輪郭の補正処理を行うこともできる。
[0074] 以上説明したように、第 4の実施形態では、計測位置補正処理を行うことにより、過 去の画像計測情報に基づいて設定された計測位置が適正でない場合であっても、 入力画像情報に基づいて計測位置を補正することができる。また、補正後の計測位 置が適正でな!/、場合には、操作者が計測位置を手動補正することができる。
[0075] (6·第 5の実施形態:関心領域の設定)
次に、図 13を参照しながら、第 5の実施形態について説明する。
第 1の実施形態〜第 4の実施形態では、計測位置として計測点が設定'表示される ものとして説明したが、第 5の実施形態では、計測点に基づいて関心領域が設定-表 示される。
[0076] 図 13は、超音波画像 61における関心領域 79の設定を示す図である。
超音波画像 61には、頸動脈 62が表示される。頸動脈 62は、矢印 65の方向に血液 が流れる血管である。頸動脈 62の壁面 63及び壁面 64は、超音波画像 61上ではェ ッジが明確に描出される部位である。
画像計測データベース 7に過去の頸動脈の画像情報と計測点情報が記録されて いる場合には、第 1の実施形態〜第 4の実施形態と同様の処理により、頸動脈の超 音波画像上に計測点を配置することができる。具体的な計測点の配置に関しては、 第 1の実施形態〜第 4の実施形態等で説明したので、ここでは説明を省略する。
[0077] 計測位置設定部 9は、画像計測データベース 7が保持する過去の頸動脈の画像情 報と計測点情報に基づいて、頸動脈 62の超音波画像 61上に計測点 71〜計測点 7 8を配置する。
計測位置設定処理部 6は、角部の計測点 71及び計測点 74及び計測点 78及び計 測点 75を結んで関心領域 79を設定する。関心領域 79の枠は、例えば、破線で表示 部 12に表示される。計測計算部 11は、設定された関心領域 79について所定の計測 計算を行い、計測結果を表示部 12に表示する。例えば、計測計算部 11は、関心領 域 79につ!/、てドプラ演算を行い、 CFM (カラーフローマッピング)処理を行って血流 像をカラー表示する。
[0078] 尚、図 13では、計測位置設定処理部 6は、角部の計測点 71及び計測点 74及び計 測点 78及び計測点 75を結んで長方形の関心領域 79を設定したが、これに限定さ れない。全ての計測点 71〜計測点 78を結んで関心領域を設定してもよい。また、角 部以外の計測点である計測点 72及び計測点 73及び計測点 76及び計測点 77だけ を選択して部分的に関心領域を設定してもよい。
[0079] 以上説明したように、第 5の実施形態では、超音波プローブ 1を被検体に当てて超 音波信号を得て超音波画像を表示させれば、操作部 4のトラックボール等の操作を することなく関心領域 79が自動的に設定され、設定された関心領域 79内に例えば 血流像が表示される。この結果、操作部 4のトラックボール等の操作が不要となるた め、超音波画像診断装置を用いた診断に要する時間を短くできる。また、血管に沿つ て関心領域が正確に設定されるため、血管外などにおける無用な CFM処理がなく なることにより、フレームレートを大きく悪化させることなぐ超音波画像を表示できる。
[0080] (7.第 6の実施形態:組織動態の計測)
次に、図 14を参照しながら、第 6の実施形態について説明する。第 6の実施形態は 、心筋等の各組織の動きである組織動態の計測に関する。
図 14は、超音波画像における計測点の追跡を示す図である。
画像計測データベース 7に過去の心筋の画像情報と計測点情報が記録されている 場合には、第 1の実施形態〜第 4の実施形態と同様の処理により、心筋の超音波画 像上に計測点を配置することができる。具体的な計測点の配置に関しては、第 1の実 施形態〜第 4の実施形態等で説明したので、ここでは説明を省略する。
[0081] 図 14 (a)に示すように、計測位置設定処理部 9は、記憶部 3から所定の時点のフレ ーム画像を読み出し、表示部 12に超音波画像 81を表示する。超音波画像 81には 心筋 82の画像が含まれる。
計測位置設定部 9は、画像計測データベース 7が保持する過去の心筋の画像情報 と計測点情報に基づいて、心筋 82の超音波画像 81上に計測点 84を配置する。計 測点 84は、心筋 82の左心室内膜 83に沿って配置される。
追跡部 14は、計測点 84を含む所定範囲の切り出し画像 85を設定する。
[0082] 図 14 (b)に示すように、追跡部 14は、記憶部 3から次のフレーム画像を読み出し、 表示部 12に超音波画像 86を表示する。超音波画像 86には心筋 87の画像が含まれ る。心筋 82は、組織の移動により心筋 87となる。心筋 82の左心室内膜 83は、心筋 8 7の左心室内膜 88に拡大する。
追跡部 14は、超音波画像 86において、切り出し画像 85と同一サイズの局所画像 8 9— 1、 89 - 2,…を順次抽出する。追跡部 14は、局所画像 89— 1、 89— 2、…と切 り出し画像 85との画像の一致度を算出する。画像の一致度の算出に関しては、例え ば、ブロックマッチング法等の画像相関処理を用いることができる。
[0083] 図 14 (c)に示すように、追跡部 14は、画像の一致度が最も高い局所画像 89の位 置(図 14 (c)では局所画像 89— 4)を選択する。追跡部 14は、選択した局所画像 89 の位置を移動後の計測点 91として算出する。追跡部 14は、超音波画像 86の心筋 8 7と重畳して計測点 91を表示する。計測点 91は、左心室内膜 83から拡大した左心 室内膜 88に沿って配置される。
[0084] 以上説明したように、第 6の実施形態によれば、超音波診断装置は、所定の時点の フレーム画像にっレ、て、過去の画像情報及び計測位置情報に基づレ、て計測点を設 定し、以降のフレーム画像については、画像の一致度に基づいて計測点を追跡する 。従って、計測位置を自動的に設定することができると共に、当該計測点を組織の動 きに応じて移動させて組織動態の計測を精度よく行うことができる。
[0085] 尚、追跡部 14による計測点の追跡に代えて、時系列が前後する各フレーム画像に ついて、第 1の実施形態〜第 4の実施形態等と同様の処理を行ってもよい。すなわち 、計測位置設定処理部 6は、過去の心筋の画像情報と過去の計測点情報に基づ!/、 て、各フレーム毎に計測点を設定するようにしてもよい。 [0086] (8.その他)
上述の各実施形態は、リアルタイムに表示される画像、シネメモリに蓄積された画像 、動画ファイル形式 (例えば、 AVI形式)で記憶装置に保存された画像等に適用可 能である。
[0087] 計測位置設定は、 ECG (Electrocardiogram)のある時相に合わせて 1心拍に 1 回または複数回のタイミング、操作部のフリーズボタンを押して画像取得を一旦停止 したタイミング、フリーズ後にシネメモリ内に保存したフレーム群からユーザが選択す るタイミング、記憶装置内の動画ファイルに保存したフレーム群からユーザが選択す るタイミング等で行うことができる。この場合、上記タイミングに合わせた画像情報を持 つデータベースに保持することが望ましい。
[0088] また、長軸断層像、短軸断層像、四腔断層像、二腔断層像への分類が可能である ので、ストレスエコーに適用する際に、操作者に代わって自動的に断層像の種類の 分類を行ってユーザの負担を軽減させる。さらに、データベースに心筋分画 (例えば 、 A E American society oi Echocardiographyリカ、推奨する分画リの位置を 保持しておき、これを設定位置として表示すれば、心筋の分画位置が一目で理解で き、操作者の操作を補助する機能となる。従って、操作者は超音波プローブを操作し て点数を付ける操作のみでよぐ画像分類の煩雑さが軽減され、操作手順(画像を取 得する順序等)の自由度が向上する。
[0089] 造影剤モードにおいては、 TIC (Time Intensity Curve)によって、ある組織の 輝度の時間変化を解析する。このとき、計測したい時間のフレームと対象組織の位置 を、フレーム毎にトラックボール等の入力機器を操作者が操作して設定する必要があ る。造影剤使用時のデータベースを保持しておけば、 自動的に輝度の計測位置が 設定されるので、操作者の負担が軽減される。
他にも、ドッブラ計測の際のウィンドウやストレイン計測の際の計測領域をデータべ ースに保持しておけば、これらの計測の自動化も同様に可能である。
[0090] (9.第 7の実施形態)
次に、図 15〜図 24を参照しながら第 7の実施形態について説明する。
(9 - 1.超音波診断装置の構成) 図 15を参照しながら、超音波診断装置 150の構成について説明する。 図 15は、超音波診断装置 150の構成図である。
超音波診断装置 150は、超音波の送受信を行う超音波プローブ 1と、超音波信号 から画像を生成する画像生成部 2と、この画像を保存する記憶領域である記憶部 3と 、操作者が入力機器を用いて装置の操作を行う操作部 4と、計測項目を設定する計 測項目設定部 5と、画像から輝度値を抽出する画像輝度抽出部 160と、断面認識処 理部 170と、棄却処理部 180と、計測位置を設定する計測位置設定処理部 6と、設 定した計測位置に基づいて計測計算を行う計測計算部 11と、計測位置や計測結果 を表示する表示部 12を備える。
[0091] 図 15の超音波プローブ 1、画像生成部 2、記憶部 3、操作部 4、計測項目設定部 5、 計測位置設定処理部 6、計測計算部 11、表示部 12は、図 1と同様のものであるので 説明を省略する。
[0092] 画像輝度抽出部 160は、画像内で心臓が描画されている範囲の輝度値を取り出す 装置である。
断面認識処理部 170は、画像輝度抽出部 160で得られた輝度値のパターンを用 いて、入力画像の断面種類を認識する装置である。
入力画像は、超音波プローブ 1及び画像生成部 2によって取得された画像の中か ら入力された画像である。尚、記憶部 3に記憶された画像を入力画像として用いるこ ともできる。
[0093] 断面認識処理部 170は、画像輝度データベース 171と、類似度計算部 172と、断 面種類判定部 173を備える。
画像輝度データベース 171は、標準断面画像の輝度値と断面種類をデータベース 化して保存する装置である。尚、画像輝度データベース 171については、後述する。 類似度計算部 172は、画像輝度抽出部 160で得られた輝度値と画像輝度データ ベース 171内の標準断面画像の輝度値との間の類似度を断面種類毎に計算する装 置である。類似度の計算結果は、スカラまたはベクトルで表示される。
断面種類判定部 173は、類似度計算部 172が計算した各断面種類についての類 似度を比較して最も類似している断面種類を判定する装置である。 [0094] 棄却処理部 180は、類似度計算部 172で得られた類似度等に基づいて、入力画 像の棄却を行う装置である。棄却処理部 180は、画像輝度統計量計算部 181と、類 似度差分計算部 182と、閾値設定部 183と、棄却判定部 184を備える。
画像輝度統計量計算部 181は、画像輝度抽出部 160で得られた輝度値の統計量 を計算する装置である。統計量は、例えば、標準統計量 (例えば、平均や分散)や 2 次のテクスチャ統計量である。
類似度差分計算部 182は、類似度計算部 172で計算された類似度について、最も 類似している標準断面画像の類似度と、次に類似している標準断面画像の類似度と の差分を計算する装置である。この類似度差分を用いて入力画像の断面種類があ V、ま!/、であるか否かが判定される。
[0095] 閾値設定部 183は、棄却処理を行うための閾値を設定する装置である。閾値設定 部 183は、画像輝度統計量計算部 181で得られる画像輝度統計量、類似度計算部 172で得られる類似度、類似度差分計算部 182で得られる類似度差分について、そ れぞれ、閾値を設定する。尚、デフォルト値を閾値として設定してもよいし、操作者が 入力機器を介して個別に設定してもよい。
棄却判定部 184は、画像輝度統計量計算部 181で得られる統計量、類似度計算 部 172で得られる類似度、類似度差分計算部 182で得られる類似度差分について、 閾値設定部 183で設定された閾値を用いて閾値処理を行い、入力画像を棄却する か否かを判定する装置である。
[0096] 尚、表示部 12は、例えば、断面種類判定部 173の結果や棄却判定部 184の結果 、断面種類の名称、類似度および類似度を示すグラフ、棄却及び入力画像再取得 の警告を表示する。
また、操作者は、表示部 12に表示された断面種類に誤りがある場合には、操作部 4 を介して手動で断面種類を設定することができる。
[0097] (9- 2.画像輝度データベース 171)
図 16は、画像輝度データベース 171が保持するレコードの一態様を示す図である 画像輝度データベース 171は、断面種類毎に標準断面画像に関する情報を保持 する。標準断面画像に関する情報は、輝度値や所定の処理が施された画像データ である。所定の処理は、例えば、部分空間法等のパターン認識処理による特徴抽出 処理や符号圧縮化処理である。尚、画像輝度データベース 171は、過去に取得した 画像をデータベース化して保持するようにしてもょレ、。
[0098] 図 16に示す画像輝度データベース 171は、断面種類 221及び標準断面画像情報 222及び計測項目 223及び計測位置 224を対応付けて保持する。断面種類 221は 、画像の種類を示す。断面種類 221は、例えば、「長軸」「短軸」「二腔」「四腔」である 。標準断面画像情報 222は、断面種類 221に属する標準断面画像に関する情報( 輝度値等)を示す。計測項目 223は、断面種類 221に対応する計測項目を示す。計 測位置 224は、計測位置に関する情報である。計測位置 224は、例えば、計測点や 計測領域や計測領域を示す輪郭点群を示す座標値である。
[0099] (9- 3.心臓描画の有無に基づく棄却処理)
図 17は、入力画像の画像輝度統計量に基づく棄却処理を示すフローチャートであ 超音波診断装置 150は、被検体の画像データである入力画像 220を取得して記憶 部 3に保持する。入力画像 220に関しては、超音波プローブ 1を用いて画像生成部 2 により生成された画像データを入力してもよいし、異なる医用画像診断装置により生 成された画像データを入力するようにしてもよいし、過去に取得して記憶部 3の例え ばノヽードディスク等に記憶しておいた画像データを入力するようにしてもよい。
[0100] 図 18は、表示部 12に表示される画面 228及び超音波画像 229を示す図である。
画像輝度抽出部 160は、入力画像 220の輝度値を抽出する(S5001)。尚、画像 輝度抽出部 160は、図 18の超音波画像 229における、プローブの視野角内全体の 輝度値を抽出してもよいし、超音波画像 229の一部の輝度値を抽出してもよい。 画像輝度統計量計算部 181は、 S 5001の処理で抽出した入力画像 220の輝度値 の統計量を計算する (S5002)。統計量は、標準統計量 (例えば、平均、分散、歪度 、尖度)や 2次テクスチャ統計量 (例えば、濃度共起行列の特徴量)である。
[0101] 心臓の超音波画像は、心腔及び心筋及び他の領域の輝度確率分布が混合した画 像である。心臓の超音波画像の画像輝度統計量は、特徴的な値を示す。超音波プロ ーブ 1が被検体の体表に接しておらず、入力画像 220に心臓の画像が描画されてい ない場合には、超音波画像に特有の統計量を得ることができず、ノイズに特有の統 計量が得られる。
[0102] 閾値設定部 183は、入力画像 220の画像輝度統計量に閾値を設定する(S5003) 。棄却判定部 184は、閾値処理を行い、入力画像 220に心臓の超音波画像が描画 されて!/、るか否か判定する (S5004)。
[0103] 棄却判定部 184が入力画像 220に心臓の超音波画像が描画されていないと判断 した場合(S5004の No)、表示部 12は、断面認識結果として入力画像 220を棄却し た旨を表示し、操作者に入力画像 220の再取得を促す(S5005)。
棄却判定部 184が入力画像 220に心臓の超音波画像が描画されていると判断した 場合(S5004の Yes)、図 19以降の処理へ移行する。
[0104] 以上の過程を経て、超音波診断装置 150は、入力画像 220の輝度値を抽出し、入 力画像 220の画像輝度統計量を計算し、この画像輝度統計量の閾値に基づレ、て入 力画像 220に心臓の超音波画像が描画されているか否か判定し、入力画像 220に 心臓の超音波画像が描画されていないと判定した場合には当該入力画像 220を棄 却し、操作者に入力画像 220の再取得を促す。
[0105] このように、入力画像の統計的性質が心臓の超音波画像の性質に合致するか否か を棄却基準とすることにより、操作者が正しくプローブを操作して心臓の超音波画像 を取得したか否かを判定することができる。また、この時点で入力画像を棄却すること により、当該入力画像について断面種類の認識処理を行う必要がない。従って、迅 速かつ効率的に処理を行うことができる。
[0106] 尚、操作者は、入力機器を用いて閾値を入力してもよいし、予め設定された初期値 を閾値として用いてもよい。
また、閾値を変化させることによって、棄却率及び誤認識率が変化する。棄却率が 高レヽ場合には誤認識率が低くなる力 S、少しでも標準断面画像からずれた画像に関し ては断面種類が認識されないので、操作性が悪化する。一方、棄却率が低い場合に は多少標準断面画像からずれた画像であっても断面種類が認識されるが、誤認識 率が高くなる。そこで、閾値に代えて棄却率や誤認識率を用いることにより、操作者 の操作感覚に適応させてもよい。この場合、閾値から推定される棄却率あるいは誤認 識率を表示してもよい。
[0107] (9-4.類似度に基づく棄却処理)
図 19は、類似度に基づく棄却処理を示すフローチャートである。
図 17の S5004の Yesに続レヽて、図 19の S6001以降の処理カ実 fiされる。
[0108] 類似度計算部 172は、断面種類毎に、入力画像 220と画像計測データベース 6が 保持する標準断面画像との類似度を計算する(S6001)。
閾値設定部 183は、類似度に閾値を設定する(S6002)。棄却判定部 184は、閾 値処理を行い、入力画像 220と類似する標準断面画像が存在するか否か判定する(
S6003)。
[0109] 棄却判定部 184が入力画像 220と類似する標準断面画像が存在しないと判定した 場合(S6003の No)、表示部 12は、断面認識結果として入力画像 220を棄却した旨 を表示し、操作者に入力画像 220の再取得を促す(S6004)。尚、操作者自身が入 力画像 220の断面種類を特定可能であれば、入力機器を介して手動操作により、入 力画像 220の断面種類を選択及び修正することができる(S6005)。
棄却判定部 184が入力画像 220と類似する標準断面画像が存在すると判定した 場合(S6003の Yes)、図 21以降の処理へ移行する。
[0110] 図 20は、入力画像 220と標準断面画像との類似度を断面種類毎に示す図である。
以下説明のため、類似度はスカラで算出され、類似度の値が大きいほど類似し、類 似度の値が小さレ、ほど類似しなレ、と定義する。
[0111] 図 20では、入力画像 220について、 PLA (傍胸骨長軸像)、 PSA (傍胸骨短軸像) 、 A2C (心尖部二腔像)、 A3C (心尖部長軸像)、 A4C (心尖部四腔像)の 5つの断 面種類の標準断面画像との間で類似度が計算されて点 231〜点 235がプロットされ る。点 231〜点 235が示す類似度は、全て、閾値設定部 183が設定した閾値「t」より 小さい。従って、上記 5つの断面種類の標準断面画像の中に入力画像 220と類似す る標準断面画像がなぐ棄却判定部 184は、入力画像 220の棄却を判定する(S600 3の No)。
[0112] 以上の過程を経て、超音波診断装置 150は、断面種類毎に、入力画像 220と画像 計測データベース 6が保持する標準断面画像との類似度を計算し、類似度の閾値に 基づいて、入力画像 220と類似する標準断面画像が存在するか否か判定し、入力画 像 220と類似する標準断面画像が存在しな!/、と判定した場合、断面認識結果として 入力画像 220を棄却した旨を表示し、操作者に入力画像 220の再取得を促す。
[0113] このように、心臓の超音波画像を取得したものの、計測に必要な断面種類でない場 合 (入力画像が全ての断面種類の標準断面画像からずれている場合)、入力画像を 棄却した上で、操作者に対して計測に必要な断面種類の入力画像の再取得を促し 、迅速かつ効率的に処理を行うことができる。
尚、閾値の設定は、類似度に閾値を設けてもよいし、棄却率あるいは誤認識率に 閾値を設定してもよい。
[0114] (9 5.類似度差分に基づく棄却処理)
図 21は、類似度差分に基づく棄却処理を示すフローチャートである。
図 19の S6003の Yesに続レヽて、図 21の S7001以降の処理カ実 fiされる。
[0115] 類似度差分計算部 182は、類似度計算部 172の結果を用いて、入力画像 220と最 も類似している標準断面画像の類似度と、次に類似している標準断面画像の類似度 との差分を計算する(S7001)。類似度差分は、入力画像 220が 2種類の標準断面 画像に類似して断面種類がぁレ、まレ、であるか否力、を示す指標である。
閾値設定部 183は、類似度差分に閾値を設定する(S7002)。棄却判定部 184は 、閾値処理を行い、入力画像 220の断面種類があいまいであるか否か判定する(S7 003)。
[0116] 棄却判定部 184が入力画像 220の断面種類があいまいであると判定した場合(S7 003の Yes)、表示部 12は、断面認識結果として入力画像 220を棄却した旨を表示 し、操作者に入力画像 220の再取得を促す(S 7004)。尚、操作者自身が入力画像 220の断面種類を特定可能であれば、入力機器を介して手動操作により、入力画像 220の断面種類を選択及び修正することができる(S7005)。
棄却判定部 184が入力画像 220の断面種類があ!/、ま!/、でな!/、と判定した場合(S7 003の No)、表示部 12は、断面認識結果として、入力画像 220の最終的な断面種 類や各断面種類の標準断面画像との間の類似度等を表示する(S7006)。 [0117] 図 22は、入力画像 220と標準断面画像との類似度を断面種類毎に示す図である。 図 22では、入力画像 220について、 PLA (傍胸骨長軸像)、 PSA (傍胸骨短軸像) 、 A2C (心尖部二腔像)、 A3C (心尖部長軸像)、 A4C (心尖部四腔像)の 5つの断 面種類の標準断面画像との間で類似度が計算されて点 241〜点 245がプロットされ る。点 245は最も類似度が大きぐ点 244は次に類似度が大きい。類似度差分計算 部 182は、点 244と点 245との類似度差分「A d」を計算する。棄却判定部 184は、類 似度差分「A d」が、閾値設定部 183が設定した閾値より小さい場合には、入力画像 220の断面種類があいまいであると判定し、当該入力画像 220を棄却する(S 7003 の Yes)。
[0118] 以上の過程を経て、超音波診断装置 150は、入力画像 220と最も類似している標 準断面画像の類似度と、次に類似している標準断面画像の類似度との差分を計算し 、この類似度差分の閾値に基づいて、入力画像 220の断面種類があいまいであるか 否か判定し、入力画像 220の断面種類があいまいであると判定した場合、断面認識 結果として入力画像 220を棄却した旨を表示し、操作者に入力画像 220の再取得を 促す。
[0119] このように、心臓の超音波画像を取得し、入力画像が 2種類の標準断面画像に類 似するあいまいな画像である場合、入力画像を棄却した上で、操作者に対して計測 に必要な断面種類の入力画像の再取得を促し、迅速かつ効率的に処理を行うことが できる。
尚、閾値の設定は、類似度差分に閾値を設けてもよいし、棄却率あるいは誤認識 率に閾値を設定してもよい。
[0120] (9- 6.画面表示)
図 23は、表示部 12が表示する画面 250の一態様を示す図である。
画面 250には、超音波画像 251が表示される。超音波画像 251には、 A4C像(心 尖部四腔像)が描画される。
断面種類表示 252には、断面認識結果が表示される。断面種類表示 252には、例 えば、「A4C」が表示される。尚、入力画像 220が棄却された場合には、断面種類表 示 252には、例えば、「棄却」が表示される。 類似度表示 253には、断面種類毎に類似度が表示される。図 23では、「A4C」の 類似度が「40」であり、最も類似度の値が大き!/、 (最も類似する)。
グラフ表示 254には、類似度表示 253の内容がグラフ化されて表示される。これに より、入力画像 220がどの断面種類の標準断面画像に類似している力、を視覚的に把 提すること力 Sでさる。
[0121] 断面認識処理を行うタイミングに制限はなぐ例えば、 ECG (Electrocardiogram) の R波毎に断面認識処理を行う場合、断面種類表示 252、類似度表示 253、グラフ 表示 254は、 R波毎に更新される。操作者は、これらの表示を見ながら、超音波プロ ーブ 1の位置や角度を調整して、計測対象の断面種類の画像を描画することができ
[0122] (9- 7.計測位置設定)
図 24は、表示部 12における画面 260及び画面 264を示す図である。
図 24 (a)に示すように、画面 260にお!/、て、操作者が計測項目 261として「項目 A」 を選択すると、当該計測項目に対応する計測点 263が超音波画像 262と重畳して表 示される。
図 24 (b)に示すように、画面 264において、操作者が計測項目 265として「項目 B」 を選択すると、当該計測項目に対応する計測領域 267が超音波画像 266と重畳して 表示される。
[0123] 尚、計測項目設定部 5は、計測項目を設定し、計測位置設定処理部 6は、画像輝 度データベース 171の断面種類 221及び計測項目 223及び計測位置 224に基づい て、計測点 263や計測領域 267の設定を行う。計測計算部 11は、設定された計測点 263や計測領域 267につ!/、て計測を行!/ \計測計算結果を表示部 12に表示する。
[0124] このように、超音波診断装置 150は、断面認識処理により認識された断面種類に応 じた計測メニューを構築することができる。例えば、入力画像の断面種類が「PSA (傍 胸骨短軸像)」と認識されれば、「PSA (傍胸骨短軸像)」で使用する計測メニューだ けに絞り込むことにより、計測項目を選択する手間を軽減することができる。
[0125] (9- 8.第 7の実施形態の効果)
以上説明したように、第 7の実施形態によれば、超音波診断装置 150は、入力画像 の画像輝度統計量、入力画像と標準断面画像との類似度、入力画像と 2つの標準断 面画像についての類似度差分を算出し、これらの画像輝度統計量及び類似度及び 類似度差分にっレ、て閾値や棄却率や誤認識率を設定して棄却処理を行うので、計 測に必要な断面種類の入力画像を迅速かつ効率的に取得することができる。
[0126] 従来、ストレスエコー検査において、複数の断面種類の入力画像を撮像する場合 には、断面種類毎に撮像順序を事前に決定する必要がある。一方、本発明の超音 波診断装置 150は、入力画像の断面種類を自動的に認識して振り分けて分類する ので、撮像順序が自由であり、設定の手間が軽減され操作性を向上させることができ
[0127] (10.第 8の実施形態)
次に、図 25〜図 27を参照しながら、第 8の実施形態について説明する。 図 25は、類似度に基づく棄却処理を示すフローチャートである。
図 17の S5004の Yesに続レヽて、図 25の S8001以降の処理カ実 fiされる。
第 7の実施形態(図 19)では、画像輝度データベース 171が保持する全ての断面 種類を分類対象としたが、第 8の実施形態(図 25)では、計測項目に基づいて分類 対象とする断面種類が決定される。
[0128] 超音波診断装置 150は、計測項目設定部 5により計測項目の入力を受け付ける(S
8001)。超音波診断装置 150は、画像輝度データベース 171を参照して、計測項目 223に対応する断面種類 221を抽出し、抽出した断面種類 221を分類対象とする(S
8002)。
S8003〜S8007の処理は、図 19の S600;!〜 S6005の処理と同様である。
[0129] 図 26は、心臓の断面種類を示す図である。
図 27は、計測項目及び分類対象を示す図である。
図 26の心臓 270には、標準断面画像 271 (四腔)、標準断面画像 272 (二腔)、標 準断面画像 273 (長軸)、標準断面画像 274 (基部短軸)、標準断面画像 275 (中部 短軸)、標準断面画像 276 (尖部短軸)の 6種類の標準断面画像が設定される。 図 27に示すように、超音波診断装置 150は、計測項目 281 (計測項目 A)が設定さ れると、標準断面画像 271〜標準断面画像 276が属する 6種類の断面種類を分類 対象とし、計測項目 283 (計測項目 B)が設定されると、標準断面画像 271〜標準断 面画像 273が属する 3種類の断面種類を分類対象とする。
[0130] このように、第 8の実施形態では、計測項目に基づいて入力画像の分類数を可変と すること力 Sできる。計測項目に応じて必要な分類数、例えば、計測メニューを絞り込 むために、「PLA (傍胸骨長軸像)」「PSA (傍胸骨短軸像)」「A3C (心尖部長軸像) 」の 3種類に分類することにより、 4種類以上に分類するよりも認識率を向上させること ができ、計測操作における操作性を向上させることができる。
[0131] (11.その他)
超音波診断装置 150は、入力画像の画像輝度統計量(図 17)及び類似度(図 19) 及び類似度差分(図 21)に基づいて棄却処理を行うものとして説明したが、適宜選択 して組み合わせて棄却処理を行うことも当然可能である。尚、断面認識処理における 誤認識を防止するには、入力画像の画像輝度統計量(図 17)及び類似度(図 19)及 び類似度差分(図 21 )の全てに基づレ、て棄却処理を行うことが望まし!/、。
また、超音波診断装置が撮像した入力画像について、リアルタイムで断面認識処 理及び棄却処理を実行するものとして説明したが、超音波診断装置が撮像した画像 を動画像形式で保存し、オフラインで断面認識処理及び棄却処理を実行してもよ!/、
[0132] 以上、添付図面を参照しながら、本発明に係る医用画像診断装置の好適な実施形 態について説明した力 本発明は力、かる例に限定されない。当業者であれば、本願 で開示した技術的思想の範疇内にお!/、て、各種の変更例または修正例に想到し得 ることは明らかであり、それらにつ!/、ても当然に本発明の技術的範囲に属するものと 了解される。

Claims

請求の範囲
[1] 被検体の画像情報を取得する画像情報取得手段と、前記画像情報取得手段によ つて取得された画像情報を表示する表示部と、前記表示部に表示された画像情報に 基づいて計測計算を行う計測計算手段と、を備える医用画像診断装置において、 過去に取得した画像情報と当該画像情報に対して設定された過去の計測位置情 報とを対応付けて保持する記憶手段と、
入力画像情報と最も類似した過去の画像情報を認識して選択する画像選択手段と 前記画像選択手段によって選択された過去の画像情報に対応する過去の計測位 置情報に基づレ、て、前記入力画像情報に対して計測位置を設定する計測位置設定 手段と、
を具備することを特徴とする医用画像診断装置。
[2] 前記画像選択手段は、前記入力画像情報と前記記憶手段に保持される全ての過 去の画像情報との間で画像認識計算を行うことを特徴とする請求項 1に記載の医用 画像診断装置。
[3] 前記記憶手段には、計測項目毎に前記計測位置が保持され、
前記計測項目を選択する選択手段を備え、前記計測位置設定手段は、選択され た計測項目に対応した前記計測位置を読み出し、前記計測位置を設定することを特 徴とする請求項 1に記載の医用画像診断装置。
[4] 前記記憶手段には、カテゴリ毎に前記過去の画像情報が分類されると共に前記力 テゴリを代表する代表画像情報が保持され、
前記画像選択手段は、前記入力画像情報と前記記憶手段に保持される前記代表 画像情報との間で画像認識計算を行って前記入力画像情報のカテゴリを決定し、前 記入力画像情報と前記決定されたカテゴリに属する過去の画像情報との間で画像認 識計算を行うことを特徴とする請求項 1に記載の医用画像診断装置。
[5] 前記記憶手段には、過去の計測条件情報が過去の画像情報に対応付けて保持さ れ、
入力計測条件情報と前記記憶手段に保持される過去の計測条件情報との間で計 測条件認識計算を行って前記入力計測条件情報と最も類似した過去の計測条件を 認識して選択する計測条件選択手段を具備し、
前記計測位置設定手段は、前記計測条件選択手段によって選択された過去の計 測条件情報に対応する過去の計測位置情報に基づレ、て、前記計測位置を設定する ことを特徴とする請求項 1に記載の医用画像診断装置。
[6] 前記入力画像情報の画像特徴量に基づいて、前記計測位置設定手段によって設 定された計測位置の適否を評価する計測位置評価手段と、
前記計測位置評価手段によって、前記設定された計測位置が適正でな!/、と判断さ れた場合、前記入力画像情報の画像特徴量に基づいて、前記設定された計測位置 を補正する計測位置補正手段と、
を具備することを特徴とする請求項 1に記載の医用画像診断装置。
[7] 前記入力画像情報に設定された計測位置近傍においてエッジ強度を算出し、前記 算出されたエッジ強度が最大の位置に前記設定された計測位置を補正する計測位 置補正手段を具備することを特徴とする請求項 1に記載の医用画像診断装置。
[8] 前記入力画像情報に設定された計測位置周辺の画像情報と前記過去の計測位置 情報が示す計測位置周辺の画像情報との間の変位に基づいて前記設定された計測 位置を補正する計測位置補正手段を具備することを特徴とする請求項 1に記載の医 用画像診断装置。
[9] 前記計測位置設定手段によって設定された計測位置に基づいて関心領域を設定 する関心領域設定手段を具備することを特徴とする請求項 1に記載の医用画像診断 装置。
[10] 前記入力画像情報から前記計測位置設定手段によって設定された計測位置を含 む所定範囲の画像部位を選択し、当該画像部位の動きを追跡することにより前記設 定された計測位置を移動させる計測位置追跡手段を具備することを特徴とする請求 項 1に記載の医用画像診断装置。
[11] 前記画像選択手段による画像認識が成功した場合、前記入力画像情報に関する 画像認識結果を前記表示部に表示させる画像認識結果表示手段を具備することを 特徴とする請求項 1に記載の医用画像診断装置。
[12] 前記画像選択手段による画像認識が失敗した場合、警告処理または前記入力画 像情報の再入力処理の少なくともいずれかを実行する警告処理手段を具備すること を特徴とする請求項 1に記載の医用画像診断装置。
[13] 前記入力画像情報と当該入力画像情報に対して設定された計測位置とを前記記 憶手段に登録して更新する計測位置更新手段を具備することを特徴とする請求項 1 に記載の医用画像診断装置。
[14] 前記記憶手段は、過去に取得した複数の断面画像の輝度情報と断面種類とを対 応付けて保持し、
前記画像取得手段で取得された画像の中から入力された入力画像と前記記憶部 が保持する前記複数の断面画像との間の類似度を計算する類似度計算手段と、 前記入力画像と最も類似する断面画像との間の類似度と前記入力画像と他の断面 画像との間の類似度との差分である類似度差分を計算する類似度差分計算手段と、 前記類似度及び前記類似度差分に対して閾値処理を行って前記入力画像の棄却 判定を行う棄却判定手段と、
を具備することを特徴とする請求項 1に記載の医用画像診断装置。
[15] 前記入力画像の輝度統計量を計算する画像輝度統計量計算手段を具備し、 前記棄却判定手段は、前記入力画像の輝度統計量に対して閾値処理を行って前 記入力画像の棄却判定を行うことを特徴とする請求項 14に記載の医用画像診断装 置。
[16] 前記棄却判定における棄却率を設定する棄却率設定手段を具備し、
前記棄却判定手段は、前記棄却率設定手段によって設定された棄却率に対応す る閾値を用いて閾値処理を行って、前記入力画像の棄却判定を行うことを特徴とす る請求項 14に記載の医用画像診断装置。
[17] 計測項目を設定する計測項目設定手段と、
前記計測項目設定手段によって設定された計測項目に基づ!/、て分類対象とする 断面種類を決定する分類対象決定手段と、
を具備することを特徴とする請求項 14に記載の医用画像診断装置。
[18] 前記入力画像に最も類似する断面画像の断面種類に前記入力画像を分類する分 類手段を具備することを特徴とする請求項 14に記載の医用画像診断装置。
[19] 被検体の画像情報を表示し、前記表示した画像情報に基づいて計測計算を行う医 用画像計測方法において、
過去に取得した画像情報と当該画像情報に対して設定された過去の計測位置情 報とを対応付けて記憶装置に保持するステップと、
入力画像情報と最も類似した過去の画像情報を認識して選択する画像選択ステツ プと、
前記画像認識ステップによって選択された過去の画像情報に対応する過去の計測 位置情報に基づ!/、て、前記入力画像情報に対して計測位置を設定する計測位置設 を具備することを特徴とする医用画像計測方法。
[20] 被検体の画像情報を取得し、前記取得した画像情報を表示し、前記表示した画像 情報に基づいて計測計算をコンピュータに実行させる医用画像計測プログラムにお いて、
過去に取得した画像情報と当該画像情報に対して設定された過去の計測位置情 報とを対応付けて記憶装置に保持するステップと、
入力画像情報と最も類似した過去の画像情報を認識して選択する画像選択ステツ プと、
前記画像認識ステップによって選択された過去の画像情報に対応する過去の計測 位置情報に基づ!/、て、前記入力画像情報に対して計測位置を設定する計測位置設 をコンピュータに実行させることを特徴とする医用画像計測プログラム。
PCT/JP2007/068156 2006-10-10 2007-09-19 appareil de diagnostic d'images médicales, procédé de mesure d'images médicales et programme de mesure d'images médicales Ceased WO2008044441A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US12/445,088 US20100036248A1 (en) 2006-10-10 2007-09-19 Medical image diagnostic apparatus, medical image measuring method, and medicla image measuring program
JP2008538614A JP4934143B2 (ja) 2006-10-10 2007-09-19 医用画像診断装置、医用画像計測方法
EP07807542.1A EP2072013A4 (en) 2006-10-10 2007-09-19 MEDICAL PICTURE DIAGNOSTIC DEVICE, MEDICAL IMAGING METHOD AND MEDICAL PICTURE MEASUREMENT PROGRAM
CN200780037719.0A CN101522107B (zh) 2006-10-10 2007-09-19 医用图像诊断装置、医用图像测量方法、医用图像测量程序

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006275956 2006-10-10
JP2006-275956 2006-10-10
JP2006287085 2006-10-23
JP2006-287085 2006-10-23
JP2007-067967 2007-03-16
JP2007067967 2007-03-16

Publications (1)

Publication Number Publication Date
WO2008044441A1 true WO2008044441A1 (fr) 2008-04-17

Family

ID=39282649

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/068156 Ceased WO2008044441A1 (fr) 2006-10-10 2007-09-19 appareil de diagnostic d'images médicales, procédé de mesure d'images médicales et programme de mesure d'images médicales

Country Status (5)

Country Link
US (1) US20100036248A1 (ja)
EP (1) EP2072013A4 (ja)
JP (1) JP4934143B2 (ja)
CN (1) CN101522107B (ja)
WO (1) WO2008044441A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009072593A (ja) * 2007-09-18 2009-04-09 Siemens Medical Solutions Usa Inc 3次元心臓エコーグラフデータからの平面の自動検出方法
WO2010116965A1 (ja) * 2009-04-06 2010-10-14 株式会社 日立メディコ 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
EP2189807A3 (en) * 2008-11-19 2010-12-08 Medison Co., Ltd. Finding a standard view corresponding to an acquired ultrasound image
JP2010279408A (ja) * 2009-06-02 2010-12-16 Toshiba Medical Systems Corp 超音波診断装置
JP2011078625A (ja) * 2009-10-08 2011-04-21 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
WO2014050574A1 (ja) * 2012-09-25 2014-04-03 株式会社 東芝 超音波診断装置、及び、医用画像処理装置
WO2014171159A1 (ja) * 2013-04-18 2014-10-23 日立アロカメディカル株式会社 医療画像処理装置
WO2016194161A1 (ja) * 2015-06-03 2016-12-08 株式会社日立製作所 超音波診断装置、及び画像処理方法
JPWO2014155825A1 (ja) * 2013-03-29 2017-02-16 株式会社日立製作所 医療用診断装置およびその計測方法
KR20170074603A (ko) * 2015-12-22 2017-06-30 삼성메디슨 주식회사 초음파 영상들을 디스플레이하는 방법 및 장치.
JP2017136354A (ja) * 2016-01-29 2017-08-10 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム。
WO2019163225A1 (ja) * 2018-02-23 2019-08-29 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP2020175186A (ja) * 2019-04-18 2020-10-29 キヤノンメディカルシステムズ株式会社 超音波診断装置及びプログラム
JP2021076585A (ja) * 2019-11-06 2021-05-20 日本メジフィジックス株式会社 疾患データベースとの関連性を用いた診断補助技術
JP2022123698A (ja) * 2021-02-12 2022-08-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及びプログラム
KR102696140B1 (ko) * 2023-07-14 2024-08-16 연세대학교 산학협력단 인공지능 모델 이용 서비스 제공 방법 및 이를 수행하는 서버

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160206292A1 (en) * 2008-08-05 2016-07-21 Guardsman Scientific, Inc. Systems and methods for managing a patient
US20220370041A1 (en) * 2008-08-05 2022-11-24 Guardsman Scientific, Inc. Systems and methods for managing a patient
JP5366678B2 (ja) * 2009-06-25 2013-12-11 株式会社東芝 3次元超音波診断装置及びプログラム
US8740796B2 (en) * 2010-02-10 2014-06-03 Konica Minolta, Inc. Ultrasonic diagnostic device, and method for measuring intima-media thickness
JP5846755B2 (ja) * 2010-05-14 2016-01-20 株式会社東芝 画像診断装置及び医用画像表示装置
WO2011158352A1 (ja) * 2010-06-16 2011-12-22 株式会社ナビタイムジャパン ナビゲーションシステム、端末装置、ナビゲーションサーバ、ナビゲーション装置、ナビゲーション方法、および、プログラム
JP5209026B2 (ja) * 2010-10-27 2013-06-12 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
JP5294340B2 (ja) 2010-10-27 2013-09-18 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
CN102151151B (zh) * 2011-04-14 2012-09-26 武汉超信电子工程有限公司 具有机器参数校正功能的超声诊断仪
KR101323329B1 (ko) * 2011-11-22 2013-10-29 삼성메디슨 주식회사 초음파 영상 표시 방법 및 초음파 영상 표시 장치
KR101446780B1 (ko) * 2012-06-01 2014-10-01 삼성메디슨 주식회사 초음파 영상과 초음파 영상에 관련된 정보를 디스플레이하기 위한 방법 및 장치
US8897532B2 (en) * 2012-07-11 2014-11-25 General Electric Company Systems and methods for performing image type recognition
JP5892656B2 (ja) * 2012-07-17 2016-03-23 富士通株式会社 描画処理プログラム、描画処理方法及び描画処理装置
JP6139186B2 (ja) * 2013-03-11 2017-05-31 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理プログラム
KR20150082945A (ko) * 2014-01-08 2015-07-16 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작방법
WO2015139267A1 (zh) 2014-03-20 2015-09-24 深圳迈瑞生物医疗电子股份有限公司 自动识别测量项的方法、装置及一种超声成像设备
US20170273666A1 (en) * 2014-09-24 2017-09-28 Jiajiu Yang Method for storing ultrasonic scan image and ultrasonic device
WO2017158998A1 (ja) * 2016-03-14 2017-09-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
US10675004B2 (en) * 2016-07-20 2020-06-09 Fujifilm Sonosite, Inc. Ultrasound imaging apparatus with image selector
WO2018026738A1 (en) 2016-08-01 2018-02-08 Bhaskar Ramamurthy Ultrasound guided opening of blood-brain barrier
US10467202B2 (en) 2017-07-21 2019-11-05 Bank Of America Corporation System for multi-release and parallel development of a database
JP6875541B2 (ja) 2017-10-17 2021-05-26 富士フイルム株式会社 音響波診断装置および音響波診断装置の制御方法
EP3823534B1 (en) * 2018-07-18 2025-11-05 Koninklijke Philips N.V. Acquisition workflow and status indicators in a handheld medical scanning device
JP7188450B2 (ja) * 2018-11-05 2022-12-13 株式会社島津製作所 X線撮像装置
US11969291B2 (en) * 2019-04-18 2024-04-30 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and ultrasonic diagnostic method
US10957444B2 (en) * 2019-05-06 2021-03-23 Wisconsin Alumni Research Foundation Apparatus for tomography repeat rate/reject rate capture
CN113974686B (zh) * 2021-12-03 2024-12-17 深圳迈瑞动物医疗科技股份有限公司 一种超声成像设备
CN116596919B (zh) * 2023-07-11 2023-11-07 浙江华诺康科技有限公司 内镜图像质控方法、装置、系统、计算机设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005173A (ja) * 1998-06-24 2000-01-11 Ge Yokogawa Medical Systems Ltd 超音波撮像方法および装置
JP2002140689A (ja) 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2002306481A (ja) * 2001-04-17 2002-10-22 Olympus Optical Co Ltd 超音波画像処理装置
JP2004174220A (ja) * 2002-10-01 2004-06-24 Japan Science & Technology Agency 画像処理装置、画像処理方法、及び当該画像処理方法をコンピュータに実行させるプログラムを格納する記録媒体
JP2004229924A (ja) * 2003-01-30 2004-08-19 Aloka System Engineering Co Ltd 超音波診断システム、超音波診断装置及び画像データ処理装置
JP2004290404A (ja) * 2003-03-27 2004-10-21 Ge Medical Systems Global Technology Co Llc 超音波撮像方法および超音波診断装置
JP2005193017A (ja) * 2003-12-15 2005-07-21 General Electric Co <Ge> 乳房患部分類の方法及びシステム
JP2005224465A (ja) 2004-02-16 2005-08-25 Aloka Co Ltd 超音波診断装置
JP2005348807A (ja) * 2004-06-08 2005-12-22 Shimadzu Corp 超音波診断装置
JP2006000127A (ja) * 2004-06-15 2006-01-05 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006122686A (ja) * 2004-10-28 2006-05-18 Sonosite Inc 超音波血管測定装置および方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2603144B2 (ja) * 1990-01-17 1997-04-23 富士写真フイルム株式会社 画像ファイリング装置
JP3026712B2 (ja) * 1993-12-09 2000-03-27 キヤノン株式会社 画像検索方法及びその装置
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
JP4167162B2 (ja) * 2003-10-14 2008-10-15 アロカ株式会社 超音波診断装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005173A (ja) * 1998-06-24 2000-01-11 Ge Yokogawa Medical Systems Ltd 超音波撮像方法および装置
JP2002140689A (ja) 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2002306481A (ja) * 2001-04-17 2002-10-22 Olympus Optical Co Ltd 超音波画像処理装置
JP2004174220A (ja) * 2002-10-01 2004-06-24 Japan Science & Technology Agency 画像処理装置、画像処理方法、及び当該画像処理方法をコンピュータに実行させるプログラムを格納する記録媒体
JP2004229924A (ja) * 2003-01-30 2004-08-19 Aloka System Engineering Co Ltd 超音波診断システム、超音波診断装置及び画像データ処理装置
JP2004290404A (ja) * 2003-03-27 2004-10-21 Ge Medical Systems Global Technology Co Llc 超音波撮像方法および超音波診断装置
JP2005193017A (ja) * 2003-12-15 2005-07-21 General Electric Co <Ge> 乳房患部分類の方法及びシステム
JP2005224465A (ja) 2004-02-16 2005-08-25 Aloka Co Ltd 超音波診断装置
JP2005348807A (ja) * 2004-06-08 2005-12-22 Shimadzu Corp 超音波診断装置
JP2006000127A (ja) * 2004-06-15 2006-01-05 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006122686A (ja) * 2004-10-28 2006-05-18 Sonosite Inc 超音波血管測定装置および方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
M. KASS ET AL.: "Snakes: Active Contour Models", INTERNATIONAL JOURNAL OF COMPUTER VISION, 1988, pages 321 - 331, XP000675014, DOI: doi:10.1007/BF00133570
See also references of EP2072013A4

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009072593A (ja) * 2007-09-18 2009-04-09 Siemens Medical Solutions Usa Inc 3次元心臓エコーグラフデータからの平面の自動検出方法
EP2189807A3 (en) * 2008-11-19 2010-12-08 Medison Co., Ltd. Finding a standard view corresponding to an acquired ultrasound image
KR101051567B1 (ko) * 2008-11-19 2011-07-22 삼성메디슨 주식회사 표준 단면 정보를 제공하는 초음파 시스템 및 방법
US8913816B2 (en) 2009-04-06 2014-12-16 Hitachi Medical Corporation Medical image dianostic device, region-of-interest setting method, and medical image processing device
WO2010116965A1 (ja) * 2009-04-06 2010-10-14 株式会社 日立メディコ 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
JP5645811B2 (ja) * 2009-04-06 2014-12-24 株式会社日立メディコ 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
JP2010279408A (ja) * 2009-06-02 2010-12-16 Toshiba Medical Systems Corp 超音波診断装置
JP2011078625A (ja) * 2009-10-08 2011-04-21 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
WO2014050574A1 (ja) * 2012-09-25 2014-04-03 株式会社 東芝 超音波診断装置、及び、医用画像処理装置
JPWO2014155825A1 (ja) * 2013-03-29 2017-02-16 株式会社日立製作所 医療用診断装置およびその計測方法
US9913625B2 (en) 2013-03-29 2018-03-13 Hitachi, Ltd. Medical diagnosis device and measurement method thereof
WO2014171159A1 (ja) * 2013-04-18 2014-10-23 日立アロカメディカル株式会社 医療画像処理装置
JPWO2014171159A1 (ja) * 2013-04-18 2017-02-16 株式会社日立製作所 医療画像処理装置
WO2016194161A1 (ja) * 2015-06-03 2016-12-08 株式会社日立製作所 超音波診断装置、及び画像処理方法
JPWO2016194161A1 (ja) * 2015-06-03 2018-03-01 株式会社日立製作所 超音波診断装置、及び画像処理方法
KR20170074603A (ko) * 2015-12-22 2017-06-30 삼성메디슨 주식회사 초음파 영상들을 디스플레이하는 방법 및 장치.
KR102656542B1 (ko) 2015-12-22 2024-04-12 삼성메디슨 주식회사 초음파 영상들을 디스플레이하는 방법 및 장치.
JP2017136354A (ja) * 2016-01-29 2017-08-10 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム。
JPWO2019163225A1 (ja) * 2018-02-23 2021-02-04 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
US11812920B2 (en) 2018-02-23 2023-11-14 Fujifilm Corporation Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
WO2019163225A1 (ja) * 2018-02-23 2019-08-29 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP2020175186A (ja) * 2019-04-18 2020-10-29 キヤノンメディカルシステムズ株式会社 超音波診断装置及びプログラム
JP7446139B2 (ja) 2019-04-18 2024-03-08 キヤノンメディカルシステムズ株式会社 超音波診断装置及びプログラム
JP2021076585A (ja) * 2019-11-06 2021-05-20 日本メジフィジックス株式会社 疾患データベースとの関連性を用いた診断補助技術
JP7576417B2 (ja) 2019-11-06 2024-10-31 日本メジフィジックス株式会社 疾患データベースとの関連性を用いた診断補助技術
JP2022123698A (ja) * 2021-02-12 2022-08-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP7697795B2 (ja) 2021-02-12 2025-06-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及びプログラム
KR102696140B1 (ko) * 2023-07-14 2024-08-16 연세대학교 산학협력단 인공지능 모델 이용 서비스 제공 방법 및 이를 수행하는 서버

Also Published As

Publication number Publication date
JP4934143B2 (ja) 2012-05-16
EP2072013A4 (en) 2014-12-03
CN101522107B (zh) 2014-02-05
EP2072013A1 (en) 2009-06-24
US20100036248A1 (en) 2010-02-11
JPWO2008044441A1 (ja) 2010-02-04
CN101522107A (zh) 2009-09-02

Similar Documents

Publication Publication Date Title
JP4934143B2 (ja) 医用画像診断装置、医用画像計測方法
US9514531B2 (en) Medical image diagnostic device and method for setting region of interest therefor
US8343053B2 (en) Detection of structure in ultrasound M-mode imaging
US8073215B2 (en) Automated detection of planes from three-dimensional echocardiographic data
US9924927B2 (en) Method and apparatus for video interpretation of carotid intima-media thickness
CN102056547B (zh) 医用图像处理装置及医用图像处理方法
US9125622B2 (en) Diagnosis assisting apparatus, coronary artery analyzing method and recording medium having a coronary artery analyzing program stored therein
EP2965263B1 (en) Multimodal segmentation in intravascular images
TWI473598B (zh) Breast ultrasound image scanning and diagnostic assistance system
KR102325346B1 (ko) 의료 영상 진단 장치 및 방법
CN110584714A (zh) 超声融合成像方法、超声装置及存储介质
WO2017206023A1 (zh) 一种心脏容积识别分析系统和方法
US11069059B2 (en) Prenatal ultrasound imaging
JP5558727B2 (ja) 超音波診断装置および超音波診断装置のデータ処理プログラム
US20250094539A1 (en) Robust view classification and measurement in ultrasound imaging
Xiao et al. A rapid ultrasound vascular disease screening method using PauTa Criterion
CN114202504B (zh) 颈动脉超声自动多普勒方法、超声设备及存储介质
US20060100518A1 (en) Automated diastolic function analysis with ultrasound
US20240078664A1 (en) Ultrasonic imaging apparatus and program
CN115337039A (zh) 超声波诊断装置以及诊断辅助方法
CN120189161A (zh) 一种超声成像系统和超声图像显示方法
CN117100318A (zh) 一种超声探头导航方法、系统、介质及设备
Kakadiaris et al. Quo vadis cardiovascular informatics?

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780037719.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07807542

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008538614

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007807542

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12445088

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE