WO2019143179A1 - Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same - Google Patents
Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same Download PDFInfo
- Publication number
- WO2019143179A1 WO2019143179A1 PCT/KR2019/000761 KR2019000761W WO2019143179A1 WO 2019143179 A1 WO2019143179 A1 WO 2019143179A1 KR 2019000761 W KR2019000761 W KR 2019000761W WO 2019143179 A1 WO2019143179 A1 WO 2019143179A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- interest
- image
- same
- region
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Definitions
- the present invention relates to a method for detecting a region of interest between images photographed with a time interval for the same subject, and an apparatus using the same. Specifically, according to the method of the present invention, when a second image photographed at a time interval from the time of photographing of the first image and the second image is obtained, and a region of interest is set on the first image, And detects the same area of interest as the area of interest as the area of interest as the area of interest in the second image.
- CT computed tomography
- lesions are characterized by progressive characteristics, that is, shape and size depending on time. Therefore, it is difficult to know whether the lesion is the same lesion only by simple matching and comparison, and thus it is difficult to automate.
- a method of learning a deep learning model using pairs of lesions photographed at different viewpoints and determining a pair of lesions with the same degree of similarity or higher by measuring the similarity of newly given lesion pairs And propose a device using the same.
- Patent Document 1 US7660448 B
- Non-Patent Document 1 Goodfellow, Ian J .; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"
- Non-Patent Document 2 Dmitriy Serdyuk et al. Twin Networks: Matching the Future for Sequence Generation, arXiv preprint arXiv: 1708.06742v2
- the present invention aims to enable detection of the same area of interest, especially lesion, between different images.
- the present invention aims at performing measurement and tracking observation of the shape and quantitative change of the area of interest through quantification of the same area of interest.
- a method for detecting the same area of interest between images photographed for the same subject wherein the time from the shooting of the first image and the first image If a second image photographed at intervals is obtained and a region of interest is set on the first image, the computing device may detect in the second image the same area of interest as the area of interest as a region of interest, Thereby enabling other interlocked devices to be detected.
- the method further comprises: (a) supporting the computing device to acquire or acquire the first and second images; (b) supporting the computing device to set or set a search area corresponding to a region of interest designated on the acquired first image to the second image; And (c) supporting the computing device to search for or retrieve at least one candidate image that is the same or similar to the region of interest within the set search subject area, thereby selecting one of the at least one candidate image To the same area of interest.
- a computer program stored in a machine readable non-transitory medium, comprising instructions embodied to perform the method of detecting a region of interest in accordance with the present invention.
- a computing device for detecting the same area of interest between images photographed for the same subject, the computing device comprising: a first image and a time interval A communication unit for acquiring a second image photographed by the photographing unit; And when the first image and the second image are acquired and a region of interest is set on the first image, the same region of interest as the region of interest is detected as the same region of interest as the same region of interest, And to enable other devices to be detected.
- the processor is configured to set or otherwise set the search object zone corresponding to the region of interest designated on the acquired first image to the second image or to set the other device in the set search region To support the detection or detection of any one of the at least one candidate image selected according to a predetermined criterion in the same area of interest by assisting in searching or retrieving at least one candidate image that is the same as or similar to the region of interest.
- the present invention it is possible to determine one or more regions of interest in one image, particularly the same region of interest in another image, for each of the lesions.
- the present invention can be applied to a medical image used in a hospital, for example, a three-dimensionally acquired ultrasound image, an MRI image, and the like, and the method of the present invention is not dependent on a specific type of image or platform Of course not.
- FIG. 1 schematically shows an exemplary configuration of a computing device that performs a method for detecting the same area of interest between images photographed for the same subject in accordance with the present invention It is a conceptual diagram.
- FIG. 2 is an exemplary block diagram illustrating the hardware or software components of a computing device that performs the method of detecting a region of interest in accordance with the present invention.
- Figure 3 is a flow diagram illustrating an exemplary method of detecting a region of interest in accordance with the present invention.
- FIG. 4 is a conceptual diagram illustrating a calculation method of the degree of similarity used in the method of detecting the same area of interest according to the present invention.
- Figure 5 is an exemplary illustration of regions of interest detected in accordance with the present invention.
- image refers to multidimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image and voxels in a three- Quot;
- imaging may be computed by (cone-beam) computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art I.e., a medical image of a subject.
- the images may also be provided in a non-medical context, for example, a remote sensing system, an electron microscopy, and the like.
- an 'image' refers to an image that is visible (eg, displayed on a video screen) or an image (eg, a file corresponding to a pixel output, such as a CT or MRI detector) It is a term referring to a digital representation.
- cone-beam computed tomography (CBCT) image data is sometimes shown as an exemplary image modality in the drawings.
- image formats used in various embodiments of the present invention may be used in various imaging formats such as X-ray imaging, MRI, CT, positron emission tomography (PET), PET-CT, SPECT, SPECT-CT, MR- But it is to be understood that the present invention is not limited to the three-dimensional image and the slice image derived therefrom.
- DICOM Digital Imaging and Communications in Medicine
- ACR American Radiation Medical Association
- NEMA American Electrical Manufacturers Association
- 'Picture Archiving and Communication System refers to a system for storing, processing and transmitting according to the DICOM standard throughout the detailed description and claims of the present invention, , And MRI can be stored in the DICOM format and transmitted to a terminal inside or outside the hospital through the network, and the result of reading and the medical record can be added to the terminal.
- 'learning' or 'learning' refers to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that the present invention is not intended to be so-called.
- FIG. 1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device that performs a method of detecting a region of interest according to the present invention.
- a computing device 100 includes a communication unit 110 and a processor 120.
- the communication unit 110 communicates with an external computing device (not shown) Communication is possible.
- the computing device 100 may be implemented as a computer-readable medium, such as conventional computer hardware (e.g., a computer processor, memory, storage, input and output devices, Electronic communication devices, electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN), and computer software (i.e., computing devices that enable a computing device to function in a particular manner) Commands) to achieve the desired system performance.
- conventional computer hardware e.g., a computer processor, memory, storage, input and output devices, Electronic communication devices, electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN), and computer software (i.e., computing devices that enable a computing device to function in a particular manner) Commands) to achieve the desired system performance.
- NAS network-attached storage
- SAN storage area networks
- the communication unit 110 of the computing device can send and receive requests and responses to and from other interworking computing devices.
- requests and responses can be made by the same transmission control protocol (TCP) session
- TCP transmission control protocol
- UDP user datagram protocol
- the communication unit 110 may include a keyboard, a mouse, an external input device, a printer, a display, and other external output devices for receiving commands or instructions.
- the processor 120 of the computing device may also be a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), or a tensor processing unit (TPU), a cache memory, a data bus ). ≪ / RTI > It may further include a software configuration of an operating system and an application that performs a specific purpose.
- MPU micro processing unit
- CPU central processing unit
- GPU graphics processing unit
- TPU tensor processing unit
- FIG. 2 is an exemplary block diagram illustrating the hardware or software components of a computing device that performs the method of detecting a region of interest in accordance with the present invention.
- the computing device 100 may include an image acquisition module 210 as a component thereof.
- the image acquisition module 210 is configured to acquire a first image and a second image to which the method according to the present invention is applied, wherein the first image and the second image may be a two-dimensional image or a three-dimensional image. If these images are 3D images, the area of interest can be called the volume of interest. If these images are 2D images, the area of interest may be called the area of interest.
- the first image and the second image may be medical images and may be acquired from an external image storage system such as a radiographic imaging apparatus or a medical image storage transmission system (PACS) linked through the communication unit 110 But is not limited thereto.
- these images may be captured by the imaging device and transmitted to the PACS in accordance with the DICOM standard, and then acquired by the image acquisition module 210 of the computing device 100.
- PACS medical image storage transmission system
- the acquired medical image may be transmitted to the search object zone setting module 220, which sets the search object zone corresponding to the area of interest designated on the first image to the second image As shown in FIG.
- the search area may be set to be larger than the size of the area of interest in consideration of the position error e between the first image and the second image.
- the candidate image search module 230 is configured to retrieve at least one candidate image that is the same or similar to the region of interest within the region of interest when the region of interest is set.
- the candidate image retrieval module 230 may be implemented using a recent deep convolutional neural network such as a Fully Convolutional Neural Network or a generative adversarial network (GAN), for example. CNN).
- a recent deep convolutional neural network such as a Fully Convolutional Neural Network or a generative adversarial network (GAN), for example. CNN.
- GAN generative adversarial network
- An exemplary hostile neural network configuration is described in Non-Patent Document 1: [Goodfellow, Ian J .; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks”.
- the neural network constituting the candidate image retrieval module 230 may be a generative hostile neural network including a production neural network 232 (not shown) and a classified neural network 234 (not shown).
- the technique used in the candidate image search module 230 is not limited to the hostile neural network, and various techniques can be used.
- the candidate image retrieval module 220 that has completed the learning or training may be composed only of the generated neural network 232 because the classified neural network 234 is for learning as described later.
- the same area of interest detection module 240 is configured to detect, when at least one candidate image is searched, any one selected according to a predetermined criterion as a region of interest.
- the predetermined criterion is related to the similarity to be described later.
- information about the same pair of interest areas can be passed to the storage and transmission module 250 (not shown), which stores and transmits information May be stored or provided to an external entity.
- the external entity includes a user of the computing device 100, a manager, a medical professional in charge of the subject, and the like.
- a second slice image calculated from the first slice image is required
- the external entity may be an external AI device that includes separate AI hardware and / or software modules utilizing the second slice image.
- 'external' in an external entity may be used to exclude embodiments in which AI hardware and / or software modules that utilize at least one of the first slice image and the second slice image are integrated into the computing device 100
- the present invention is not intended to suggest that the second slice image, which is the result of the hardware and / or software module performing the method of the present invention, can be used as input data of other methods. That is, the external entity may be the computing device 100 itself.
- the storage and transmission module 250 may perform this through a predetermined display device or the like. At this time, each image and a pair of the same interest area corresponding thereto are displayed on the display device It will be possible. Storage of information representative of this same pair of interest areas may be performed by other devices associated with the computing device 100, such as PACS.
- FIG. 2 Although the components shown in FIG. 2 are illustrated as being realized in one computing device for convenience of explanation, it will be understood that a plurality of computing devices 100 performing the method of the present invention may be configured to be interlocked with each other.
- Figure 3 is a flow diagram illustrating an exemplary method of detecting a region of interest in accordance with the present invention.
- a second image photographed at a time interval from the time of photographing the first image and the first image is obtained, and when a region of interest is set on the first image, 100 detects in the second image the same area of interest as the area of interest as a region of interest, or other device associated with the computing device.
- the method of detecting a region of interest according to the present invention is characterized in that the image acquisition module 210 implemented by the communication unit 110 of the computing device 100 includes the first image and the second image, And acquiring or acquiring the second image (SlOO).
- the same-interest area detection method of the present invention is characterized in that the search target zone setting module 220 embodied by the computing device 100 searches for a search target zone corresponding to each of at least one ROI specified on the acquired first image, (S200) for setting or setting each of the first image and the second image with respect to the second image.
- the search target zone setting module 220 embodied by the computing device 100 searches for a search target zone corresponding to each of at least one ROI specified on the acquired first image, (S200) for setting or setting each of the first image and the second image with respect to the second image.
- a step of assigning a region of interest on the first image may be performed, which may be performed by a specialist (e.g., a doctor) who can identify a particular region of interest, Or by a lesion detection method (for example, a detection method such as U.S. Patent No. 7,660,448).
- a specialist e.g., a doctor
- a lesion detection method for example, a detection method such as U.S. Patent No. 7,660,448.
- at least one region of interest on the first image may be all of the regions of interest identified on the first image or may be regions of interest selected by predetermined manipulations or predetermined criteria.
- the predetermined operation may be, for example, an operation (for example, a click operation) for selecting one of the list of the interest areas provided through the user interface, or a part of the image is boxed through the user interface ), And so on.
- the predetermined criteria may be a numerical value indicating that the region of interest is meaningful, for example, a value such as confidence that a lesion identified in a medical image means a probability of an actual lesion is a certain level or more.
- the photographing time point of the first image is t
- the photographing time point of the second image is t '
- the list of the interest area designated by the first image at time t is touched with interest designated to the second image at time t_I
- t' The list of zones can be called t'_I.
- an individual search subject area corresponding to the individual interest area included in t_I is set in step S200.
- the individual search subject area has a predetermined physical dimension, for example, a space within a predetermined distance d from a position corresponding to the individual attention area of the first image.
- the search object zone is utilized to narrow the search object by using information of the position of the ROI relative to the images of the object, whereby detection of the same ROI can be efficiently performed.
- the search target area is not necessarily set and that the search target area may be set as the entire area of the second image when sufficient operation resources are secured. That is, the search object zone corresponding to the region of interest designated on the first image may be set to be the entire second image.
- the method of detecting a region of interest is characterized in that the candidate image retrieval module 230 of the computing device 100 retrieves at least one candidate image identical or similar to the individual region of interest (S300) to detect or detect any one of the at least one candidate image selected according to a predetermined criterion by searching for or searching for the same interest area as the individual area of interest (S300).
- Step S300 may include, for example, the step S310 of supporting the candidate image search module 230 to search for or retrieve the at least one candidate image and the step S310 of searching the candidate image, (S320) to detect or detect a candidate image in the second image having the highest degree of similarity with the individual region of interest in the same interest region.
- the meaning of searching for the candidate image in this step S310 does not mean to detect the region of interest in the second image at that time but it is to be understood as meaning that the region of interest of the second image in the region to be searched is selected . That is, the detection of regions of interest in the second image may be performed prior to step S310, preferably with step S150 described above.
- Similarity is a measure of the degree of similarity between images, and can be roughly calculated using characteristics such as color, contrast and saturation according to the conventional image processing method. However, similarity is reflected in various layers of image characteristics ≪ / RTI > will be preferred in carrying out the method of the present invention.
- step S320 the similarity between the individual interest area of the first image and the candidate image in the second image (i.e., the image selected from the individual interest areas of the second image) is determined by the following scheme of the deep learning model . ≪ / RTI >
- FIG. 4 is a conceptual diagram illustrating a calculation method of the degree of similarity used in the method of detecting a similar area according to the present invention.
- FIG. 4 illustrates a pair of twin networks.
- the two networks may share weight and may be separate, non-shared, convolutional neural networks.
- the input to the network may be a two-dimensional patch or a three-dimensional voxel.
- the twin networks are learned to output the same interest area, for example 1 for the same lesion and 0 for the unequal area of interest. If the final output layer of the network is a softmax layer, the resultant value is always between 0 and 1. When any pair of images enters the input value, a value between 0 and 1 is output as a result, Can be used as the similarity between the interest zone images.
- the deep learning model according to the present invention can be preliminarily learned using training data including image pairs that are photographed for the same object with a time interval and in which pairs of the same or different regions of interest are labeled.
- the training data includes a pair of images acquired at different times t and t 'for the same subject, i.e., the subject, and a list of regions of interest detected in each of the images.
- the list includes information such as a region image of interest, e.g., an image corresponding to a lesion and a spatial location of the region of interest.
- a pair of interest zones other than the same interest zone can also be constructed based on this list of interest zones, which is defined as a pair of non-identical interest zones. Since the data of the pair of the same interest area and the pair of the non-same interest area can be secured for various subjects and various viewpoints, the deep learning model of the present invention can obtain a value of 1 The result can be learned by putting out a value of 0 for the input of a pair of non-identical regions of interest as a result value.
- step S320 if the similarity for all the candidate images is lower than a predetermined threshold value S, it can be determined that the same area of interest is not detected. On the other hand, if there is at least one candidate image in which the degree of similarity is equal to or greater than the predetermined threshold S, the candidate image having the highest degree of similarity may be detected as the same region of interest.
- FIG. 5 is an exemplary illustration of regions of interest detected in accordance with the present invention. Referring to FIG. 5, nodule lesions, which are the same areas of interest detected in a chest CT image, are illustrated. It will be appreciated by those of ordinary skill in the art that the method of the present invention is generally applicable to a variety of images including areas of interest that vary over time.
- the method of detecting a region of interest in accordance with the present invention may include detecting information about the same areas of interest detected by the storage and transmission module 250 (not shown) implemented by the computing device 100, (Step S400) of providing, storing, providing, or storing the similarity between the regions of interest, the type, the identification number, the name of the lesion, and the similarity between regions of interest. Information on such areas of interest could be used to facilitate tracking and observation of areas of interest by including quantitative and morphological indicators.
- the information about the same areas of interest generated is stored through the storage and transmission module 250 and / or provided to an external entity via a predetermined display device, and / or May be provided to other devices, such as PACS, that are interfaced to the computing device 100.
- the present invention is able to determine and track the same area of interest in another image for each of at least one region of interest in one image over all of the embodiments and variations described above, It is possible to construct a system. This will allow a more accurate diagnosis of progressive lesions of the physician, which will ultimately improve the quality of care and improve the workflow in the medical field as aided by AI.
- the hardware may include special features or components of a general purpose computer and / or a dedicated computing device or a specific computing device or a particular computing device.
- the processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and / or external memory. Additionally or alternatively, the processes can be configured to process application specific integrated circuits (ASICs), programmable gate arrays, programmable array logic (PAL) Or any other device or combination of devices.
- ASICs application specific integrated circuits
- PAL programmable array logic
- the objects of the technical solution of the present invention, or portions contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium.
- the machine-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.
- the program instructions recorded on the machine-readable recording medium may be those specially designed and constructed for the present invention or may be those known to those of ordinary skill in the computer software arts.
- machine-readable recording medium examples include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM, DVD, Blu-ray, magneto-optical media such as floptical disks magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
- Examples of program instructions include, but are not limited to, any of the above devices, as well as a heterogeneous combination of processors, processor architectures or combinations of different hardware and software, Which may be constructed using a structured programming language such as C, an object-oriented programming language such as C ++ or an advanced or low-level programming language (assembly language, hardware description languages and database programming languages and techniques) This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.
- combinations of the methods and methods may be implemented as executable code that performs each of the steps.
- the method may be implemented as systems for performing the steps, and the methods may be distributed in various ways throughout the devices, or all functions may be integrated into one dedicated, stand-alone device, or other hardware.
- the means for performing the steps associated with the processes described above may include any of the hardware and / or software described above. All such sequential combinations and combinations are intended to be within the scope of this disclosure.
- the hardware device may be configured to operate as one or more software modules to perform processing in accordance with the present invention, and vice versa.
- the hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled to a memory, such as ROM / RAM, for storing program instructions and configured to execute instructions stored in the memory, And a communication unit capable of receiving and sending data.
- the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands generated by the developers.
- Such equally or equivalently modified means include, for example, a logically equivalent method which can produce the same result as the method according to the present invention, Should not be limited by the foregoing examples, but should be understood in the broadest sense permissible by law.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
본 발명은 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 검출하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 제1 영상 및 제2 영상의 촬영시로부터 시간 간격을 두고 촬영된 제2 영상이 획득되고, 상기 제1 영상 위에 관심구역이 설정되면, 컴퓨팅 장치가, 상기 관심구역과 동일한 관심구역을 동일 관심구역으로서 상기 제2 영상에서 검출한다.The present invention relates to a method for detecting a region of interest between images photographed with a time interval for the same subject, and an apparatus using the same. Specifically, according to the method of the present invention, when a second image photographed at a time interval from the time of photographing of the first image and the second image is obtained, and a region of interest is set on the first image, And detects the same area of interest as the area of interest as the area of interest as the area of interest in the second image.
현재, 병변을 분석함으로써 진단에 이용하기 위하여 CT(컴퓨터 단층 촬영) 와 같은 영상 검사 기술이 널리 이용되고 있다. 영상 검사에 의한 진단에 있어서는, 동일한 피사체, 즉 피검체에 대하여 순차적으로 촬영된 sequential CT 간에 동일 병변의 변화를 추적함으로써 시간 변화에 따라 병변의 진행 과정을 알 수 있는데, 각각의 CT 촬영시에 탐지된 병변이 서로 같은 병변인지 여부를 파악할 필요, 즉 서로 같은 병변을 매칭할 필요가 있다.Currently, imaging techniques such as computed tomography (CT) are widely used for diagnosis by analyzing lesions. In the diagnosis by the image inspection, the progress of the lesion can be known according to the time change by tracking the same lesion change between sequential CT images sequentially captured on the same subject, that is, the subject. It is necessary to identify whether the lesions are the same lesion, that is, to match the same lesion with each other.
이와 같은 병변은 흔히 진행성인 특징, 즉 시간에 따라 그 형상, 크기 등이 달라지는 특징이 있으므로, 단순 정합 및 비교만으로는 동일 병변인지 여부를 알기 어려워 자동화가 어렵고, 여전히 전문가인 판독의에 의존하고 있다.These lesions are characterized by progressive characteristics, that is, shape and size depending on time. Therefore, it is difficult to know whether the lesion is the same lesion only by simple matching and comparison, and thus it is difficult to automate.
본 발명에서는 서로 다른 시점에 촬영된 병변의 쌍을 이용하여 딥 러닝 모델(deep learning model)을 학습시켜, 새롭게 주어지는 병변 쌍의 유사도를 측정함으로써 일정 유사도 이상에 대하여 동일 병변의 쌍으로 판정하는 방법 및 이를 이용한 장치를 제안하고자 한다.In the present invention, a method of learning a deep learning model using pairs of lesions photographed at different viewpoints and determining a pair of lesions with the same degree of similarity or higher by measuring the similarity of newly given lesion pairs, And propose a device using the same.
[선행기술문헌][Prior Art Literature]
(특허문헌 1) US7660448 B (Patent Document 1) US7660448 B
(비특허문헌 1): Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"(Non-Patent Document 1): Goodfellow, Ian J .; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"
(비특허문헌 2): Dmitriy Serdyuk et al. Twin Networks: Matching the Future for Sequence Generation, arXiv preprint arXiv:1708.06742v2(Non-Patent Document 2): Dmitriy Serdyuk et al. Twin Networks: Matching the Future for Sequence Generation, arXiv preprint arXiv: 1708.06742v2
본 발명은 서로 다른 영상 간에 동일한 관심구역, 특히 병변을 검출할 수 있게 하는 것을 목적으로 한다.The present invention aims to enable detection of the same area of interest, especially lesion, between different images.
구체적으로, 본 발명은 동일한 관심구역의 정량화를 통하여 관심구역의 형태 및 정량적 변화에 대한 측정을 수행하고 추적 관찰을 할 수 있게 하는 것을 목적으로 한다.Specifically, the present invention aims at performing measurement and tracking observation of the shape and quantitative change of the area of interest through quantification of the same area of interest.
특히, 본 발명은 관심구역이 여러 개인 경우에도 관심구역의 후보 가운데 동일한 관심구역을 판정할 수 있게 하는 것을 목적으로 한다.In particular, it is an object of the present invention to be able to determine the same area of interest among candidates of interest even when there are a plurality of areas of interest.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.
본 발명의 일 태양(aspect)에 따르면, 동일 피사체에 대하여 촬영된 영상들 간에 동일한 관심구역을 검출하기 위한 방법이 제공되는바, 그 방법에서, 제1 영상 및 상기 제1 영상의 촬영시로부터 시간 간격을 두고 촬영된 제2 영상이 획득되고, 상기 제1 영상 위에 관심구역이 설정되면, 컴퓨팅 장치가, 상기 관심구역과 동일한 관심구역을 동일 관심구역으로서 상기 제2 영상에서 검출하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 검출하도록 지원한다.According to an aspect of the present invention, there is provided a method for detecting the same area of interest between images photographed for the same subject, wherein the time from the shooting of the first image and the first image If a second image photographed at intervals is obtained and a region of interest is set on the first image, the computing device may detect in the second image the same area of interest as the area of interest as a region of interest, Thereby enabling other interlocked devices to be detected.
바람직하게는, 상기 방법은, (a) 상기 컴퓨팅 장치가, 상기 제1 영상 및 제2 영상을 획득하거나 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 획득된 상기 제1 영상 위에 지정된 관심구역에 대응되는 검색 대상 구역을 상기 제2 영상에 대하여 설정하거나 설정하도록 지원하는 단계; 및 (c) 상기 컴퓨팅 장치가, 설정된 상기 검색 대상 구역 내에서 상기 관심구역과 동일 또는 유사한 적어도 하나의 후보 이미지를 검색하거나 검색하도록 지원함으로써 상기 적어도 하나의 후보 이미지 중에서 소정의 기준에 따라 선택된 어느 하나를 상기 동일 관심구역으로 검출하거나 검출하도록 지원하는 단계를 포함한다.Advantageously, the method further comprises: (a) supporting the computing device to acquire or acquire the first and second images; (b) supporting the computing device to set or set a search area corresponding to a region of interest designated on the acquired first image to the second image; And (c) supporting the computing device to search for or retrieve at least one candidate image that is the same or similar to the region of interest within the set search subject area, thereby selecting one of the at least one candidate image To the same area of interest.
본 발명의 다른 태양에 따르면, 본 발명에 따른 동일 관심구역 검출 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program stored in a machine readable non-transitory medium, comprising instructions embodied to perform the method of detecting a region of interest in accordance with the present invention.
본 발명의 또 다른 태양에 따르면, 동일 피사체에 대하여 촬영된 영상들 간에 동일한 관심구역을 검출하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 제1 영상 및 상기 제1 영상의 촬영시로부터 시간 간격을 두고 촬영된 제2 영상을 획득하는 통신부; 및 상기 제1 영상 및 상기 제2 영상이 획득되고, 상기 제1 영상 위에 관심구역이 설정되면, 상기 관심구역과 동일한 관심구역을 동일 관심구역으로서 상기 제2 영상에서 검출하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 검출하도록 지원하는 프로세서를 포함한다.According to another aspect of the present invention, there is provided a computing device for detecting the same area of interest between images photographed for the same subject, the computing device comprising: a first image and a time interval A communication unit for acquiring a second image photographed by the photographing unit; And when the first image and the second image are acquired and a region of interest is set on the first image, the same region of interest as the region of interest is detected as the same region of interest as the same region of interest, And to enable other devices to be detected.
바람직하게는, 상기 프로세서는, 획득된 상기 제1 영상 위에 지정된 관심구역에 대응되는 검색 대상 구역을 상기 제2 영상에 대하여 설정하거나 상기 타 장치로 하여금 설정하도록 지원하고, 설정된 상기 검색 대상 구역 내에서 상기 관심구역과 동일 또는 유사한 적어도 하나의 후보 이미지를 검색하거나 검색하도록 지원함으로써 상기 적어도 하나의 후보 이미지 중에서 소정의 기준에 따라 선택된 어느 하나를 상기 동일 관심구역으로 검출하거나 검출하도록 지원한다.Preferably, the processor is configured to set or otherwise set the search object zone corresponding to the region of interest designated on the acquired first image to the second image or to set the other device in the set search region To support the detection or detection of any one of the at least one candidate image selected according to a predetermined criterion in the same area of interest by assisting in searching or retrieving at least one candidate image that is the same as or similar to the region of interest.
본 발명에 의하면, 하나의 영상에 있는 하나 이상의 관심구역, 특히 병변 각각에 대하여 타 영상에서의 동일한 관심구역을 판정할 수 있게 되는 효과가 있다.According to the present invention, it is possible to determine one or more regions of interest in one image, particularly the same region of interest in another image, for each of the lesions.
또한, 본 발명에 의하면, 딥 러닝 기반의 학습을 통하여 관심구역의 유사성에 대한 설계자의 주관적인 설계 없이도 데이터에 기반한 높은 정확도를 가진 유사도 측정 모델이 학습되는 효과가 있다.Further, according to the present invention, it is possible to learn a degree-of-similarity measurement model having high accuracy based on data without designing subjective designers about the similarity of the interest area through learning based on the deep learning.
그리고 본 발명에 의하면 시점 t 및 t'뿐만 아니라 t'와 t''간의 비교 판정을 통하여 t에서부터 t''까지의 관심구역의 변화를 모니터링할 수 있는 효과가 있다.According to the present invention, it is possible to monitor the change of the region of interest from t to t 'through comparison determination between t' and t 'as well as t' and t '.
따라서, 본 발명에 의하면, 동일한 관심구역, 특히 병변에 대한 추적 관찰 및 이를 이용한 모니터링 시스템 구축이 가능해지는 효과가 있다.Therefore, according to the present invention, there is an effect that tracking observation of the same area of interest, particularly, lesion, and construction of a monitoring system using the same can be made possible.
이는 궁극적으로 진행성 병변에 대한 진단에 소요되는 의료진의 시간을 절약하고 판독의 속도와 품질을 높여 의료 현장에서의 워크플로(workflow)를 혁신할 수 있게 되는 잠재적 효과가 있다.This has the potential to ultimately save the staff time spent in diagnosing progressive lesions and improve the speed and quality of readings, thereby enabling a workflow in the medical field to be innovated.
그리고 본 발명은, 종래에 병원에서 이용하고 있는 의료 영상, 예컨대 3차원적으로 획득된 초음파 영상, MRI 영상 등이 그대로 활용될 수 있는바, 본 발명의 방법이 특정 형식의 영상이나 플랫폼에 종속되지 않음은 물론이다.Further, the present invention can be applied to a medical image used in a hospital, for example, a three-dimensionally acquired ultrasound image, an MRI image, and the like, and the method of the present invention is not dependent on a specific type of image or platform Of course not.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, The figures can be obtained.
도 1은 본 발명에 따라 동일 피사체에 대하여 촬영된 영상들 간에 동일한 관심영역을 검출하기 위한 방법(이하 “동일 관심구역 검출 방법”이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 schematically shows an exemplary configuration of a computing device that performs a method for detecting the same area of interest between images photographed for the same subject in accordance with the present invention It is a conceptual diagram.
도 2는 본 발명에 따른 동일 관심구역 검출 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.2 is an exemplary block diagram illustrating the hardware or software components of a computing device that performs the method of detecting a region of interest in accordance with the present invention.
도 3은 본 발명에 따른 동일 관심구역 검출 방법을 예시적으로 나타낸 흐름도이다.Figure 3 is a flow diagram illustrating an exemplary method of detecting a region of interest in accordance with the present invention.
도 4는 본 발명에 따른 동일 관심구역 검출 방법에서 이용되는 유사도의 산출 방식을 개념적으로 나타낸 도면이다.FIG. 4 is a conceptual diagram illustrating a calculation method of the degree of similarity used in the method of detecting the same area of interest according to the present invention.
도 5는 본 발명에 따라 검출된 동일 관심구역들을 예시적으로 나타낸 도면이다.Figure 5 is an exemplary illustration of regions of interest detected in accordance with the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of example, specific embodiments in which the invention may be practiced in order to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. 예를 들어 "영상"은 (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피사체, 즉 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.The term "image" or "image data" used throughout the description and claims of the present invention refers to multidimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image and voxels in a three- Quot; For example, "imaging" may be computed by (cone-beam) computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art I.e., a medical image of a subject. The images may also be provided in a non-medical context, for example, a remote sensing system, an electron microscopy, and the like.
본 발명의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 영상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 영상의 디지털 표현물을 지칭하는 용어이다.Throughout the description and claims of the present invention, an 'image' refers to an image that is visible (eg, displayed on a video screen) or an image (eg, a file corresponding to a pixel output, such as a CT or MRI detector) It is a term referring to a digital representation.
설명의 편의를 위하여 제시된 도면에서는 때때로 콘-빔형 CT(cone-beam computed tomography; CBCT) 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 3차원적 영상 및 이로부터 파생된 슬라이스 영상이기만 하면 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.For convenience of illustration, cone-beam computed tomography (CBCT) image data is sometimes shown as an exemplary image modality in the drawings. However, those skilled in the art will appreciate that image formats used in various embodiments of the present invention may be used in various imaging formats such as X-ray imaging, MRI, CT, positron emission tomography (PET), PET-CT, SPECT, SPECT-CT, MR- But it is to be understood that the present invention is not limited to the three-dimensional image and the slice image derived therefrom.
본 발명의 상세한 설명 및 청구항들에 걸쳐 ‘DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)’ 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.Throughout the detailed description and claims of the present invention, the term 'DICOM' (Digital Imaging and Communications in Medicine) is a generic term for various standards used in digital image representation and communication in medical devices, The standard is presented at the Joint Committee composed of the American Radiation Medical Association (ACR) and the American Electrical Manufacturers Association (NEMA).
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 ‘의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)’은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.In addition, the term 'Picture Archiving and Communication System (PACS)' refers to a system for storing, processing and transmitting according to the DICOM standard throughout the detailed description and claims of the present invention, , And MRI can be stored in the DICOM format and transmitted to a terminal inside or outside the hospital through the network, and the result of reading and the medical record can be added to the terminal.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.Throughout the detailed description and claims of the present invention, 'learning' or 'learning' refers to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that the present invention is not intended to be so-called.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, ‘하나’ 또는 ‘한’은 하나 이상의 의미로 쓰인 것이며, ‘또 다른’은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims of this invention, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, elements or steps. Also, 'one' or 'one' is used in more than one meaning, and 'another' is limited to at least the second.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and features of the present invention will become apparent to those skilled in the art from this description, and in part from the practice of the invention. The following examples and figures are provided by way of illustration and are not intended to limit the invention. Accordingly, the details disclosed herein with respect to a particular structure or function are not to be construed in a limiting sense, but merely as being representative of the general inventive concept providing a guideline for carrying out the invention in various detail structures, It should be interpreted as basic data.
더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of embodiments shown herein. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. It should also be understood that the position or arrangement of individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the present invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated herein or clearly contradicted by context, items referred to in the singular are intended to encompass a plurality unless otherwise specified in the context. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
도 1은 본 발명에 따른 동일 관심구역 검출 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device that performs a method of detecting a region of interest according to the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.1, a
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.In particular, the
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.The
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.The
도 2는 본 발명에 따른 동일 관심구역 검출 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.2 is an exemplary block diagram illustrating the hardware or software components of a computing device that performs the method of detecting a region of interest in accordance with the present invention.
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 제1 영상 및 제2 영상을 획득하도록 구성되는데, 제1 영상 및 제2 영상은 2차원 영상일 수도 있고 3차원 영상일 수도 있다. 이들 영상이 3차원 영상이면, 관심구역은 관심 체적(volume of interest)이라고 할 수 있으며, 이들 영상이 2차원 영상이면, 관심구역은 관심 영역(area of interest)이라고 할 수 있을 것이다.2, the
도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다. 제1 영상 및 제2 영상은 의료 영상일 수 있으며, 예를 들어, 통신부(110)를 통하여 연동되는 영상 촬영 기기 또는 의료영상 저장 전송 시스템(PACS)과 같은 외부 영상 저장 시스템으로부터 획득되는 것일 수 있으나 이에 한정되지는 않는다. 예를 들어, 이들 영상은 영상 촬영 기기를 통하여 촬영되어 DICOM 표준에 따라 PACS에 전송된 후 컴퓨팅 장치(100)의 영상 획득 모듈(210)에 의하여 획득되는 것일 수 있다.2 may be implemented, for example, by the
다음으로, 그 획득된 의료 영상은 검색 대상 구역 설정 모듈(220)에 전달될 수 있는데, 이 검색 대상 구역 설정 모듈(220)은 제1 영상 위에 지정된 관심구역에 대응되는 검색 대상 구역을 제2 영상에 대하여 설정하도록 구성된다. 예컨대, 이 검색 대상 구역은 제1 영상과 제2 영상 간의 위치상의 오차 e를 고려하여 상기 관심구역의 크기보다 크도록 설정될 수 있다.Next, the acquired medical image may be transmitted to the search object
그리고, 후보 이미지 검색 모듈(230)은, 검색 대상 구역이 설정되면, 그 검색 대상 구역 내에서 상기 관심구역과 동일 또는 유사한 적어도 하나의 후보 이미지를 검색하도록 구성된다.And, the candidate
이 후보 이미지 검색 모듈(230)은, 예를 들어, 완전 합성곱 신경망(Fully Convolutional Neural Network)이나 생성적 적대적 신경망(generative adversarial network; GAN)과 같은 근래의 심층 합성곱 신경망(deep convolutional neural network; CNN)에 의하여 구성될 수 있는데, 일 예시적인 생성적 적대적 신경망의 구성은 비특허문헌 1: [Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"]에 개시된 바와 같다.The candidate
예를 들어 후보 이미지 검색 모듈(230)을 구성하는 신경망은 생성 신경망(232; 미도시) 및 분류 신경망(234; 미도시)을 포함하는 생성적 적대적 신경망일 수 있다. 그러나 후보 이미지 검색 모듈(230)에서 이용되는 기법이 생성적 적대적 신경망에 한정되지 않고 다양한 기법이 이용될 수 있음은 물론이다. 학습 혹은 훈련이 완료된 상기 후보 이미지 검색 모듈(220)은 생성 신경망(232)만으로 구성될 수도 있는바, 분류 신경망(234)은 후술하는 바와 같이 학습을 위한 것이기 때문이다.For example, the neural network constituting the candidate
다음으로, 동일 관심구역 검출 모듈(240)은, 적어도 하나의 후보 이미지가 검색되면, 소정의 기준에 따라 선택된 어느 하나를 동일 관심구역으로 검출하도록 구성된다. 여기에서 소정의 기준은 후술하는 유사도와 관련된다.Next, the same area of
이와 같이 동일 관심구역이 검출되면 동일한 관심구역의 쌍에 관한 정보가 저장 및 전송 모듈(250; 미도시)에 전달될 수 있고, 이 저장 및 전송 모듈(250)은 동일한 관심구역의 쌍을 나타내는 정보를 저장하거나 외부 엔티티(entity)에 제공할 수 있다. If the same area of interest is detected in this way, information about the same pair of interest areas can be passed to the storage and transmission module 250 (not shown), which stores and transmits information May be stored or provided to an external entity.
여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 피검체를 담당하는 담당 의료 전문가 등을 포함하나, 이 이외에도 상기 제1 슬라이스 영상으로부터 산출된 제2 슬라이스 영상을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 예를 들어, 상기 외부 엔티티는 상기 제2 슬라이스 영상을 활용하는 별도의 AI 하드웨어 및/또는 소프트웨어 모듈을 포함하는 외부의 AI 장치일 수도 있다. 또한, 외부 엔티티에서의 ‘외부(external)’는 상기 제1 슬라이스 영상 및 제2 슬라이스 영상 중 적어도 하나를 이용하는 AI 하드웨어 및/또는 소프트웨어 모듈이 상기 컴퓨팅 장치(100)에 일체화되는 실시 예를 배제하도록 의도된 것이 아니라, 본 발명의 방법을 수행하는 하드웨어 및/또는 소프트웨어 모듈의 결과물인 제2 슬라이스 영상이 타 방법의 입력 데이터로 활용될 수 있음을 시사하도록 이용된 것임을 밝혀둔다. 즉, 상기 외부 엔티티는 컴퓨팅 장치(100) 자체일 수도 있다.Here, the external entity includes a user of the
또한, 외부 엔티티에 제공되는 때에는 상기 저장 및 전송 모듈(250)은 소정의 디스플레이 장치 등을 통하여 이를 수행할 수도 있으며, 이때 각각의 영상과 그 위에서 대응되는 동일한 관심구역의 쌍이 디스플레이 장치 상에 표시될 수 있을 것이다. 이 동일한 관심구역의 쌍을 나타내는 정보의 저장은 컴퓨팅 장치(100)에 연동되는 타 장치, 예컨대 PACS에 의하여 수행될 수도 있다.In addition, when provided to an external entity, the storage and transmission module 250 may perform this through a predetermined display device or the like. At this time, each image and a pair of the same interest area corresponding thereto are displayed on the display device It will be possible. Storage of information representative of this same pair of interest areas may be performed by other devices associated with the
도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개가 서로 연동되도록 구성될 수도 있다는 점이 이해될 것이다.Although the components shown in FIG. 2 are illustrated as being realized in one computing device for convenience of explanation, it will be understood that a plurality of
이제 본 발명에 따른 영상 재구성 방법의 일 실시 예를 도 3 내지 도 5를 참조하여 더 구체적으로 설명하기로 한다.Now, an embodiment of the image reconstruction method according to the present invention will be described in more detail with reference to FIG. 3 to FIG.
도 3은 본 발명에 따른 동일 관심구역 검출 방법을 예시적으로 나타낸 흐름도이다.Figure 3 is a flow diagram illustrating an exemplary method of detecting a region of interest in accordance with the present invention.
본 발명에 따른 동일 관심구역 검출 방법에서는, 제1 영상 및 상기 제1 영상의 촬영시로부터 시간 간격을 두고 촬영된 제2 영상이 획득되고, 상기 제1 영상 위에 관심구역이 설정되면, 컴퓨팅 장치(100)가, 상기 관심구역과 동일한 관심구역을 동일 관심구역으로서 상기 제2 영상에서 검출하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 검출하도록 지원한다.In the method of detecting a region of interest according to the present invention, a second image photographed at a time interval from the time of photographing the first image and the first image is obtained, and when a region of interest is set on the first image, 100 detects in the second image the same area of interest as the area of interest as a region of interest, or other device associated with the computing device.
구체적인 일 실시 예로서, 도 3을 참조하면, 본 발명에 따른 동일 관심구역 검출 방법은, 컴퓨팅 장치(100)의 통신부(110)에 의하여 구현되는 영상 획득 모듈(210)이, 상기 제1 영상 및 제2 영상을 획득하거나 획득하도록 지원하는 단계(S100)를 포함할 수 있다.3, the method of detecting a region of interest according to the present invention is characterized in that the
다음으로, 본 발명의 동일 관심구역 검출 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 검색 대상 구역 설정 모듈(220)이 획득된 제1 영상 위에 지정된 적어도 하나의 관심구역 각각에 대응되는 검색 대상 구역 각각을 상기 제2 영상에 대하여 설정하거나 설정하도록 지원하는 단계(S200)를 더 포함할 수 있다.Next, the same-interest area detection method of the present invention is characterized in that the search target
이 단계(S200)에 앞서 제1 영상 위에 관심구역을 지정하는 단계(S150)가 수행될 수 있는데, 이는 특정 관심구역이 예컨대 병변임을 식별할 수 있는 전문가(예컨대 의사)에 의하여 이루어질 수도 있고, 알려진 병변 탐지 방법(예컨대, 미국 등록특허공보 제7,660,448호와 같은 탐지 방법)에 의한 것일 수도 있다. 여기에서 제1 영상 위의 적어도 하나의 관심구역은 제1 영상 위에서 식별되는 모든 관심구역일 수도 있고, 소정의 조작이나 소정의 기준에 의하여 선택된 관심구역일 수 있다. Prior to this step S200, a step of assigning a region of interest on the first image (S150) may be performed, which may be performed by a specialist (e.g., a doctor) who can identify a particular region of interest, Or by a lesion detection method (for example, a detection method such as U.S. Patent No. 7,660,448). Wherein at least one region of interest on the first image may be all of the regions of interest identified on the first image or may be regions of interest selected by predetermined manipulations or predetermined criteria.
소정의 조작은, 예컨대, 사용자 인터페이스를 통하여 제공되는 관심구역의 목록 중에 하나를 선택하는 조작(예컨대, 클릭 행위)일 수도 있고, 관심구역이 둘러싸이도록 사용자 인터페이스를 통하여 영상의 일부분을 박스 표시(boxing)하는 등의 분할 행위(segmentation)에 의하여 이루어질 수도 있다.The predetermined operation may be, for example, an operation (for example, a click operation) for selecting one of the list of the interest areas provided through the user interface, or a part of the image is boxed through the user interface ), And so on.
또한, 소정의 기준은, 관심구역이 의미있는 것임을 의미하는 수치, 예컨대, 의료 영상에서 식별되는 병변이 실제 병변일 확률을 의미하는 신뢰도(confidence)와 같은 수치가 일정 수준 이상인 기준일 수 있다.In addition, the predetermined criteria may be a numerical value indicating that the region of interest is meaningful, for example, a value such as confidence that a lesion identified in a medical image means a probability of an actual lesion is a certain level or more.
설명의 편의를 위하여, 제1 영상의 촬영 시점을 t, 제2 영상의 촬영 시점을 t', t 시점의 제1 영상에 지정된 관심구역의 목록을 t_I, t' 시점의 제2 영상에 지정된 관심구역의 목록을 t'_I라고 할 수 있다.For convenience of explanation, it is assumed that the photographing time point of the first image is t, the photographing time point of the second image is t ', the list of the interest area designated by the first image at time t is touched with interest designated to the second image at time t_I, t' The list of zones can be called t'_I.
단계(S150)에서 t_I가 구해지면, 단계(S200)에서는 t_I에 포함된 개별 관심구역에 대응되는 개별 검색 대상 구역이 설정된다. 개별 검색 대상 구역은 미리 정해진 물리적 치수를 가지는데, 예컨대 제1 영상의 개별 관심구역에 대응되는 위치로부터 소정의 거리 d 이내의 공간일 수 있다. If t_I is found in step S150, an individual search subject area corresponding to the individual interest area included in t_I is set in step S200. The individual search subject area has a predetermined physical dimension, for example, a space within a predetermined distance d from a position corresponding to the individual attention area of the first image.
검색 대상 구역은 피사체의 영상들에 상대적인 관심구역의 위치의 정보를 이용하여 검색 대상을 축소하기 위하여 활용되는 것인바, 이로써 동일 관심구역의 검출이 효율적으로 수행될 수 있다.The search object zone is utilized to narrow the search object by using information of the position of the ROI relative to the images of the object, whereby detection of the same ROI can be efficiently performed.
이 검색 대상 구역은 반드시 설정되어야 하는 것은 아니고, 충분한 연산 자원이 확보되는 때에는 검색 대상 구역이 제2 영상의 전체 구역으로 설정될 수도 있음을 통상의 기술자는 이해할 수 있을 것이다. 즉, 제1 영상 위에 지정된 관심구역에 대응되는 검색 대상 구역은 제2 영상 전체인 것으로 설정될 수도 있다.It should be understood by those skilled in the art that the search target area is not necessarily set and that the search target area may be set as the entire area of the second image when sufficient operation resources are secured. That is, the search object zone corresponding to the region of interest designated on the first image may be set to be the entire second image.
다음으로, 본 발명에 따른 동일 관심구역 검출 방법은, 컴퓨팅 장치(100)의 후보 이미지 검색 모듈(230)이, 설정된 상기 검색 대상 구역 내에서 상기 개별 관심구역과 동일 또는 유사한 적어도 하나의 후보 이미지를 검색하거나 검색하도록 지원함으로써 상기 적어도 하나의 후보 이미지 중에서 소정의 기준에 따라 선택된 어느 하나를 상기 개별 관심구역과 동일한 동일 관심구역으로 검출하거나 검출하도록 지원하는 단계(S300)를 더 포함할 수 있다.Next, the method of detecting a region of interest according to the present invention is characterized in that the candidate
단계(S300)는, 예를 들어, 후보 이미지 검색 모듈(230)이 상기 적어도 하나의 후보 이미지를 검색하거나 검색하도록 지원하는 단계(S310)와 후보 이미지 검색 모듈(230)이 후보 이미지 중에서 제1 영상의 개별 관심구역과 가장 유사도가 높은 제2 영상에서의 후보 이미지를 상기 동일 관심구역으로 검출하거나 검출하도록 지원하는 단계(S320)를 포함할 수 있다. 이 단계(S310)에서 후보 이미지를 검색한다는 의미는, 그때에 비로소 제2 영상에서 관심구역을 검출한다는 의미가 아니라 검색 대상 구역 내에 있는 제2 영상의 관심구역들을 선별해낸다는 의미로 이해되어야 할 것이다. 즉, 제2 영상에서의 관심구역들의 검출은 단계(S310) 이전에 수행될 수 있으며, 바람직하게는 전술한 단계(S150)와 함께 수행될 수 있다.Step S300 may include, for example, the step S310 of supporting the candidate
여기에서 유사도(similarity)란 영상 간의 유사한 정도를 나타내는 척도로서, 종래의 이미지 프로세싱 방식에 따라, 색채, 명암, 채도 등의 특성을 이용하여 개략적으로 계산될 수 있으나, 다양한 계층의 영상적 특징이 반영되는 딥 러닝 모델이 본 발명의 방법의 수행에 있어 바람직할 것이다.Similarity is a measure of the degree of similarity between images, and can be roughly calculated using characteristics such as color, contrast and saturation according to the conventional image processing method. However, similarity is reflected in various layers of image characteristics ≪ / RTI > will be preferred in carrying out the method of the present invention.
예를 들어 단계(S320)에서 제1 영상의 개별 관심구역과 제2 영상에서의 후보 이미지(즉, 제2 영상의 개별 관심구역으로부터 선별된 이미지) 사이의 유사도는 다음과 같은 딥 러닝 모델의 방식으로 산출될 수 있다. For example, in step S320, the similarity between the individual interest area of the first image and the candidate image in the second image (i.e., the image selected from the individual interest areas of the second image) is determined by the following scheme of the deep learning model . ≪ / RTI >
도 4는 본 발명에 따른 동일 관심구역 검출 방법에서 이용되는 유사도의 산출 방식을 개념적으로 나타낸 도면인바, 도 4에는 한 쌍으로 된 쌍둥이 네트워크(twin network)가 예시되어 있다. 두 네트워크는 가중치(weight)를 공유할 수 있고, 공유하지 않는 서로 독립된 합성곱 신경망(convolutional neural network)일 수 있다. 이 네트워크의 입력은 2차원 패치일 수도 있고, 3차원 복셀일 수도 있다. 이 쌍둥이 네트워크는 동일한 관심구역, 예컨대 동일 병변에 대해서는 1, 동일하지 않은 관심구역에 대해서는 0을 출력하도록 학습된다. 이 네트워크의 최종 출력층을 softmax 층으로 하면 결과값은 항상 0과 1 사이의 값이 되는바, 임의의 한 쌍의 영상이 입력값으로 들어가면 결과값으로서 0과 1 사이의 값이 출력되고, 이는 두 관심구역 이미지 간의 유사도로 이용될 수 있다.FIG. 4 is a conceptual diagram illustrating a calculation method of the degree of similarity used in the method of detecting a similar area according to the present invention. FIG. 4 illustrates a pair of twin networks. The two networks may share weight and may be separate, non-shared, convolutional neural networks. The input to the network may be a two-dimensional patch or a three-dimensional voxel. The twin networks are learned to output the same interest area, for example 1 for the same lesion and 0 for the unequal area of interest. If the final output layer of the network is a softmax layer, the resultant value is always between 0 and 1. When any pair of images enters the input value, a value between 0 and 1 is output as a result, Can be used as the similarity between the interest zone images.
이와 같은 본 발명에 따른 딥 러닝 모델은, 시간 간격을 두고 동일 피사체에 대하여 촬영되되 동일 또는 상이한 관심구역의 쌍이 레이블링된 영상 쌍들을 포함하는 훈련 데이터(training data)를 이용하여 미리 학습될 수 있다. 더 구체적으로 이 훈련 데이터는 동일 피사체, 즉, 피검체에 대하여 서로 다른 시점 t 및 t'에 획득된 영상의 쌍과 그 각 영상 내에 탐지된 관심구역의 목록을 포함한다. 이 목록은 관심구역 이미지, 예컨대 병변에 해당하는 영상 및 해당 관심구역의 공간적 위치 등의 정보를 포함한다. 예를 들어, t 시점에서의 영상에 대응되는 관심구역 목록 t_I 및 t' 시점에서의 영상에 대응되는 관심구역 목록 t'_I 사이에 전문가에 의하여 확인된 동일 관심구역이 있다면 동일 관심구역의 쌍으로 정의되는 것이다. 이와 같은 관심구역 목록을 기반으로 동일 관심구역이 아닌 관심구역의 쌍도 구성할 수 있는바, 이는 비동일 관심구역의 쌍으로 정의된다. 이와 같이 동일 관심구역의 쌍과 비동일 관심구역의 쌍에 대한 데이터를 여러 피사체와 여러 시점에 대하여 확보할 수 있으므로, 본 발명의 딥 러닝 모델은 동일 관심구역의 쌍의 입력에 대하여 1의 값을 결과값으로 내놓고, 비동일 관심구역의 쌍의 입력에 대하여 0의 값을 결과값으로 내놓도록 학습시킬 수 있다.The deep learning model according to the present invention can be preliminarily learned using training data including image pairs that are photographed for the same object with a time interval and in which pairs of the same or different regions of interest are labeled. More specifically, the training data includes a pair of images acquired at different times t and t 'for the same subject, i.e., the subject, and a list of regions of interest detected in each of the images. The list includes information such as a region image of interest, e.g., an image corresponding to a lesion and a spatial location of the region of interest. For example, if there is an area of interest identified by an expert between the list of regions of interest t_I corresponding to the image at time t and the list of regions of interest t'_I corresponding to the image at time t ' It is defined. A pair of interest zones other than the same interest zone can also be constructed based on this list of interest zones, which is defined as a pair of non-identical interest zones. Since the data of the pair of the same interest area and the pair of the non-same interest area can be secured for various subjects and various viewpoints, the deep learning model of the present invention can obtain a value of 1 The result can be learned by putting out a value of 0 for the input of a pair of non-identical regions of interest as a result value.
단계(S320)의 일 예시에서, 모든 상기 후보 이미지에 대한 상기 유사도가 소정의 문턱값 S보다 낮으면, 상기 동일 관심구역이 검출되지 않은 것으로 판정될 수 있다. 반면에 상기 유사도가 소정의 문턱값 S 이상이 되는 후보 이미지가 적어도 하나가 있으면 그 중 가장 높은 유사도를 가지는 후보 이미지가 동일 관심구역으로 검출될 수 있을 것이다.In one example of step S320, if the similarity for all the candidate images is lower than a predetermined threshold value S, it can be determined that the same area of interest is not detected. On the other hand, if there is at least one candidate image in which the degree of similarity is equal to or greater than the predetermined threshold S, the candidate image having the highest degree of similarity may be detected as the same region of interest.
도 5는 본 발명에 따라 검출된 동일 관심구역들을 예시적으로 나타낸 도면이다. 도 5를 참조하면, 흉부 CT 영상에서 검출된 동일한 관심구역들인 폐결절(nodule) 병변이 예시되어 있다. 통상의 기술자는 본 발명의 방법이 일반적으로 시간에 따라 변화하는 관심구역을 포함하는 다양한 영상에 적용 가능하다는 점을 이해될 수 있을 것이다.Figure 5 is an exemplary illustration of regions of interest detected in accordance with the present invention. Referring to FIG. 5, nodule lesions, which are the same areas of interest detected in a chest CT image, are illustrated. It will be appreciated by those of ordinary skill in the art that the method of the present invention is generally applicable to a variety of images including areas of interest that vary over time.
본 발명에 따른 동일 관심구역 검출 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 저장 및 전송 모듈(250; 미도시)이 검출된 동일 관심구역들에 관한 정보, 예컨대, 동일 관심구역의 위치, 크기, 형태, 식별번호, 병변의 이름, 동일 관심구역들 간의 유사도를 제공 또는 저장하거나 제공 또는 저장하도록 지원하는 단계(S400; 미도시)를 더 포함한다. 이와 같은 동일 관심구역들에 관한 정보는 정량 및 형태적 지표를 포함함으로써 관심구역들의 추적 관찰을 용이하게 하는 데에 활용될 수 있을 것이다.The method of detecting a region of interest in accordance with the present invention may include detecting information about the same areas of interest detected by the storage and transmission module 250 (not shown) implemented by the
이 단계(S400)에서는 생성된 상기 동일 관심구역들에 관한 정보가 저장 및 전송 모듈(250)을 통하여 저장되거나, 그리고/또는 소정의 디스플레이 장치를 통하여 외부 엔티티(entity)에 제공되거나, 그리고/또는 컴퓨팅 장치(100)에 연동되는 타 장치, 예컨대 PACS에 제공될 수 있다.In this step S400, the information about the same areas of interest generated is stored through the storage and transmission module 250 and / or provided to an external entity via a predetermined display device, and / or May be provided to other devices, such as PACS, that are interfaced to the
이와 같이 본 발명은 전술한 모든 실시 예 및 변형례에 걸쳐, 하나의 영상에 있는 하나 이상의 관심구역 각각에 대하여 타 영상에서의 동일한 관심구역을 판정 및 추적할 수 있게 되어 병변에 대한 추적 관찰 및 모니터링 시스템 구축이 가능해지는 효과가 있다. 이로 인하여 의사의 진행성 병변에 대한 더 정확한 진단이 가능해지게 되는바, 궁극적으로 AI의 조력으로써 진료의 질을 높이고 의료 현장에서의 워크플로를 개선할 수 있을 것이다.Thus, the present invention is able to determine and track the same area of interest in another image for each of at least one region of interest in one image over all of the embodiments and variations described above, It is possible to construct a system. This will allow a more accurate diagnosis of progressive lesions of the physician, which will ultimately improve the quality of care and improve the workflow in the medical field as aided by AI.
위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Based on the description of the embodiments above, those skilled in the art will recognize that the methods and / or processes of the present invention and their steps may be implemented in hardware, software, or any combination of hardware and software suitable for the particular application Points can be clearly understood. The hardware may include special features or components of a general purpose computer and / or a dedicated computing device or a specific computing device or a particular computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and / or external memory. Additionally or alternatively, the processes can be configured to process application specific integrated circuits (ASICs), programmable gate arrays, programmable array logic (PAL) Or any other device or combination of devices. Furthermore, the objects of the technical solution of the present invention, or portions contributing to the prior art, may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium. The machine-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be those specially designed and constructed for the present invention or may be those known to those of ordinary skill in the computer software arts. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM, DVD, Blu-ray, magneto-optical media such as floptical disks magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include, but are not limited to, any of the above devices, as well as a heterogeneous combination of processors, processor architectures or combinations of different hardware and software, Which may be constructed using a structured programming language such as C, an object-oriented programming language such as C ++ or an advanced or low-level programming language (assembly language, hardware description languages and database programming languages and techniques) This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Thus, in one aspect of the present invention, when the methods and combinations described above are performed by one or more computing devices, combinations of the methods and methods may be implemented as executable code that performs each of the steps. In another aspect, the method may be implemented as systems for performing the steps, and the methods may be distributed in various ways throughout the devices, or all functions may be integrated into one dedicated, stand-alone device, or other hardware. In yet another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and / or software described above. All such sequential combinations and combinations are intended to be within the scope of this disclosure.
예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to operate as one or more software modules to perform processing in accordance with the present invention, and vice versa. The hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled to a memory, such as ROM / RAM, for storing program instructions and configured to execute instructions stored in the memory, And a communication unit capable of receiving and sending data. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands generated by the developers.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equally or equivalently modified means include, for example, a logically equivalent method which can produce the same result as the method according to the present invention, Should not be limited by the foregoing examples, but should be understood in the broadest sense permissible by law.
Claims (8)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180006503A KR101919847B1 (en) | 2018-01-18 | 2018-01-18 | Method for detecting automatically same regions of interest between images taken on a subject with temporal interval and apparatus using the same |
| KR10-2018-0006503 | 2018-01-18 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019143179A1 true WO2019143179A1 (en) | 2019-07-25 |
Family
ID=64561973
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2019/000761 Ceased WO2019143179A1 (en) | 2018-01-18 | 2019-01-18 | Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101919847B1 (en) |
| WO (1) | WO2019143179A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220076419A1 (en) * | 2020-09-08 | 2022-03-10 | Canon Medical Systems Corporation | Ultrasonic diagnostic device and storage medium |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102683362B1 (en) * | 2018-12-07 | 2024-07-10 | 삼성전자주식회사 | Method for processing image and electronic device thereof |
| KR102173942B1 (en) * | 2020-03-31 | 2020-11-04 | 주식회사 딥노이드 | Apparatus for detecting an object using images from different viewpoints and a method therefor |
| KR102161853B1 (en) * | 2020-05-28 | 2020-10-05 | 주식회사 에프앤디파트너스 | Methods for processing and searching medical images and apparatuses using the same |
| KR102799351B1 (en) * | 2021-06-21 | 2025-04-21 | 영남대학교 산학협력단 | Method And Computer Program for Providing Medical Image Based on Spine Information |
| KR102343348B1 (en) * | 2021-07-29 | 2021-12-24 | 국방과학연구소 | Method of acquiring infrared image data, apparatus for acquiring infrared image data, and computer program for the method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013192624A (en) * | 2012-03-16 | 2013-09-30 | Hitachi Ltd | Medical image diagnosis supporting apparatus, medical image diagnosis supporting method and computer program |
| KR20140093376A (en) * | 2013-01-16 | 2014-07-28 | 삼성전자주식회사 | Apparatus and method for estimating whether malignant tumor is in object by using medical image |
| WO2015191414A2 (en) * | 2014-06-09 | 2015-12-17 | Siemens Corporation | Landmark detection with spatial and temporal constraints in medical imaging |
| KR20160032586A (en) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | Computer aided diagnosis apparatus and method based on size model of region of interest |
| KR20160047516A (en) * | 2013-08-27 | 2016-05-02 | 하트플로우, 인크. | Systems and methods for predicting location, onset, and/or change of coronary lesions |
-
2018
- 2018-01-18 KR KR1020180006503A patent/KR101919847B1/en active Active
-
2019
- 2019-01-18 WO PCT/KR2019/000761 patent/WO2019143179A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013192624A (en) * | 2012-03-16 | 2013-09-30 | Hitachi Ltd | Medical image diagnosis supporting apparatus, medical image diagnosis supporting method and computer program |
| KR20140093376A (en) * | 2013-01-16 | 2014-07-28 | 삼성전자주식회사 | Apparatus and method for estimating whether malignant tumor is in object by using medical image |
| KR20160047516A (en) * | 2013-08-27 | 2016-05-02 | 하트플로우, 인크. | Systems and methods for predicting location, onset, and/or change of coronary lesions |
| WO2015191414A2 (en) * | 2014-06-09 | 2015-12-17 | Siemens Corporation | Landmark detection with spatial and temporal constraints in medical imaging |
| KR20160032586A (en) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | Computer aided diagnosis apparatus and method based on size model of region of interest |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220076419A1 (en) * | 2020-09-08 | 2022-03-10 | Canon Medical Systems Corporation | Ultrasonic diagnostic device and storage medium |
| US12062171B2 (en) * | 2020-09-08 | 2024-08-13 | Canon Medical Systems Corporation | Ultrasonic diagnostic device and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101919847B1 (en) | 2018-11-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101898575B1 (en) | Method for predicting future state of progressive lesion and apparatus using the same | |
| WO2019143179A1 (en) | Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same | |
| WO2019143177A1 (en) | Method for reconstructing series of slice images and apparatus using same | |
| KR101943011B1 (en) | Method for facilitating medical image reading and apparatus using the same | |
| KR101919866B1 (en) | Method for aiding determination of presence of bone metastasis from bone scan image and apparatus using the same | |
| WO2023095989A1 (en) | Method and device for analyzing multimodality medical images for cerebral disease diagnosis | |
| WO2019103440A1 (en) | Method for supporting reading of medical image of subject and device using same | |
| US11468659B2 (en) | Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model | |
| WO2019143021A1 (en) | Method for supporting viewing of images and apparatus using same | |
| KR101923962B1 (en) | Method for facilitating medical image view and apparatus using the same | |
| WO2017051944A1 (en) | Method for increasing reading efficiency by using gaze information of user in medical image reading process and apparatus therefor | |
| WO2016125978A1 (en) | Method and apparatus for displaying medical image | |
| WO2021034138A1 (en) | Dementia evaluation method and apparatus using same | |
| WO2023027248A1 (en) | Data generation method, and training method and apparatus using same | |
| KR20190117187A (en) | Method for visualizing medical image and apparatus using the same | |
| JP7007469B2 (en) | Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs | |
| WO2025084546A1 (en) | Method and system for quantitatively analyzing brain image based on ct image | |
| Wang et al. | Automatic creation of annotations for chest radiographs based on the positional information extracted from radiographic image reports | |
| WO2023113092A1 (en) | System and method for diagnosing urinary stone | |
| KR20190088371A (en) | Method for generating future image of progressive lesion and apparatus using the same | |
| WO2021054700A1 (en) | Method for providing tooth lesion information, and device using same | |
| CN111192679B (en) | Method, device and storage medium for processing image data abnormality | |
| US20200349706A1 (en) | Method and system for detecting chest x-ray thoracic diseases utilizing multi-view multi-scale learning | |
| WO2025018825A1 (en) | Method, device, and computer program for integrated prediction of disease prognosis using image and non-image data | |
| WO2025014289A1 (en) | Method and system for generating high-quality medical images |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19741258 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19741258 Country of ref document: EP Kind code of ref document: A1 |