[go: up one dir, main page]

KR102709062B1 - Method and apparatus for registering a CT image with a surface scan model - Google Patents

Method and apparatus for registering a CT image with a surface scan model Download PDF

Info

Publication number
KR102709062B1
KR102709062B1 KR1020170012635A KR20170012635A KR102709062B1 KR 102709062 B1 KR102709062 B1 KR 102709062B1 KR 1020170012635 A KR1020170012635 A KR 1020170012635A KR 20170012635 A KR20170012635 A KR 20170012635A KR 102709062 B1 KR102709062 B1 KR 102709062B1
Authority
KR
South Korea
Prior art keywords
block
image
point
target point
surface scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020170012635A
Other languages
Korean (ko)
Other versions
KR20180088061A (en
Inventor
조현래
Original Assignee
(주)이우소프트
(주)바텍이우홀딩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이우소프트, (주)바텍이우홀딩스 filed Critical (주)이우소프트
Priority to KR1020170012635A priority Critical patent/KR102709062B1/en
Publication of KR20180088061A publication Critical patent/KR20180088061A/en
Application granted granted Critical
Publication of KR102709062B1 publication Critical patent/KR102709062B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

CT 영상과 표면 스캔 모델을 정합하기 위한 장치가 제공된다. 본 장치는, 상기 CT 영상과 상기 표면 스캔 모델을 저장하는 저장부, 상기 CT 영상과 상기 표면 스캔 모델을 표시하는 디스플레이부, 상기 CT 영상에서 적어도 하나의 타겟 포인트(target points)를 선정하고 상기 표면 스캔 모델에서 상기 적어도 하나의 타겟 포인트와 각각 대응하는 적어도 하나의 소스 포인트(source points)를 선정하도록 해 주는 입력 인터페이스, 및 영상 처리부를 포함할 수 있다. 상기 영상 처리부는, 상기 적어도 하나의 타겟 포인트를 기준으로 상기 적어도 하나의 소스 포인트를 보정하고, 상기 적어도 하나의 타겟 포인트 및 상기 적어도 하나의 타겟 포인트와 각각 대응하는 상기 적어도 하나의 보정된 소스 포인트를 기초로 상기 CT 영상과 상기 표면 스캔 모델을 정합(global registration)하도록 구성될 수 있다.A device for registering a CT image and a surface scan model is provided. The device may include a storage unit for storing the CT image and the surface scan model, a display unit for displaying the CT image and the surface scan model, an input interface for selecting at least one target point from the CT image and at least one source point corresponding to the at least one target point from the surface scan model, and an image processing unit. The image processing unit may be configured to correct the at least one source point based on the at least one target point, and to register (global registration) the CT image and the surface scan model based on the at least one target point and the at least one corrected source point corresponding to the at least one target point.

Description

CT 영상과 표면 스캔 모델의 정합 방법 및 장치{Method and apparatus for registering a CT image with a surface scan model}Method and apparatus for registering a CT image with a surface scan model

본 발명은 의료 영상 처리에 관한 것으로, 더 구체적으로는 3차원 CT 영상과 표면 스캔 모델을 정합하는 기술에 관한 것이다.The present invention relates to medical image processing, and more specifically, to a technique for aligning a three-dimensional CT image and a surface scan model.

임플란트 식립 및 치과 수술 진행 시, 사전 계획 단계에서 해당 기관의 조직 구조와 신경관 위치를 정밀하게 파악하는 것은 환자의 안전을 위해 매우 중요한 절차이다. 이러한 이유로 인해 치과 수술 시술자는 치아의 내·외부 특성을 보다 면밀히 살펴 보길 원하는데, 현재는 CT 영상이 그 재구성(reconstruction) 기술의 한계로 인해 사용자의 요구를 만족시키는 선명한 해상도(resolution)로 제공되지 못하고 있다. 이러한 CT 영상의 단점을 극복하고자 사전에 고 해상도로 모델링된 표면 정보 영상을 기존 CT 영상에 매칭/정합하는 기술이 제안된 바 있다.When implant placement and dental surgery are performed, it is very important for the safety of the patient to precisely identify the tissue structure and nerve canal location of the relevant organ at the pre-planning stage. For this reason, dental surgery practitioners want to examine the internal and external characteristics of the teeth more closely, but currently, CT images cannot provide a clear resolution that satisfies the user's needs due to the limitations of reconstruction technology. To overcome this shortcoming of CT images, a technology has been proposed that matches/registers surface information images modeled in advance with high resolution to existing CT images.

CT 영상과 표면 정보 영상의 매칭/정합을 지원하기 위해 대부분의 치과용 수술 가이드 소프트웨어는 영상 정합(image registration) 기능이 지원된다. 영상 신호 처리 분야에서 영상 정합은 같은 대상을 다른 관점이나 다른 시간에 촬영한 두 개의 영상을 하나의 좌표 공간에 표현함으로써 대상의 형태적으로 같은 부위가 겹쳐져 대응되도록 매칭시키는 기법을 말한다.To support matching/registration of CT images and surface information images, most dental surgical guide software supports image registration functions. In the field of image signal processing, image registration refers to a technique that matches two images of the same object taken from different viewpoints or at different times by expressing them in a single coordinate space so that the morphologically identical parts of the object overlap and correspond.

종래의 치과용 의료 소프트웨어에서 제공하는 영상 정합 방법은, 사용자가 정합 기준이 되는 대응점들을 수동으로 입력하고 3차원 좌표 공간에서 입력된 대응점들 간의 기하적인 관계를 계산하는 것에 기반하고 있다. 이러한 방식의 단점은, 사용자의 입장에서 영상들에서의 정확한 대응점들을 오차 없이 클릭하기에 지나친 집중력이 요구되어 사용하기 불편하다는 점이다. 또한 계산 과정에서 물체들 간의 형태, 즉 특징적인 유사성(similarity)이 비교된다 할 수 없으므로 시각적으로 충분히 정합된 결과를 얻기 힘들다는 단점도 있다.The image registration method provided by conventional dental medical software is based on the user manually entering corresponding points that serve as registration criteria and calculating the geometric relationship between the input corresponding points in the three-dimensional coordinate space. The disadvantage of this method is that it is inconvenient to use because it requires excessive concentration from the user's perspective to click the exact corresponding points in the images without error. In addition, since the shapes between objects, i.e., characteristic similarity, cannot be compared during the calculation process, there is also the disadvantage that it is difficult to obtain visually sufficiently aligned results.

또 다른 정합 방법으로, 전술한 방식에 비해 보다 정확한 대응점들을 얻기 위해 영상 특징 추출 알고리즘을 적용하여 물체에서 가장 특징적인 키 포인트를 자동으로 검출하는 방식이 있다. 이 방법은 일반적으로 비교할 두 개체의 형태와 특징이 똑같다면 전술한 방식에 비해 보다 쉽게 정확한 결과를 획득 할 수 있다. 하지만 실제 치아 의료 영상 데이터의 경우 환자의 충진된 금속재질 인공물의 빛 반사와 환경에 의한 잡음(noise)이 매우 많이 포함되어 있으며 일부 가려지거나(occlusion) 동일하지 않은 표면 형태가 포함될 수 있다. 이런 상황에서 '특징 기반의 키 포인트 자동 추출 방식'은 의도치 않은 오차를 일으킬 가능성이 크다.Another matching method is to automatically detect the most characteristic key points of an object by applying an image feature extraction algorithm to obtain more accurate correspondence points than the aforementioned method. This method can generally obtain accurate results more easily than the aforementioned method if the shapes and features of the two objects to be compared are the same. However, in the case of actual dental medical image data, there is a lot of noise due to light reflection from the patient's filled metal artifact and the environment, and some occlusions or non-identical surface shapes may be included. In such a situation, the 'feature-based automatic key point extraction method' is likely to cause unintended errors.

또 다른 정합 방법으로, ICP(Iterative Closest Point) 방식이 있다. ICP 방식은 반복적으로 두 개의 오브젝트 분포 사이의 거리 오차가 줄어드는 방향으로 이동하여 점차 오차를 최소화하는 방식이다. 이 방식은 데이터의 일부분이 다른 형태를 지니더라도 대다수의 영역이 만족하는 방향을 찾아가며 완전히 형태가 다르다고 판단되는 부분은 예외(outlier)로 처리되기 때문에 위에서 언급했던 부분 가려짐(occlusion) 문제에 어느 정도 대응 가능하다. 하지만 이러한 특징 때문에 데이터 전역(global)에서의 최소 오차가 아닌 국소 지역(local)에서의 최소값에 만족한 결과를 반환하는데 그치고 있으며, 정합 결과가 비교 물체의 초기 시작 위치에 따라 종속되는 문제가 있다. 또한 시스템에 큰 사이즈의 데이터가 입력되었을 때 모든 대응 지점들 간의 비교를 통한 거리 오차가 계산되어야 하므로 처리 시간이 지나치게 많이 걸릴 수 있는 단점이 있다.Another matching method is the ICP (Iterative Closest Point) method. The ICP method is a method that gradually minimizes the error by repeatedly moving in the direction where the distance error between the distributions of two objects decreases. This method can cope with the occlusion problem mentioned above to some extent because it finds a direction that satisfies the majority of areas even if some parts of the data have different shapes, and parts that are judged to have completely different shapes are processed as outliers. However, due to this characteristic, it only returns results that satisfy the minimum value in a local area, not the minimum error in the global data, and there is a problem that the matching result depends on the initial starting position of the comparison object. In addition, when a large amount of data is input into the system, the distance error must be calculated through comparison between all corresponding points, which can take too much processing time.

본 발명의 과제는 사용자에 의한 대응점들의 잘못된 수동 입력에 따른 정합 결과의 부정확함, 형태의 가려짐 또는 일부분 다름으로 인해 발생하는 특징 기반 키 포인트 검출의 어려움 및 적절하지 못한 초기 시작 위치로 인해 국소 최소치(local minima)에 최적화되는 문제를 개선한 CT 영상과 표면 스캔 모델의 정합 방법 및 장치를 제공하는 것이다.The object of the present invention is to provide a method and device for matching a CT image and a surface scan model, which improve the inaccuracy of the matching result due to incorrect manual input of corresponding points by a user, the difficulty of feature-based key point detection caused by shape obscuration or partial difference, and the problem of optimization to a local minimum due to an inappropriate initial starting position.

본 발명의 다른 과제는 전체 혹은 일부분이 동일한 형태의 대상에 적용 시 종래에 비해 빠른 속도로 처리가 가능하며 또한 정확한 결과를 획득할 수 있도록 해 주는 CT 영상과 표면 스캔 모델의 정합 방법 및 장치를 제공하는 것이다.Another object of the present invention is to provide a method and device for matching a CT image and a surface scan model, which enables faster processing and more accurate results than before when applied to an object having the same shape in whole or in part.

본 발명의 또 다른 과제는 사용자 입장에서 대응점들의 입력 시에 어느 정도의 위치적 오차가 허용되며 이로 인해 사용자의 인지적 부하(cognitive load)를 줄여 사용의 편의를 제공해 주는 CT 영상과 표면 스캔 모델의 정합 방법 및 장치를 제공하는 것이다.Another object of the present invention is to provide a method and device for matching CT images and surface scan models, which allow a certain degree of positional error when inputting corresponding points from the user's perspective, thereby reducing the user's cognitive load and providing convenience of use.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

일 측면에서, CT 영상과 표면 스캔 모델을 정합하기 위한 장치가 제공된다. 본 장치는, 상기 CT 영상과 상기 표면 스캔 모델을 저장하는 저장부, 상기 CT 영상과 상기 표면 스캔 모델을 표시하는 디스플레이부, 상기 CT 영상에서 적어도 하나의 타겟 포인트(target points)를 선정하고 상기 표면 스캔 모델에서 상기 적어도 하나의 타겟 포인트와 각각 대응하는 적어도 하나의 소스 포인트(source points)를 선정하도록 해 주는 입력 인터페이스, 및 영상 처리부를 포함하고, 상기 영상 처리부는, 상기 적어도 하나의 타겟 포인트를 기준으로 상기 적어도 하나의 소스 포인트를 보정하고, 상기 적어도 하나의 타겟 포인트 및 상기 적어도 하나의 타겟 포인트와 각각 대응하는 상기 적어도 하나의 보정된 소스 포인트를 기초로 상기 CT 영상과 상기 표면 스캔 모델을 정합(global registration)하도록 구성될 수 있다.In one aspect, a device for registering a CT image and a surface scan model is provided. The device includes a storage unit for storing the CT image and the surface scan model, a display unit for displaying the CT image and the surface scan model, an input interface for selecting at least one target point from the CT image and at least one source point corresponding to the at least one target point from the surface scan model, and an image processing unit, wherein the image processing unit may be configured to correct the at least one source point based on the at least one target point, and to register (global registration) the CT image and the surface scan model based on the at least one target point and the at least one corrected source point corresponding to the at least one target point.

일 실시예에서, 상기 영상 처리부는, 상기 적어도 하나의 타겟 포인트를 중심으로 선정된 크기의 제1 블록을 정의하고, 상기 적어도 하나의 소스 포인트를 중심으로 상기 선정된 크기의 제2 블록을 정의하고, 상기 제1 블록과 상기 제2 블록을 국소 정합(local registration)하고, 상기 국소 정합 결과에 따라 상기 적어도 하나의 소스 포인트를 보정하도록 더 구성될 수 있다.In one embodiment, the image processing unit may be further configured to define a first block of a selected size centered on the at least one target point, define a second block of the selected size centered on the at least one source point, perform local registration of the first block and the second block, and correct the at least one source point according to a result of the local registration.

일 실시예에서, 상기 영상 처리부는, 상기 제2 블록의 위치를 회전 이동시켜 가면서 상기 제1 블록과 상기 제2 블록 간의 유사도가 최대가 되는 상기 제2 블록의 회전 이동 상태를 기준으로 상기 적어도 하나의 소스 포인트의 위치를 보정하는 기능을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may be further configured to perform a function of correcting the position of the at least one source point based on a rotational movement state of the second block at which the similarity between the first block and the second block is maximized while rotating the position of the second block.

일 실시예에서, 상기 영상 처리부는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 비교하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 기능을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may be further configured to perform a function of locally aligning the first block and the second block by comparing features of the first block with features of the second block.

일 실시예에서, 상기 제1 블록의 특징은 상기 제1 블록에서의 표면의 포인트 클라우드(surface point cloud), 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하며, 상기 제2 블록의 특징은 상기 제2 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함할 수 있다.In one embodiment, the features of the first block may include at least one of a surface point cloud of the first block, a normal perpendicular to the surface, and a curvature of the surface, and the features of the second block may include at least one of a surface point cloud of the second block, a normal perpendicular to the surface, and a curvature of the surface.

일 실시예에서, 상기 영상 처리부는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 가지고 ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 기능을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may be further configured to perform a function of locally aligning the first block and the second block using an ICP (Iterative Closest Point) algorithm with features of the first block and features of the second block.

일 측면에서, CT 영상과 표면 스캔 모델을 정합하는 방법이 제공된다. 본 방법은, (i) 상기 CT 영상과 상기 표면 스캔 모델을 디스플레이에 표시하는 단계, (ii) 상기 CT 영상에서 적어도 하나의 타겟 포인트를 선정하도록 하는 단계, (iii) 상기 표면 스캔 모델에서 상기 선정된 적어도 하나의 타겟 포인트와 각각 대응하는 적어도 하나의 소스 포인트를 선정하도록 하는 단계, (iv) 상기 적어도 하나의 타겟 포인트를 기준으로 상기 적어도 하나의 소스 포인트를 보정하는 단계, 및 (v) 상기 적어도 하나의 타겟 포인트 및 상기 적어도 하나의 타겟 포인트와 각각 대응하는 상기 적어도 하나의 보정된 소스 포인트를 기초로 상기 CT 영상과 상기 표면 스캔 모델을 정합하는 단계를 포함할 수 있다.In one aspect, a method for aligning a CT image and a surface scan model is provided. The method may include the steps of: (i) displaying the CT image and the surface scan model on a display, (ii) selecting at least one target point from the CT image, (iii) selecting at least one source point corresponding to the at least one selected target point from the surface scan model, (iv) correcting the at least one source point based on the at least one target point, and (v) correcting the CT image and the surface scan model based on the at least one target point and the at least one corrected source point corresponding to the at least one target point.

일 실시예에서, 상기 단계 (iv)는, (iv-i) 상기 적어도 하나의 타겟 포인트를 중심으로 선정된 크기의 제1 블록을 정의하는 단계, (iv-ii) 상기 적어도 하나의 소스 포인트를 중심으로 상기 선정된 크기의 제2 블록을 정의하는 단계, (iv-iii) 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계, 및 (iv-iv) 상기 국소 정합 결과에 따라 상기 적어도 하나의 소스 포인트를 보정하는 단계를 포함할 수 있다.In one embodiment, the step (iv) may include: (iv-i) defining a first block of a selected size centered on the at least one target point, (iv-ii) defining a second block of the selected size centered on the at least one source point, (iv-iii) locally aligning the first block and the second block, and (iv-iv) correcting the at least one source point according to a result of the local alignment.

일 실시예에서, 상기 단계 (iv-iii)는, (iv-iii-i) 상기 제2 블록의 위치를 회전 이동시켜 가면서 상기 제1 블록과 상기 제2 블록 간의 유사도가 최대가 되는 상기 제2 블록의 회전 이동 상태를 기준으로 상기 적어도 하나의 소스 포인트의 위치를 보정하는 단계를 포함할 수 있다.In one embodiment, the step (iv-iii) may include the step of (iv-iii-i) correcting the position of the at least one source point based on a rotational movement state of the second block in which the similarity between the first block and the second block is maximized while rotating the position of the second block.

일 실시예에서, 상기 단계 (iv-iii)는, (iv-iii-ii) 상기 제1 블록의 특징과 상기 제2 블록의 특징을 비교하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계를 포함할 수 있다.In one embodiment, the step (iv-iii) may include the step (iv-iii-ii) of locally aligning the first block and the second block by comparing features of the first block with features of the second block.

일 실시예에서, 상기 제1 블록의 특징은 상기 제1 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하며, 상기 제2 블록의 특징은 상기 제2 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함할 수 있다.In one embodiment, the features of the first block may include at least one of a point cloud of a surface in the first block, a normal perpendicular to the surface, and a curvature of the surface, and the features of the second block may include at least one of a point cloud of a surface in the second block, a normal perpendicular to the surface, and a curvature of the surface.

일 실시예에서, 상기 단계 (iv-iii-ii)는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 가지고 ICP 알고리즘을 이용하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계를 포함할 수 있다.In one embodiment, the step (iv-iii-ii) may include a step of locally aligning the first block and the second block using an ICP algorithm with features of the first block and features of the second block.

본 발명의 실시예들에 따른 CT 영상과 표면 스캔 모델의 정합 방법 및 장치에 따르면, 전체 혹은 일부분이 동일한 형태의 대상에 적용 시 종래에 비해 빠른 속도로 처리가 가능하며 또한 정확한 결과를 획득할 수 있다는 기술적 효과가 있다.According to the method and device for matching a CT image and a surface scan model according to embodiments of the present invention, when applied to an object having the same shape in whole or in part, there is a technical effect in that processing can be performed at a faster speed than in the past and accurate results can be obtained.

또한 본 발명의 실시예들에 따른 CT 영상과 표면 스캔 모델의 정합 방법 및 장치에 따르면, 사용자 입장에서 대응점들의 입력 시에 어느 정도의 위치적 오차가 허용되며 이로 인해 사용자의 인지적 부하(cognitive load)를 줄여 사용의 편의를 제공해 줄 수 있다는 기술적 효과가 있다.In addition, according to the method and device for matching CT images and surface scan models according to embodiments of the present invention, there is a technical effect in that a certain degree of positional error is allowed when inputting corresponding points from the user's perspective, thereby reducing the user's cognitive load and providing convenience of use.

또한 본 발명의 실시예들에 따른 CT 영상과 표면 스캔 모델의 정합 방법 및 장치에 따르면, 대상의 형태 일부가 다르더라도 국소 정합에 의한 전처리에 의해 정확한 정합이 이루어 질 수 있다는 기술적 효과가 있다.In addition, according to the method and device for matching a CT image and a surface scan model according to embodiments of the present invention, there is a technical effect in that accurate matching can be achieved through preprocessing by local matching even if some of the shapes of the objects are different.

도 1은 본 발명에 따라 CT 영상과 표면 스캔 모델을 정합하기 위한 장치의 구성의 일 실시예를 도시한 도면이다.
도 2는 본 발명에 따라 CT 영상과 표면 스캔 모델을 정합하는 방법을 예시하는 흐름도의 일 실시예를 도시한 도면이다.
도 3은 본 발명에 따른 CT 영상과 표면 스캔 모델을 나란히 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따라 CT 영상과 표면 스캔 모델을 정합한 정합 결과를 도시한 도면이다.
FIG. 1 is a drawing illustrating one embodiment of the configuration of a device for aligning a CT image and a surface scan model according to the present invention.
FIG. 2 is a flowchart illustrating one embodiment of a method for aligning a CT image and a surface scan model according to the present invention.
FIG. 3 is a drawing showing a CT image and a surface scan model according to the present invention side by side.
FIG. 4 is a drawing illustrating a result of aligning a CT image and a surface scan model according to one embodiment of the present invention.

본 발명의 이점들과 특징들 그리고 이들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해 질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 실시예들은 단지 본 발명의 개시가 완전하도록 하며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려 주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and the method for achieving them will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and the present embodiments are provided only to make the disclosure of the present invention complete and to fully inform a person having ordinary skill in the art to which the present invention belongs of the scope of the invention, and the present invention is defined only by the scope of the claims.

본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들어, 단수로 표현된 구성 요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성 요소를 포함하는 개념으로 이해되어야 한다. 또한, 본 발명의 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성이 배제되는 것은 아니다. 또한, 본 명세서에 기재된 실시예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미할 수 있다.The terms used in this specification are used only to describe specific embodiments and are not intended to limit the present invention. For example, a component expressed in the singular should be understood to include a concept of plural components unless the context clearly indicates only the singular. In addition, in the specification of the present invention, terms such as "comprise" or "have" are intended to specify that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and the use of such terms does not exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof. In addition, in the embodiments described in this specification, a "module" or a "part" may mean a functional part that performs at least one function or operation.

덧붙여, 다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 발명의 명세서에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries, such as those defined in common dictionaries, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and shall not be interpreted in an idealized or overly formal sense unless explicitly defined in the specification of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the attached drawings. However, in the following description, specific descriptions of widely known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present invention.

도 1은 본 발명에 따라 CT 영상과 표면 스캔 모델을 정합하기 위한 장치의 구성의 일 실시예를 도시한 도면이다.FIG. 1 is a drawing illustrating one embodiment of the configuration of a device for aligning a CT image and a surface scan model according to the present invention.

도 1에 도시된 바와 같이, 장치(100)는 입력 인터페이스(110), 영상 처리부(120), 저장부(130) 및 디스플레이부(140)를 포함할 수 있다. 입력 인터페이스(110)는 본 발명의 다양한 실시예들에 따른 영상 처리를 수행하기 위하여 사용자 명령을 입력하기 위한 하드웨어 및 소프트웨어 모듈로 구성될 수 있다. 입력 인터페이스(110)는 필요한 다양한 명령을 영상 처리부(120)로 입력하거나, 치과용 단층촬영으로 획득한 CT 영상, 치열 표면 정보를 정밀하게 스캔하여 표현한 표면 스캔 모델(영상) 등의 영상 데이터를 저장부(130)로 입력하기 위해 사용될 수 있다. 입력 인터페이스(110)는 사용자로 하여금 디스플레이된 CT 영상의 치아 부분에서 복수의 타겟 포인트(target points)를 선정하고 또한 표면 스캔 모델의 치아 부분에서 복수의 타겟 포인트와 각각 대응하는 복수의 소스 포인트(source points)를 선정하도록 함으로써 이에 따른 다양한 영상 처리가 이루어질 수 있도록 해 준다. 본 발명에 있어서는, 복수의 타겟 포인트의 각각과 그와 대응하는 복수의 소스 포인트 중의 하나가 포인트 쌍을 구성하는 것으로 정의한다. 일 실시예에서, 입력 인터페이스(110)는 컴퓨터의 키보드(keyboard), 키패드(keypad), 터치패드(touchpad), 마우스(mouse) 등을 포함할 수 있으나, 입력 인터페이스의 종류가 이에 제한되는 것은 아니다. 예컨대, 입력 인터페이스(110)는 전술한 입력 장치들을 이용하여 제어 가능한 그래픽 사용자 인터페이스(Graphic User Interface)를 포함할 수도 있다. 디스플레이부(140)는 본 발명의 일 실시예에 따른 CT 영상 및 표면 스캔 모델, 본 발명의 다양한 실시예에 따라 형성된 영상들 등의 다양한 영상들을 디스플레이하기 위한 것으로, LCD 디스플레이, LED 디스플레이, AMOLED 디스플레이, CRT 디스플레이 등의 다양한 디스플레이 장치를 포함할 수 있다.As illustrated in FIG. 1, the device (100) may include an input interface (110), an image processing unit (120), a storage unit (130), and a display unit (140). The input interface (110) may be configured with hardware and software modules for inputting user commands to perform image processing according to various embodiments of the present invention. The input interface (110) may be used to input various necessary commands to the image processing unit (120), or to input image data such as a CT image acquired by dental tomography, a surface scan model (image) that precisely scans and expresses tooth surface information, etc., to the storage unit (130). The input interface (110) allows the user to select a plurality of target points in the teeth portion of the displayed CT image, and also select a plurality of source points corresponding to the plurality of target points in the teeth portion of the surface scan model, thereby enabling various image processing to be performed accordingly. In the present invention, each of the plurality of target points and one of the plurality of source points corresponding thereto are defined as forming a point pair. In one embodiment, the input interface (110) may include a keyboard, a keypad, a touchpad, a mouse, etc. of a computer, but the type of the input interface is not limited thereto. For example, the input interface (110) may include a graphic user interface (Graphical User Interface) that can be controlled using the input devices described above. The display unit (140) is for displaying various images, such as a CT image and a surface scan model according to one embodiment of the present invention, and images formed according to various embodiments of the present invention, and may include various display devices, such as an LCD display, an LED display, an AMOLED display, and a CRT display.

저장부(130)는 CT 영상, 표면 스캔 모델, 본 발명의 장치(100)에 의해 CT 영상과 표면 스캔 모델을 정합하여 생성된 정합 영상 등 다양한 영상을 저장하기 위해 사용될 수 있다. 저장부(130)는 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함에 따른 중간 결과의 영상 데이터, 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함으로써 얻어진, 결과 영상 데이터, 본 발명의 다양한 실시예들에 따른 영상 처리를 수행하는데 필요한 변수값들을 저장하기 위해 사용될 수 있다. 다양한 실시예에서, 저장부(130)는 전술한 각종 영상들을 DICOM(Digital Imaging and Communications in Medicine) 형식 또는 일반적인 이미지 파일 형식(BMP, JPEG, TIFF 등)으로 저장할 수 있다. 저장부(130)는 영상 처리부(120)의 구현에 필요한 소프트웨어/펌웨어 등을 더 저장할 수 있다. 저장부(130)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드(MultiMedia Card: MMC), 카드 타입의 메모리(예를 들어, SD(Secure Digital) 카드 또는 XD(eXtream Digital) 카드 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크 및 광 디스크 중 어느 하나의 저장 매체로 구현될 수 있으나, 당업자라면 저장부(130)의 구현 형태가 이에 한정되는 것이 아님을 알 수 있을 것이다.The storage unit (130) may be used to store various images, such as CT images, surface scan models, and aligned images generated by matching a CT image and a surface scan model by the device (100) of the present invention. The storage unit (130) may be used to store image data of intermediate results obtained by performing image processing according to various embodiments of the present invention, result image data obtained by performing image processing according to various embodiments of the present invention, and variable values required to perform image processing according to various embodiments of the present invention. In various embodiments, the storage unit (130) may store the various images described above in a DICOM (Digital Imaging and Communications in Medicine) format or a general image file format (BMP, JPEG, TIFF, etc.). The storage unit (130) may further store software/firmware required to implement the image processing unit (120). The storage unit (130) may be implemented as any one of a storage medium among a flash memory type, a hard disk type, a MultiMedia Card (MMC), a card-type memory (for example, an SD (Secure Digital) card or an XD (eXtream Digital) card, etc.), a RAM (Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read-Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a PROM (Programmable Read-Only Memory), a magnetic memory, a magnetic disk, and an optical disk. However, those skilled in the art will recognize that the implementation form of the storage unit (130) is not limited thereto.

영상 처리부(120)는 복수의 포인트 쌍의 각각에 대하여 해당 타겟 포인트를 중심으로 선정된 크기의 제1 블록을 정의하고, 해당 소스 포인트를 중심으로 선정된 크기의 제2 블록을 정의하고, 제1 블록과 제2 블록을 국소 정합(local registration)하고, 국소 정합 결과에 따라 소스 포인트를 보정하는 기능을 수행하도록 구성될 수 있다. 영상 처리부(120)는 제1 블록과 제2 블록을 국소 정합함에 있어 제2 블록의 위치를 회전 이동시켜 가면서 제1 블록과 제2 블록 간의 유사도가 최대가 되는 제2 블록의 회전 이동 상태를 결정하고, 제1 블록과 상기 제2 블록 간의 유사도가 최대가 되는 제2 블록의 회전 이동 상태를 기준으로 소스 포인트의 위치를 보정하도록 더 구성될 수 있다. 국소 정합은 제1 블록의 특징과 제2 블록의 특징을 비교함으로써 이루어 질 수 있다. 일 실시예에서, 제1 블록의 특징은 제1 블록에서의 표면의 포인트 클라우드(surface point cloud), 동 표면에 수직한 법선 및 동 표면의 곡률 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 제2 블록의 특징은 제2 블록에서의 표면의 포인트 클라우드, 동 표면에 수직한 법선 및 동 표면의 곡률 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 영상 처리부(120)는 제1 블록의 특징과 제2 블록의 특징을 가지고 ICP(Iterative Closest Point) 알고리즘을 이용하여 제1 블록과 제2 블록을 국소 정합하도록 더 구성될 수 있다.The image processing unit (120) may be configured to perform a function of defining a first block of a selected size centered on the corresponding target point for each of a plurality of point pairs, defining a second block of a selected size centered on the corresponding source point, performing local registration of the first block and the second block, and correcting the source point according to the local registration result. The image processing unit (120) may be further configured to determine a rotational movement state of the second block that maximizes the similarity between the first block and the second block while rotating the position of the second block when performing local registration of the first block and the second block, and to correct the position of the source point based on the rotational movement state of the second block that maximizes the similarity between the first block and the second block. The local registration may be performed by comparing the features of the first block and the features of the second block. In one embodiment, the features of the first block may include at least one of a surface point cloud of the first block, a normal perpendicular to the surface, and a curvature of the surface. In one embodiment, the feature of the second block may include at least one of a point cloud of a surface in the second block, a normal perpendicular to the surface, and a curvature of the surface. In one embodiment, the image processing unit (120) may be further configured to locally align the first block and the second block using an ICP (Iterative Closest Point) algorithm with the feature of the first block and the feature of the second block.

영상 처리부(120)는 복수의 타겟 포인트 및 복수의 타겟 포인트와 각각 대응하는 복수의 보정된 소스 포인트를 기초로 CT 영상과 표면 스캔 모델을 전역적으로 정합(global registration)하도록 더 구성될 수 있다.The image processing unit (120) may be further configured to globally register the CT image and the surface scan model based on a plurality of target points and a plurality of corrected source points each corresponding to the plurality of target points.

영상 처리부(120)는, 하드웨어적 측면에서 응용 주문형 집적 회로(Application Specific Integrated Circuits: ASICs), 디지털 신호 처리기(Digital Signal Processors: DSPs), 디지털 신호 처리 소자(Digital Signal Processing Devices: DSPDs), 프로그램 가능 논리 소자(Programmable Logic Devices: PLDs), 현장 프로그램 가능 게이트 어레이(Field-Programmable Gate Arrays: FPGAs), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers) 및 마이크로 프로세서 (microprocessors) 중 적어도 하나를 이용하여 구현될 수 있다. 영상 처리부(120)는 또한 전술한 하드웨어 플랫폼(platform) 상에서 실행 가능한 펌웨어(firmware)/소프트웨어 모듈로 구현될 수 있다. 이 경우, 펌웨어/소프트웨어 모듈은 적절한 프로그램(program) 언어로 쓰여진 하나 또는 그 이상의 소프트웨어 애플리케이션(software applications)에 의해 구현될 수 있다.The image processing unit (120) may be implemented, in terms of hardware, using at least one of Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field-Programmable Gate Arrays (FPGAs), processors, controllers, micro-controllers, and microprocessors. The image processing unit (120) may also be implemented as a firmware/software module executable on the aforementioned hardware platform. In this case, the firmware/software module may be implemented by one or more software applications written in an appropriate program language.

도 2는 본 발명에 따라 CT 영상과 표면 스캔 모델을 정합하는 방법을 예시하는 흐름도의 일 실시예를 도시한 도면이다. 도 3은 본 발명에 따른 CT 영상과 표면 스캔 모델을 나란히 도시한 도면이다.FIG. 2 is a drawing illustrating an embodiment of a flow chart exemplifying a method for aligning a CT image and a surface scan model according to the present invention. FIG. 3 is a drawing illustrating a CT image and a surface scan model side by side according to the present invention.

본 방법은 CT 영상(310)과 표면 스캔 모델(320)을 디스플레이부(140)에 나란히 표시하는 단계(S210)로부터 시작된다. CT 영상(310)은 CT 촬영 장치에 의해 획득한 3차원 영상일 수 있다. 표면 스캔 모델(320)은 치열 표면 정보를 정밀하게 스캔함으로써 획득한 영상일 수 있다. 도시된 실시예에서는 CT 영상(310)과 표면 스캔 모델(320)을 좌우로 나란히 표시하였으나 이들을 위아래로 나란히 표시하는 것도 가능하고 이들을 따로따로 표시하는 것도 가능하다. 단계(S215)에서는 사용자가 CT 영상(310)의 치아 부분에서 타겟 포인트(312)를 선정한다. 단계(S220)에서는 사용자가 표면 스캔 모델(320)의 치아 부분에서 선택된 타겟 포인트(312)와 대응하는 소스 포인트(322)를 선정한다. 본 발명의 실시예에 있어서는 타겟 포인트(312)와 소스 포인트(322)의 선정 입력 시에 어느 정도의 위치적 오차가 허용되며 이로 인해 사용자의 인지적 부하(cognitive load)를 줄이게 되어 사용자에게 편리함을 제공 할 수 있다. 타겟 포인트(312)와 소스 포인트(322)는 이하에서 설명될 국소 정합의 대응 위치에 대한 확률적 단서로서 이용될 수 있다. 단계(S225)에서는 타겟 포인트(312)를 중심으로 선정된 크기의 제1 블록을 정의한다. 단계(S235)에서는 소스 포인트(322)를 중심으로 선정된 크기의 제2 블록을 정의한다. 제1 블록 및 제2 블록의 크기는 각각 타겟 포인트(312)와 소스 포인트(322)를 기준으로 한 유클리디언 거리(실측 사이즈, mm)에 따른 신뢰 확률을 근거로 정해질 수 있다.The present method starts from a step (S210) of displaying a CT image (310) and a surface scan model (320) side by side on a display unit (140). The CT image (310) may be a three-dimensional image acquired by a CT imaging device. The surface scan model (320) may be an image acquired by precisely scanning tooth surface information. In the illustrated embodiment, the CT image (310) and the surface scan model (320) are displayed side by side left and right, but they may also be displayed side by side above and below, or they may be displayed separately. In step (S215), a user selects a target point (312) in a tooth portion of the CT image (310). In step (S220), the user selects a source point (322) corresponding to the target point (312) selected in the tooth portion of the surface scan model (320). In the embodiment of the present invention, a certain degree of positional error is allowed when selecting and inputting the target point (312) and the source point (322), which reduces the user's cognitive load and provides convenience to the user. The target point (312) and the source point (322) can be used as probabilistic clues for the corresponding positions of the local alignment to be described below. In step S225, a first block of a selected size is defined centered on the target point (312). In step S235, a second block of the selected size is defined centered on the source point (322). The sizes of the first block and the second block can be determined based on a reliability probability according to a Euclidean distance (actual size, mm) based on the target point (312) and the source point (322), respectively.

단계(S240)에서는 제1 블록과 제2 블록을 국소 정합한다. 일 실시예에서, 국소 정합은 제2 블록의 위치를 회전 이동시켜 가면서 제1 블록과 제2 블록 간의 유사도가 최대가 되는 제2 블록의 회전 이동 상태를 결정함으로써 이루어질 수 있다. 제1 블록과 제2 블록의 유사도는 제1 블록의 특징과 제2 블록의 특징을 비교함으로써 산출될 수 있다. 여기서, 제1 블록의 특징은 제1 블록에서의 표면의 포인트 클라우드, 동 표면에 수직한 법선 및 동 표면의 곡률 중 적어도 하나를 포함할 수 있고, 제2 블록의 특징도 제2 블록에서의 표면의 포인트 클라우드, 동 표면에 수직한 법선 및 동 표면의 곡률 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 제1 블록의 특징과 제2 블록의 특징을 가지고 ICP 알고리즘을 이용하여 제1 블록과 제2 블록을 국소 정합할 수 있다. 단계(S245)에서는 국소 정합 결과에 따라 소스 포인트(322)를 보정한다. 제1 블록과 제2 블록 간의 유사도가 최대가 되는 제2 블록의 회전 이동 상태를 기준으로 소스 포인트(322)의 위치를 보정할 수 있다. 단계(S250)에서는 제1 블록의 크기 및 제2 블록의 크기를 변경시켜 가면서 단계(S240) 및 단계(S245)를 복수 회 반복하는 단계를 수행한다. 일 실시예에서, 제1 블록의 크기 및 제2 블록의 크기를 점점 넓혀 가면서 단계(S240) 및 단계 (S245)를 복수 회 반복할 수 있다. 좁은 블록 영역에서 시작하여 점차 넓은 범위를 포함하는 볼록 영역을 정의하여 단계(S240) 및 단계(S245)를 반복하는 계층적 정합을 수행함으로써 이점을 얻을 수 있다. 좁은 블록 영역에서의 정합은 노이즈 제거에 효율적인 반면 넓은 범위에서의 정합은 상대적으로 전체적인 정합 안정도를 보장해 줄 수 있으므로 이들 정합 결과를 모두 고려함으로써 전체적인 정합 정확도를 향상시킬 수 있게 된다. 따라서, 복수의 국소 정합 결과를 가중 평균하여 소스 포인트(322)를 보정함으로써 좀 더 정합 정확도를 향상시킬 수 있다.In step (S240), the first block and the second block are locally aligned. In one embodiment, the local alignment can be achieved by determining the rotational movement state of the second block at which the similarity between the first block and the second block is maximized while rotating the position of the second block. The similarity between the first block and the second block can be calculated by comparing the features of the first block and the features of the second block. Here, the features of the first block can include at least one of a point cloud of the surface in the first block, a normal perpendicular to the surface, and a curvature of the surface, and the features of the second block can also include at least one of a point cloud of the surface in the second block, a normal perpendicular to the surface, and a curvature of the surface. In one embodiment, the first block and the second block can be locally aligned using the ICP algorithm with the features of the first block and the features of the second block. In step (S245), the source point (322) is corrected according to the local alignment result. The position of the source point (322) can be corrected based on the rotational movement state of the second block where the similarity between the first block and the second block is maximized. In step (S250), steps (S240) and (S245) are repeated multiple times while changing the sizes of the first block and the second block. In one embodiment, steps (S240) and (S245) can be repeated multiple times while gradually increasing the sizes of the first block and the second block. An advantage can be obtained by performing hierarchical matching by starting from a narrow block area and defining a convex area that gradually includes a wider range and repeating steps (S240) and (S245). Matching in a narrow block area is efficient in noise removal, while matching in a wide range can relatively ensure overall matching stability, so that the overall matching accuracy can be improved by considering all of these matching results. Therefore, the matching accuracy can be further improved by correcting the source point (322) by weighting and averaging multiple local matching results.

단계(S255)에서는 단계(S215) 내지 단계(S245)을 복수 회 반복 수행한다. 즉, 사용자가 CT 영상(310)과 표면 스캔 모델(320)의 치아 부분들에 각각 타겟 포인트(314)와 소스 포인트(324)를 선정하고 국소 정합을 실행하여 소스 포인트(324)의 위치를 보정한다. 마찬가지로 사용자가 CT 영상(310)과 표면 스캔 모델(320)의 치아 부분들에 각각 타겟 포인트(316)와 소스 포인트(326)를 선정하고 국소 정합을 실행하여 소스 포인트(326)의 위치를 보정한다. 이와 같이 소스 포인트들(322, 324, 326)이 모두 보정되면 복수의 타겟 포인트(312, 314, 316) 및 복수의 타겟 포인트(312, 314, 316)와 각각 대응하는 복수의 보정된 소스 포인트(322, 324, 326)를 기초로 CT 영상(310)과 표면 스캔 모델(320)을 전역적으로 정합하는 단계를 수행한다(단계(S255) 참조).In step (S255), steps (S215) to (S245) are performed repeatedly multiple times. That is, the user selects target points (314) and source points (324) for the tooth portions of the CT image (310) and the surface scan model (320), respectively, and performs local alignment to correct the position of the source points (324). Similarly, the user selects target points (316) and source points (326) for the tooth portions of the CT image (310) and the surface scan model (320), respectively, and performs local alignment to correct the position of the source points (326). In this way, when all of the source points (322, 324, 326) are corrected, a step of globally aligning the CT image (310) and the surface scan model (320) based on the plurality of target points (312, 314, 316) and the plurality of corrected source points (322, 324, 326) corresponding to the plurality of target points (312, 314, 316) is performed (see step (S255)).

이상의 실시예에서는 타겟 포인트 하나와 소스 포인트 하나를 선정한 후 국소 정합을 실시하는 것으로 설명하였으나, 복수의 타겟 포인트(312, 314, 316) 및 복수의 소스 포인트(322, 324, 326)를 한꺼번에 차례로 선정하고 각 포인트 쌍에 대해 차례로 국소 정합을 실시하는 것도 가능하다. 또한 이상의 실시예에서는 3개의 타겟 포인트와 3개의 소스 포인트를 선정하고 그 각 포인트 쌍에 대해 국소 정합을 실행하는 것으로 설명하였으나, 임의의 개수의 타겟 포인트 및 소스 포인트를 선정하고 그 각 포인트 쌍에 대해 국소 정합을 실행함으로써 정합의 정확도를 한층 더 향상시킬 수 있다.In the above embodiment, it has been described that local alignment is performed after selecting one target point and one source point, but it is also possible to select multiple target points (312, 314, 316) and multiple source points (322, 324, 326) simultaneously and sequentially and perform local alignment for each point pair sequentially. In addition, in the above embodiment, it has been described that three target points and three source points are selected and local alignment is performed for each point pair, but the accuracy of alignment can be further improved by selecting any number of target points and source points and performing local alignment for each point pair.

도 4는 본 발명의 일 실시예에 따라 CT 영상과 표면 스캔 모델을 정합한 정합 결과를 도시한 도면이다. 도시된 도면을 참조해 보면 국소 정합 결과를 통합한 결과로 전체적인 정합 정확도가 크게 향상되었음을 알 수 있다.FIG. 4 is a drawing illustrating a result of matching a CT image and a surface scan model according to one embodiment of the present invention. Referring to the drawing, it can be seen that the overall matching accuracy is greatly improved as a result of integrating the local matching results.

본원에 개시된 실시예들에 있어서, 도시된 구성 요소들의 배치는 발명이 구현되는 환경 또는 요구 사항에 따라 달라질 수 있다. 예컨대, 일부 구성 요소가 생략되거나 몇몇 구성 요소들이 통합되어 하나로 실시될 수 있다. 또한 일부 구성 요소들의 배치 순서 및 연결이 변경될 수 있다.In the embodiments disclosed herein, the arrangement of the illustrated components may vary depending on the environment or requirements in which the invention is implemented. For example, some components may be omitted or some components may be integrated and implemented as one. In addition, the arrangement order and connection of some components may be changed.

이상에서는 본 발명의 다양한 실시예들에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예들에 한정되지 아니하며, 상술한 실시예들은 첨부하는 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변형 실시될 수 있음은 물론이고, 이러한 변형 실시예들이 본 발명의 기술적 사상이나 범위와 별개로 이해되어져서는 아니 될 것이다. 따라서, 본 발명의 기술적 범위는 오직 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.Although various embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the above-described embodiments can be variously modified and implemented by those skilled in the art without departing from the gist of the present invention as claimed in the appended claims, and such modified embodiments should not be understood separately from the technical idea or scope of the present invention. Therefore, the technical scope of the present invention should be defined only by the appended claims.

110: 입력 인터페이스
120: 영상 처리부
130: 저장부
140: 디스플레이부
310: CT 영상
312, 314, 316: 타겟 포인트
320: 표면 스캔 모델
322, 324, 326: 소스 포인트
110: Input interface
120: Image processing unit
130: Storage
140: Display section
310: CT image
312, 314, 316: Target points
320: Surface Scan Model
322, 324, 326: Source points

Claims (12)

CT 영상과 표면 스캔 모델을 정합하기 위한 장치로서,
상기 CT 영상과 상기 표면 스캔 모델을 저장하는 저장부,
상기 CT 영상과 상기 표면 스캔 모델을 표시하는 디스플레이부,
상기 CT 영상에서 적어도 하나의 타겟 포인트(target points)를 선정하고 상기 표면 스캔 모델에서 상기 적어도 하나의 타겟 포인트와 각각 대응하는 적어도 하나의 소스 포인트(source points)를 선정하도록 해 주는 입력 인터페이스, 및
영상 처리부를 포함하고,
상기 영상 처리부는, 상기 적어도 하나의 타겟 포인트를 중심으로 선정된 크기의 제1 블록을 정의하고, 상기 적어도 하나의 소스 포인트를 중심으로 상기 선정된 크기의 제2 블록을 정의하고, 상기 제1 블록과 상기 제2 블록을 국소 정합(local registration)하고, 상기 국소 정합 결과에 따라 상기 적어도 하나의 타겟 포인트를 기준으로 상기 적어도 하나의 소스 포인트를 보정하고, 상기 적어도 하나의 타겟 포인트 및 상기 적어도 하나의 타겟 포인트와 각각 대응하는 상기 적어도 하나의 보정된 소스 포인트를 기초로 상기 CT 영상과 상기 표면 스캔 모델을 정합(global registration)하도록 구성되고,
상기 영상 처리부는, 상기 제2 블록의 위치를 회전 이동시켜 가면서 상기 제1 블록과 상기 제2 블록 간의 유사도가 최대가 되는 상기 제2 블록의 회전 이동 상태를 기준으로 상기 적어도 하나의 소스 포인트의 위치를 보정하는 기능을 수행하도록 더 구성되는, 정합 장치.
As a device for aligning CT images and surface scan models,
A storage unit for storing the CT image and the surface scan model,
A display section for displaying the CT image and the surface scan model;
An input interface that allows selecting at least one target point from the CT image and selecting at least one source point corresponding to the at least one target point from the surface scan model, and
Including an image processing unit,
The image processing unit is configured to define a first block of a selected size centered on the at least one target point, define a second block of the selected size centered on the at least one source point, perform local registration of the first block and the second block, correct the at least one source point based on the at least one target point according to the local registration result, and perform global registration of the CT image and the surface scan model based on the at least one target point and the at least one corrected source point respectively corresponding to the at least one target point.
The alignment device is further configured so as to perform a function of correcting the position of the at least one source point based on the rotational movement state of the second block at which the similarity between the first block and the second block is maximized while rotating the position of the second block.
삭제delete 삭제delete 제1항에 있어서,
상기 영상 처리부는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 비교하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 기능을 수행하도록 더 구성되는, 정합 장치.
In the first paragraph,
The image processing unit is further configured to perform a function of locally aligning the first block and the second block by comparing the features of the first block and the features of the second block.
제4항에 있어서,
상기 제1 블록의 특징은 상기 제1 블록에서의 표면의 포인트 클라우드(surface point cloud), 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하며,
상기 제2 블록의 특징은 상기 제2 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하는, 정합 장치.
In paragraph 4,
The feature of the first block includes at least one of a surface point cloud of the first block, a normal line perpendicular to the surface, and a curvature of the surface.
A feature of the second block is an alignment device, wherein the feature comprises at least one of a point cloud of a surface in the second block, a normal line perpendicular to the surface, and a curvature of the surface.
제4항에 있어서,
상기 영상 처리부는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 가지고 ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 기능을 수행하도록 더 구성되는, 정합 장치.
In paragraph 4,
The image processing unit is further configured to perform a function of locally aligning the first block and the second block using an ICP (Iterative Closest Point) algorithm with the features of the first block and the features of the second block.
CT 영상과 표면 스캔 모델을 정합하는 방법으로서,
(i) 상기 CT 영상과 상기 표면 스캔 모델을 디스플레이에 표시하는 단계,
(ii) 상기 CT 영상에서 적어도 하나의 타겟 포인트를 선정하도록 하는 단계,
(iii) 상기 표면 스캔 모델에서 상기 선정된 적어도 하나의 타겟 포인트와 각각 대응하는 적어도 하나의 소스 포인트를 선정하도록 하는 단계,
(iv) 상기 적어도 하나의 타겟 포인트를 기준으로 상기 적어도 하나의 소스 포인트를 보정하는 단계, 및
(v) 상기 적어도 하나의 타겟 포인트 및 상기 적어도 하나의 타겟 포인트와 각각 대응하는 상기 적어도 하나의 보정된 소스 포인트를 기초로 상기 CT 영상과 상기 표면 스캔 모델을 정합하는 단계를 포함하고,
상기 단계 (iv)는,
(iv-i) 상기 적어도 하나의 타겟 포인트를 중심으로 선정된 크기의 제1 블록을 정의하는 단계,
(iv-ii) 상기 적어도 하나의 소스 포인트를 중심으로 상기 선정된 크기의 제2 블록을 정의하는 단계,
(iv-iii) 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계, 및
(iv-iv) 상기 국소 정합 결과에 따라 상기 적어도 하나의 소스 포인트를 보정하는 단계를 포함하고,
상기 단계 (iv-iii)는,
(iv-iii-i) 상기 제2 블록의 위치를 회전 이동시켜 가면서 상기 제1 블록과 상기 제2 블록 간의 유사도가 최대가 되는 상기 제2 블록의 회전 이동 상태를 기준으로 상기 적어도 하나의 소스 포인트의 위치를 보정하는 단계를 포함하는, 정합 방법.
A method for aligning CT images and surface scan models,
(i) a step of displaying the CT image and the surface scan model on a display;
(ii) a step of selecting at least one target point from the CT image;
(iii) a step of selecting at least one source point corresponding to at least one selected target point in the surface scan model;
(iv) a step of correcting at least one source point based on at least one target point, and
(v) a step of aligning the CT image and the surface scan model based on the at least one target point and the at least one corrected source point each corresponding to the at least one target point;
The above step (iv) is,
(iv-i) a step of defining a first block of a selected size centered on at least one target point;
(iv-ii) a step of defining a second block of the selected size centered on at least one of the source points;
(iv-iii) a step of locally aligning the first block and the second block, and
(iv-iv) comprising a step of correcting at least one source point according to the local alignment result;
The above step (iv-iii) is,
(iv-iii-i) A matching method, comprising a step of correcting the position of the at least one source point based on a rotational movement state of the second block at which the similarity between the first block and the second block is maximized while rotating the position of the second block.
삭제delete 삭제delete 제7항에 있어서,
상기 단계 (iv-iii)는,
(iv-iii-ii) 상기 제1 블록의 특징과 상기 제2 블록의 특징을 비교하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계를 포함하는, 정합 방법.
In Article 7,
The above step (iv-iii) is,
(iv-iii-ii) A matching method, comprising the step of comparing the features of the first block and the features of the second block to locally match the first block and the second block.
제10항에 있어서,
상기 제1 블록의 특징은 상기 제1 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하며,
상기 제2 블록의 특징은 상기 제2 블록에서의 표면의 포인트 클라우드, 상기 표면에 수직한 법선 및 상기 표면의 곡률 중 적어도 하나를 포함하는, 정합 방법.
In Article 10,
The feature of the first block includes at least one of a point cloud of a surface in the first block, a normal perpendicular to the surface, and a curvature of the surface.
A method for matching, wherein the feature of the second block comprises at least one of a point cloud of a surface in the second block, a normal line perpendicular to the surface, and a curvature of the surface.
제10항에 있어서,
상기 단계 (iv-iii-ii)는, 상기 제1 블록의 특징과 상기 제2 블록의 특징을 가지고 ICP 알고리즘을 이용하여 상기 제1 블록과 상기 제2 블록을 국소 정합하는 단계를 포함하는, 정합 방법.
In Article 10,
The above step (iv-iii-ii) is a matching method including a step of locally matching the first block and the second block using an ICP algorithm with features of the first block and features of the second block.
KR1020170012635A 2017-01-26 2017-01-26 Method and apparatus for registering a CT image with a surface scan model Active KR102709062B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170012635A KR102709062B1 (en) 2017-01-26 2017-01-26 Method and apparatus for registering a CT image with a surface scan model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170012635A KR102709062B1 (en) 2017-01-26 2017-01-26 Method and apparatus for registering a CT image with a surface scan model

Publications (2)

Publication Number Publication Date
KR20180088061A KR20180088061A (en) 2018-08-03
KR102709062B1 true KR102709062B1 (en) 2024-09-24

Family

ID=63250330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170012635A Active KR102709062B1 (en) 2017-01-26 2017-01-26 Method and apparatus for registering a CT image with a surface scan model

Country Status (1)

Country Link
KR (1) KR102709062B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102234425B1 (en) * 2019-02-18 2021-04-01 오스템임플란트 주식회사 Method and apparatus for matching medical images
KR102334485B1 (en) * 2020-08-20 2021-12-06 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR102441485B1 (en) 2020-05-29 2022-09-07 주식회사 메디트 A computer-readable storage medium storing a three-dimensional data acquisition method, an apparatus, and a program for performing the method
US12023221B2 (en) 2020-08-20 2024-07-02 Imagoworks Inc. Automated method for aligning 3D dental data and computer readable medium having program for performing the method
KR102273437B1 (en) * 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 apparatus and method for 3-dimensional oral scan data registration using Computed Tomography image
KR102273438B1 (en) * 2021-01-27 2021-07-07 주식회사 에이치디엑스윌 Apparatus and method for automatic registration of oral scan data and computed tomography image using crown segmentation of oral scan data
KR102826015B1 (en) * 2021-08-19 2025-06-26 인제대학교 산학협력단 Method and apparatus for matching point cloud and ct image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016193181A (en) 2015-04-01 2016-11-17 ディオ コーポレーションDio Corporation Method for providing therapeutic guidance information using surgery guide for dental implant

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101726692B1 (en) * 2012-08-24 2017-04-14 한화테크윈 주식회사 Apparatus and method for extracting object
KR102001219B1 (en) * 2012-11-26 2019-07-17 삼성전자주식회사 Method and Apparatus of matching medical images
KR102131326B1 (en) * 2013-08-22 2020-07-07 삼성전자 주식회사 Image Frame Motion Estimation Device, Encoding Method Thereof
US9230331B2 (en) * 2013-10-21 2016-01-05 Samsung Electronics Co., Ltd. Systems and methods for registration of ultrasound and CT images
KR102233427B1 (en) * 2014-04-14 2021-03-29 삼성전자주식회사 Method and Apparatus for medical image registration
KR101744080B1 (en) * 2014-07-04 2017-06-09 주식회사 인스바이오 Teeth-model generation method for Dental procedure simulation
KR101714700B1 (en) * 2015-06-19 2017-03-09 삼성중공업(주) Apparatus for registration of scan data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016193181A (en) 2015-04-01 2016-11-17 ディオ コーポレーションDio Corporation Method for providing therapeutic guidance information using surgery guide for dental implant

Also Published As

Publication number Publication date
KR20180088061A (en) 2018-08-03

Similar Documents

Publication Publication Date Title
KR102709062B1 (en) Method and apparatus for registering a CT image with a surface scan model
US8787647B2 (en) Image matching device and patient positioning device using the same
US9349220B2 (en) Curve correction in volume data sets
CA3154216A1 (en) System and method for improved electronic assisted medical procedures
WO2016003956A1 (en) User-guided shape morphing in bone segmentation for medical imaging
JPWO2014196069A1 (en) Image processing apparatus and image processing method
ES2769636T3 (en) Automatic 3-D surface coating
US9443303B2 (en) Image display of a centerline of tubular structure
KR102606914B1 (en) System and method for assisting verification of labeling and contouring for multiple roi
US20120027277A1 (en) Interactive iterative closest point algorithm for organ segmentation
US9530238B2 (en) Image processing apparatus, method and program utilizing an opacity curve for endoscopic images
JP5558793B2 (en) Image processing method, image processing apparatus, and program
CN111142753A (en) Interactive method, information processing method and storage medium
KR102418810B1 (en) Margin line point picking method in margin line design process and dental CAD device for same
CN111918611A (en) Abnormal display control method for chest X-ray image, abnormal display control program, abnormal display control device, and server device
KR20210083725A (en) Method and apparatus for 3-dimensional visualization of a root canal curvature of a tooth
JP5122650B2 (en) Path neighborhood rendering
CN105825519A (en) Method and apparatus for processing medical images
Touati et al. A robust construction algorithm of the centerline skeleton for complex aortic vascular structure using computational fluid dynamics
CN113205459A (en) Motion correction of angiographic images for 3D reconstruction of coronary arteries
JP7276978B2 (en) Image processing device, image processing method, and program
KR20220161990A (en) Method and apparatus for quantifying a size of a tissue of interest of a sick animal using an X-ray image thereof
JP7294702B2 (en) Image processing device, image processing method, and program
CN116664644B (en) Vessel center line registration method and device based on magnetic resonance image
CN116721208B (en) Method and device for reconstructing three-dimensional surface data of tubular organ and electronic equipment

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20170126

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20220119

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20170126

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20231213

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240819

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240919

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240919

End annual number: 3

Start annual number: 1

PG1601 Publication of registration