[go: up one dir, main page]

KR102042343B1 - Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same - Google Patents

Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same Download PDF

Info

Publication number
KR102042343B1
KR102042343B1 KR1020180043473A KR20180043473A KR102042343B1 KR 102042343 B1 KR102042343 B1 KR 102042343B1 KR 1020180043473 A KR1020180043473 A KR 1020180043473A KR 20180043473 A KR20180043473 A KR 20180043473A KR 102042343 B1 KR102042343 B1 KR 102042343B1
Authority
KR
South Korea
Prior art keywords
resolution
depth image
viewpoint
shape data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180043473A
Other languages
Korean (ko)
Other versions
KR20190119926A (en
Inventor
문두환
김형기
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020180043473A priority Critical patent/KR102042343B1/en
Publication of KR20190119926A publication Critical patent/KR20190119926A/en
Application granted granted Critical
Publication of KR102042343B1 publication Critical patent/KR102042343B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 형상 데이터 생성부; 상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 시점 처리부; 및 상기 단위구의 표면에서 제 1 시점을 결정하고, 상기 제 1 시점을 기준으로 제 1 해상도를 결정하고, 상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 이미지 처리부; 를 포함하고, 상기 이미지 처리부는 상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 연산부; 및 상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 결정부; 를 포함하는 3차원 스캐닝을 통해 획득된 점군 데이터 기반에서 깊이 이미지를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법을 개시한다.The present invention includes a shape data generation unit for generating three-dimensional shape data consisting of point group data obtained by scanning an object; A viewpoint processing unit for estimating a center point from the 3D shape data and projecting a unit sphere having the same distance as the center point to the 3D shape data; And determining a first viewpoint on the surface of the unit sphere, determining a first resolution based on the first viewpoint, and generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data. An image processing unit; The image processing unit may include a plurality of information acquisition rates A (v, w) and information densities D (v, w) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere. A calculation unit for calculating; And a determining unit to determine the first time point and the first resolution based on the information acquisition rate and the information density. Disclosed are an apparatus and method for generating a depth image based on point cloud data obtained through 3D scanning including a 3D object and a 3D object identification method using the same.

Description

3차원 스캐닝을 통해 획득된 점군 데이터 기반에서 깊이 이미지를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법{APPARATUS AND METHOD FOR GENARATION OF DEPTH IMAGE BASED ON POINT-CLOUD DATA OBTAINED BY 3D SCANNING AND METHOD FOR IDENTIFING 3D OBJECT USING THE SAME}Apparatus and method for generating depth image based on point cloud data obtained through 3D scanning and method for identifying 3D object using the same 3D OBJECT USING THE SAME}

본 발명은 3차원 스캐닝을 통해 획득된 점군 데이터 기반에서 깊이 이미지를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a depth image based on point cloud data obtained through three-dimensional scanning, and a three-dimensional object identification method using the same.

플랜트는 특정 제품을 생산하기 위해 원료를 처리하고 가공하는 각종 설비들이 집합된 시설이다. 예를 들어, 해양 플랜트는 바다에 매장되어 있는 석유나 가스와 같은 자원들을 발굴하여 시추하고 생산하는 시설이며, 담수 플랜트는 해수를 처리하여 그로부터 담수를 얻는 공장 시설이다. 이와 같은 플랜트는 일반적으로 유체를 처리하거나 제어하기 위한 기계 설비들과 그 기계 설비에 유체를 제공하는 배관 설비들이 복잡하게 얽혀 있다.A plant is a collection of facilities that process and process raw materials to produce a specific product. For example, a marine plant is a facility that extracts, drills and produces resources such as oil and gas buried in the sea, and a freshwater plant is a factory facility that processes seawater and obtains fresh water therefrom. Such plants generally have a complex intertwining of mechanical equipment for processing or controlling the fluid and plumbing equipment for providing the fluid.

플랜트의 운용 과정에서 설비의 유지 보수를 위해 플랜트의 3D CAD 데이터가 필요한 경우가 발생한다. 그러나, 오래 전에 지어진 플랜트들은 2D 도면만 확보되어 있는 경우가 많으며, 이 플랜트의 2D 도면으로부터 플랜트 전체를 아우르는 3D CAD 데이터를 제작하는 것은 시간 비용 소모적인 일이다. 또한, 신규 플랜트를 건조하는 경우에도 플랜트를 건네 받는 발주자 입장에서는, 제작사로부터 플랜트의 3D CAD 데이터를 제공받더라도 완성된 플랜트가 애초에 설계한 대로 건조되었는지 확인하기 위해서는 해당 플랜트의 실제 모습이 반영된 3D CAD 데이터가 필요할 수 있다.It is often the case that the plant's 3D CAD data is needed for the maintenance of the plant during operation of the plant. However, plants built a long time ago often have only 2D drawings, and it is time-consuming to produce 3D CAD data from the plant's 2D drawings to the entire plant. In addition, even if a new plant is being built, the owner of the plant is given 3D CAD data that reflects the actual appearance of the plant to ensure that the finished plant is built as originally designed, even if the plant is provided with the plant's 3D CAD data. May be required.

본 발명은 해양 구조물과 같은 시설을 3차원 스캐닝하여 얻은 점군 데이터로부터 해당 시설의 깊이 이미지를 생성하고, 깊이 이미지에 매칭되는 시설의 형상 데이터를 검출하여 해당 시설의 형상 모델링 데이터를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법을 제공하는 것을 목적으로 한다.The present invention generates a depth image of the facility from the point group data obtained by three-dimensional scanning of the facility, such as offshore structures, and detects the shape data of the facility matching the depth image to generate the shape modeling data of the facility And to provide a three-dimensional object identification method using the same.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those skilled in the art from the following description. It can be understood.

본 발명의 일 실시예에 따른 깊이 이미지 생성 장치는 객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 형상 데이터 생성부; 상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 시점 처리부; 및 상기 단위구의 표면에서 제 1 시점을 결정하고, 상기 제 1 시점을 기준으로 제 1 해상도를 결정하고, 상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 이미지 처리부; 를 포함하고, 상기 이미지 처리부는 상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 연산부; 및 상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 결정부; 를 포함한다.Depth image generating apparatus according to an embodiment of the present invention comprises a shape data generation unit for generating three-dimensional shape data consisting of point group data obtained by scanning the object; A viewpoint processing unit for estimating a center point from the 3D shape data and projecting a unit sphere having the same distance as the center point to the 3D shape data; And determining a first viewpoint on the surface of the unit sphere, determining a first resolution based on the first viewpoint, and generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data. An image processing unit; The image processing unit may include a plurality of information acquisition rates A (v, w) and information densities D (v, w) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere. A calculation unit for calculating; And a determining unit to determine the first time point and the first resolution based on the information acquisition rate and the information density. It includes.

상기 연산부는 다음의 [수식 1]을 통해 정보 획득률을 연산할 수 있다.The calculating unit may calculate the information acquisition rate through the following [Equation 1].

[수식 1][Equation 1]

Figure 112018037158311-pat00001
Figure 112018037158311-pat00001

(여기서,

Figure 112019077647566-pat00002
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00003
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)(here,
Figure 112019077647566-pat00002
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00003
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)

상기 연산부는 다음의 [수식 2]를 통해 정보 밀도를 연산할 수 있다.The calculating unit may calculate the information density through the following [Equation 2].

[수식 2][Formula 2]

Figure 112018037158311-pat00004
Figure 112018037158311-pat00004

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)

상기 결정부는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정할 수 있다.The determination unit may determine the first time point through the following [Equation 3].

[수식 3][Equation 3]

Figure 112018037158311-pat00005
Figure 112018037158311-pat00005

Figure 112018037158311-pat00006
Figure 112018037158311-pat00006

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)

상기 결정부는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정할 수 있다.The determination unit may determine the first resolution through Equation 4 below.

[수식 4][Equation 4]

Figure 112018037158311-pat00007
Figure 112018037158311-pat00007

상기 시점 처리부는 상기 3차원 형상 데이터의 중심점과 상기 점군 데이터 중 최외각 점 사이의 거리가 1이 되도록 상기 3차원 형상 데이터를 비례 축소하고, 중심점과 거리가 1인 단위구를 비례 축소된 3차원 형상 데이터에 투영하는 1일 수 있다.The viewpoint processing unit proportionally reduces the 3D shape data such that the distance between the center point of the 3D shape data and the outermost point of the point group data is 1, and proportionally reduces the unit sphere having the center point and distance 1 It may be 1 projecting onto the shape data.

상기 단위구의 표면은 삼각망 또는 사각망으로 구성되며, 상기 시점 처리부는 상기 삼각망 또는 사각망을 이루는 직선들의 교차점 각각을 상기 복수의 시점으로 설정할 수 있다.The surface of the unit sphere is composed of a triangular network or a square network, the viewpoint processing unit may set each of the intersections of the straight lines constituting the triangular or square network to the plurality of viewpoints.

본 발명의 일 실시예에 따른 깊이 이미지 생성 방법은 객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 단계; 상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 단계; 상기 단위구의 표면 중 특정 지점 각각을 복수의 시점으로 설정하는 단계; 상기 단위구의 표면에서 제 1 시점을 결정하는 단계; 상기 제 1 시점을 기준으로 제 1 해상도를 결정하는 단계; 및 상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 단계; 를 포함할 수 있다.Depth image generation method according to an embodiment of the present invention comprises the steps of generating three-dimensional shape data consisting of point group data obtained by scanning the object; Estimating a center point from the three-dimensional shape data and projecting a unit sphere having the same distance as the center point to the three-dimensional shape data; Setting each specific point of the surface of the unit sphere to a plurality of viewpoints; Determining a first viewpoint at the surface of the unit sphere; Determining a first resolution based on the first viewpoint; And generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data. It may include.

상기 깊이 이미지를 생성하는 단계는 상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 단계; 및 상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 단계; 를 포함할 수 있다.The generating of the depth image may include obtaining information rate A (v, w) and information density D (v, w) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere. Calculating; Determining the first time point and the first resolution based on the information acquisition rate and the information density; It may include.

상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 1]을 통해 정보 획득률을 연산할 수 있다.In the calculating of the information acquisition rate and the information density, the information acquisition rate may be calculated through Equation 1 below.

[수식 1][Equation 1]

Figure 112018037158311-pat00008
Figure 112018037158311-pat00008

(여기서,

Figure 112019077647566-pat00009
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00010
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)(here,
Figure 112019077647566-pat00009
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00010
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)

상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 2]를 통해 정보 밀도를 연산할 수 있다.In the calculating of the information acquisition rate and the information density, the information density may be calculated through Equation 2 below.

[수식 2][Formula 2]

Figure 112018037158311-pat00011
Figure 112018037158311-pat00011

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)

상기 제 1 시점을 결정하는 단계는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정할 수 있다.In the determining of the first time point, the first time point may be determined through Equation 3 below.

[수식 3][Equation 3]

Figure 112018037158311-pat00012
Figure 112018037158311-pat00012

Figure 112018037158311-pat00013
Figure 112018037158311-pat00013

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)

상기 제 1 해상도를 결정하는 단계는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정할 수 있다.The determining of the first resolution may determine the first resolution through Equation 4 below.

[수식 4][Equation 4]

Figure 112018037158311-pat00014
Figure 112018037158311-pat00014

상기 단위구를 3차원 형상 데이터에 투영하는 단계는 상기 3차원 형상 데이터의 중심점과 상기 점군 데이터 중 최외각 점 사이의 거리가 1이 되도록 상기 3차원 형상 데이터를 비례 축소하는 단계; 및 상기 비례 축소된 3차원 형상 데이터의 중심점과 거리가 1인 단위구를 상기 비례 축소된 3차원 형상 데이터에 투영하는 단계; 를 포함할 수 있다.The projecting of the unit sphere on the 3D shape data may include: proportionally reducing the 3D shape data such that a distance between a center point of the 3D shape data and the outermost point of the point group data is 1; And projecting the unit sphere whose distance from the center point of the proportionally reduced three-dimensional shape data is 1 to the proportionally reduced three-dimensional shape data. It may include.

상기 단위구를 3차원 형상 데이터에 투영하는 단계에서, 상기 단위구의 표면은 삼각망 또는 사각망으로 구성될 수 있다.In the projecting of the unit sphere on the 3D shape data, the surface of the unit sphere may be composed of a triangular network or a square network.

상기 복수의 시점으로 설정하는 단계에서, 상기 단위구에서 상기 삼각망 또는 사각망을 이루는 직선들의 교차점 각각을 상기 복수의 시점으로 설정할 수 있다.In the setting of the plurality of viewpoints, each of the intersection points of the straight lines constituting the triangular network or the square network in the unit sphere may be set as the plurality of viewpoints.

본 발명의 일 실시예에 따른 3차원 객체 식별 방법은 객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 단계; 상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 단계; 상기 단위구의 표면 중 특정 지점 각각을 복수의 시점으로 설정하는 단계; 상기 단위구의 표면에서 의 제 1 시점을 결정하는 단계; 상기 제 1 시점을 기준으로 의 제 1 해상도를 결정하는 단계; 상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 단계; 및 상기 제 1 깊이 이미지를 기 저장된 형상 모델링 데이터에 매칭시켜, 상기 객체를 식별하는 단계; 를 포함한다.3D object identification method according to an embodiment of the present invention comprises the steps of generating three-dimensional shape data consisting of point group data obtained by scanning the object; Estimating a center point from the three-dimensional shape data and projecting a unit sphere having the same distance as the center point to the three-dimensional shape data; Setting each specific point of the surface of the unit sphere to a plurality of viewpoints; Determining a first time point at the surface of the unit sphere; Determining a first resolution of with respect to the first viewpoint; Generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data; And matching the first depth image with pre-stored shape modeling data to identify the object. It includes.

상기 깊이 이미지를 생성하는 단계는 상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 단계; 및 상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 단계; 를 포함할 수 있다.The generating of the depth image may include obtaining information rate A (v, w) and information density D (v, w) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere. Calculating; Determining the first time point and the first resolution based on the information acquisition rate and the information density; It may include.

상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 1] 및 [수식 2]를 통해 정보 획득률 및 정보 밀도를 연산하고, 상기 제 1 시점을 결정하는 단계는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정하고, 상기 제 1 해상도를 결정하는 단계는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정할 수 있다.The calculating of the information acquisition rate and the information density may be performed by calculating the information acquisition rate and the information density by the following Equation 1 and Equation 2, and determining the first time point by the following Equation 3. The determining of the first view point and determining the first resolution may determine the first resolution through Equation 4 below.

[수식 1][Equation 1]

Figure 112018037158311-pat00015
Figure 112018037158311-pat00015

(여기서,

Figure 112019077647566-pat00016
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00017
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)(here,
Figure 112019077647566-pat00016
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00017
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)

[수식 2] [Formula 2]

Figure 112018037158311-pat00018
Figure 112018037158311-pat00018

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)

[수식 3][Equation 3]

Figure 112018037158311-pat00019
Figure 112018037158311-pat00019

Figure 112018037158311-pat00020
Figure 112018037158311-pat00020

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)

[수식 4] [Equation 4]

Figure 112018037158311-pat00021
Figure 112018037158311-pat00021

식별된 상기 객체의 형상 모델링 데이터를 3차원 모델링 데이터에 배치하는 단계; 를 더 포함할 수 있다.Placing shape modeling data of the identified object into three-dimensional modeling data; It may further include.

본 발명의 실시예에 따르면, 시설을 스캐닝하여 얻은 점군 데이터로부터 해당 시설의 형상 모델링 데이터를 생성함으로써 시설의 3차원 CAD 데이터를 확보하기 위한 시간과 인력을 절감할 수 있다.According to an embodiment of the present invention, by generating the shape modeling data of the facility from the point group data obtained by scanning the facility, it is possible to save time and manpower for securing the 3D CAD data of the facility.

특히, 본 발명의 실시예는 대형 시설물을 3D 스캐닝하여 얻은 점군에 대해서 최적의 시점 및 최적의 이미지 해상도를 선택하는 알고리즘을 제공하여, 형상 모델링 데이터 생성의 자동화가 가능하다.In particular, an embodiment of the present invention provides an algorithm for selecting an optimal viewpoint and an optimal image resolution for a point group obtained by 3D scanning a large facility, thereby enabling automated shape modeling data generation.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effect obtained in the present invention is not limited to the above-mentioned effects, other effects that are not mentioned will be clearly understood by those skilled in the art from the following description. Could be.

도 1은 본 발명의 일 실시예에 따른 3차원 모델링 장치를 개략적으로 나타낸 블록도이고,
도 2는 본 발명의 일 실시예에 따라 획득된 점군 데이터로 구성된 3차원 형상 데이터를 예시적으로 나타낸 그림이고,
도 3은 도 2의 3차원 형상 데이터를 비례 축소한 후, 단위구를 투영한 예시도이고,
도 4는 도 2의 3차원 형상 데이터에서 특정 시점의 깊이 이미지를 생성한 결과를 비교한 예시도이고,
도 5는 시점과 해상도에 따라 생성된 깊이 이미지에서의 정보 획득률을 예시적으로 나타낸 그림이고,
도 6은 시점과 해상도에 따라 생성된 깊이 이미지에서의 정규화 된 정보 획득률을 예시적으로 나타낸 그림이고,
도 7은 각 시점에서의 정규화 된 정보 획득률의 합을 예시적으로 나타낸 그림이고,
도 8은 본 발명의 일 실시예에 따른 3차원 객체 식별 방법의 예시적인 흐름도이다.
1 is a block diagram schematically showing a three-dimensional modeling apparatus according to an embodiment of the present invention,
2 is a diagram illustrating three-dimensional shape data composed of point group data acquired according to an embodiment of the present invention.
3 is an exemplary view of projecting a unit sphere after proportionally reducing the three-dimensional shape data of FIG. 2;
4 is an exemplary view comparing the results of generating depth images of a specific viewpoint from the 3D shape data of FIG. 2,
5 is a diagram illustrating an information acquisition rate in a depth image generated according to a viewpoint and a resolution.
6 is a diagram illustrating a normalized information acquisition rate in a depth image generated according to a viewpoint and a resolution.
7 is a diagram illustrating a sum of normalized information acquisition rates at each time point,
8 is an exemplary flowchart of a 3D object identification method according to an embodiment of the present invention.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예에 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.The embodiments of the present invention are provided to more fully explain the present invention to those skilled in the art, and the following examples can be modified in various other forms, and the scope of the present invention is It is not limited to an Example. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the inventive concept to those skilled in the art.

또한, 이하의 도면에서 각 구성은 설명의 편의 및 명확성을 위하여 과장된 것이며, 도면 상에서 동일 부호는 동일한 요소를 지칭한다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는" 는 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.In addition, in the following drawings, each configuration is exaggerated for convenience and clarity of description, the same reference numerals in the drawings refer to the same elements. As used herein, the term “and / or” includes any and all combinations of one or more of the listed items.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.

본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및 /또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.As used herein, the singular forms "a", "an" and "the" may include the plural forms as well, unless the context clearly indicates otherwise. Also, as used herein, "comprise" and / or "comprising" specifies the presence of the mentioned shapes, numbers, steps, actions, members, elements and / or groups of these. It is not intended to exclude the presence or the addition of one or more other shapes, numbers, acts, members, elements and / or groups.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3차원 모델링 장치를 개략적으로 나타낸 블록도이다.1 is a block diagram schematically showing a three-dimensional modeling apparatus according to an embodiment of the present invention.

우선, 도 1을 참조하면, 본 발명의 일 실시예에 따른 3차원 모델링 장치(10)는 형상 데이터 생성부(111), 시점 처리부(112), 이미지 처리부(113) 및 객체 식별부(114)를 포함할 수 있다.First, referring to FIG. 1, the 3D modeling apparatus 10 according to an exemplary embodiment of the present invention may include a shape data generator 111, a viewpoint processor 112, an image processor 113, and an object identifier 114. It may include.

여기서, 형상 데이터 생성부(111), 시점 처리부(112) 및 이미지 처리부(113)는 본 발명의 일 실시예에서 설명하는 깊이 이미지 생성 장치일 수 있다.Here, the shape data generator 111, the viewpoint processor 112, and the image processor 113 may be a depth image generator described in an embodiment of the present invention.

형상 데이터 생성부(111)는 시설을 스캐닝하여 얻은 점군 데이터로부터 3차원 형상 데이터를 생성할 수 있다. 이하에서는 스캐닝하는 대상을 시설에 한정하지 않고, 시설에 포함된 객체로 혼용하여 설명할 수 있다.The shape data generation unit 111 may generate three-dimensional shape data from the point group data obtained by scanning the facility. Hereinafter, the object to be scanned may be mixed and described as an object included in the facility, without being limited to the facility.

한편, 본 발명에서의 3차원 형상 데이터는 점군 데이터로 형성된 3차원 형상을 일컫는 것으로 점군 데이터와 혼용될 수 있으나, 후술할 3차원 모델링 데이터와는 구별될 수 있다.Meanwhile, the three-dimensional shape data in the present invention refers to a three-dimensional shape formed of the point group data, and may be mixed with the point group data, but may be distinguished from the three-dimensional modeling data to be described later.

시점 처리부(112)는 객체의 3차원 형상 데이터를 비례 축소하고, 비례 축소된 3차원 형상 데이터에 단위구를 투영하여 단위구의 표면 상에 복수의 시점을 설정할 수 있다.The viewpoint processor 112 may proportionally reduce the three-dimensional shape data of the object, and project a unit sphere onto the proportionally reduced three-dimensional shape data to set a plurality of viewpoints on the surface of the unit sphere.

이미지 처리부(113)는 단위구의 표면에서 최적의 제 1 시점을 결정한 후, 제 1 시점을 기준으로 최적의 제 1 해상도를 결정하고, 제 1 시점 및 제 1 해상도에서 3차원 형상 데이터를 변환하여 제 1 깊이 이미지를 생성할 수 있다.The image processor 113 determines an optimal first viewpoint on the surface of the unit sphere, and then determines an optimal first resolution based on the first viewpoint, converts three-dimensional shape data at the first viewpoint and the first resolution, One depth image can be created.

객체 식별부(114)는 제 1 깊이 이미지에 매칭되는 시설의 형상 모델링 데이터를 통해 스캐닝 된 시설을 식별할 수 있다. 또한, 형상 모델링 데이터를 적절히 시설 배치 데이터에 배치할 수 있다.The object identifier 114 may identify the scanned facility through the shape modeling data of the facility that matches the first depth image. Moreover, shape modeling data can be arrange | positioned suitably to facility layout data.

한편, 형상 데이터 생성부(111), 시점 처리부(112), 이미지 처리부(113) 및 객체 식별부(114)는 3차원 모델링 데이터를 생성하기 위한 프로그램을 실행하여 점군 데이터로부터 3차원 모델링 데이터를 생성할 수 있는 프로세서(110)로서, 일 예로 CPU, GPU를 포함할 수 있다.Meanwhile, the shape data generator 111, the viewpoint processor 112, the image processor 113, and the object identifier 114 execute a program for generating the 3D modeling data to generate the 3D modeling data from the point cloud data. As an example of the processor 110, the processor 110 may include a CPU and a GPU.

또한, 본 발명의 일 실시예에 따른 3차원 모델링 데이터를 생성하기 위한 프로그램은 프로세서(110)와 연결된 저장부(120)에 저장될 수 있으며, 상기 프로세서(110)는 저장부(120)로부터 프로그램을 불러와 실행할 수 있다. 뿐만 아니라 저장부(120)는 본 발명의 일 실시예에 따라 3차원 모델링 데이터를 생성하기 위해 필요한 각종 데이터들을 저장하여 프로세서(110)에 제공할 수 있다.In addition, a program for generating three-dimensional modeling data according to an embodiment of the present invention may be stored in the storage unit 120 connected to the processor 110, the processor 110 is a program from the storage unit 120 Can be invoked and executed. In addition, the storage unit 120 may store and provide various types of data necessary for generating 3D modeling data to the processor 110 according to an exemplary embodiment.

본 발명의 일 실시예에 따른 3차원 모델링 장치(10)는 형상 모델링 데이터를 생성하고자 하는 객체의 점군 데이터를 입력 받아 그로부터 객체의 형상 모델링 데이터를 생성한다. 점군 데이터는 객체를 3차원 스캐닝하여 얻을 수 있으며, 예를 들어 시설에 레이저를 투사하여 되돌아온 광 신호를 처리함으로써 객체 표면의 다수의 지점들에 대한 3차원 좌표 정보를 얻을 수 있다.The 3D modeling apparatus 10 according to an exemplary embodiment of the present invention receives the point group data of the object for which the shape modeling data is to be generated and generates the shape modeling data of the object therefrom. The point cloud data can be obtained by three-dimensional scanning of the object, for example, by processing the optical signal returned by projecting a laser to the facility to obtain three-dimensional coordinate information for a plurality of points on the object surface.

점군 데이터는 객체의 표면 상에 위치한 다수의 지점들의 집합으로서, 각 점은 소정의 좌표계에서 3차원 좌표를 갖는다. 3차원 좌표는 x축 좌표, y축 좌표 및 z축 좌표로 구성된 직교 좌표일 수 있으나 이에 제한되지는 않는다.Point group data is a collection of multiple points located on the surface of an object, each point having three-dimensional coordinates in a given coordinate system. The three-dimensional coordinates may be orthogonal coordinates composed of x-axis coordinates, y-axis coordinates, and z-axis coordinates, but is not limited thereto.

또한, 상기 객체의 점군 데이터는 객체에 레이저뿐만 아니라 백색광을 스캐닝하여 얻을 수도 있으며, 실시예에 따라 광 외에 음파와 같은 다른 측정 수단을 이용하여 얻을 수도 있다.In addition, the point group data of the object may be obtained by scanning not only a laser but also white light on the object, or may be obtained by using other measuring means such as sound waves in addition to light.

예를 들어, 플랜트와 같은 설비에 대해 다수의 서로 다른 위치에서 레이저를 조사하여 3차원 스캐닝을 실시한 경우, 각각의 3차원 스캐닝마다 개별 점군 데이터가 생성된다. 이러한 개별 점군 데이터는 기 정의된 기준 좌표계에 적용되어 해당설비에 대한 하나의 정합 점군 데이터가 생성될 수 있다.For example, when three-dimensional scanning is performed by irradiating a laser at a plurality of different locations on a facility such as a plant, individual point group data is generated for each three-dimensional scanning. Such individual point group data may be applied to a predefined reference coordinate system to generate one matched point group data for the corresponding facility.

특히, 본 발명의 일 실시예에서 형상 데이터 생성부(111)는 시설의 점군 데이터에서 특정 객체의 점군 데이터를 분할할 수 있다.In particular, in one embodiment of the present invention, the shape data generator 111 may divide the point group data of a specific object from the point group data of the facility.

여기서, 전체 시설의 점군 데이터는 정합 점군 데이터 또는 단일 점군 데이터일 수 있고, 특정 객체의 점군 데이터는 정합(단일) 점군 데이터로부터 동일한 속성을 갖는 점들을 찾아서 분할한 분할 점군(segmented point cloud) 데이터일 수 있다.Here, the point group data of the entire facility may be matched point group data or single point group data, and the point group data of a specific object may be segmented point cloud data obtained by dividing points having the same attributes from the matched (single) point group data. Can be.

즉, 도 2는 본 발명의 일 실시예에 따라 획득된 점군 데이터로 구성된 3차원 형상 데이터를 예시적으로 나타낸 그림이다.That is, FIG. 2 is a diagram illustrating three-dimensional shape data composed of point group data obtained according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 형상 데이터 생성부(111)는 객체를 스캐닝하여 얻은 점군 데이터로부터 전체 시설의 3차원 형상 데이터 및 특정 객체의 3차원 형상 데이터를 생성할 수 있다.As shown in FIG. 2, the shape data generation unit 111 may generate 3D shape data of the entire facility and 3D shape data of a specific object from point group data obtained by scanning an object.

도 3은 도 2의 3차원 형상 데이터를 비례 축소한 후, 단위구를 투영한 예시도이다.3 is an exemplary view of projecting a unit sphere after proportionally reducing the three-dimensional shape data of FIG. 2.

도 3을 참조하면, 시점 처리부(112)는 형상 데이터 생성부(111)에서 생성한 3차원 형상 데이터(1a)의 중심점(C)을 추정하고, 중심점(C)을 중심으로 형성된 단위구(2)를 3차원 형상 데이터(1a)에 투영하고, 단위구(2) 표면에서 중심점(C)을 바라보는 특정 지점을 복수의 시점(V1, V2, ?? VnV)으로 설정할 수 있다.Referring to FIG. 3, the viewpoint processor 112 estimates the center point C of the 3D shape data 1a generated by the shape data generation unit 111, and the unit sphere 2 formed around the center point C. ) Can be projected onto the three-dimensional shape data 1a, and a specific point facing the center point C on the surface of the unit sphere 2 can be set to a plurality of viewpoints V1, V2, ?? Vn V.

3차원 형상 데이터(1a)의 중심점(C)은 점군 데이터를 이루는 복수의 점 좌표와 이루는 거리의 표준 편차가 가장 낮은 좌표로 설정될 수 있다.The center point C of the three-dimensional shape data 1a may be set to a coordinate having the lowest standard deviation of the distance formed from the plurality of point coordinates constituting the point group data.

한편, 시점 처리부(112)는 점군 데이터를 이루는 복수의 점 좌표 중 중심점(C)까지의 거리가 가장 큰 최외각 점을 선정하고, 최외각 점 좌표와 중심점(C)까지의 거리가 1이 되도록 3차원 형상 데이터(1a)를 비례 축소할 수 있다.On the other hand, the viewpoint processing unit 112 selects the outermost point having the largest distance to the center point C among the plurality of point coordinates constituting the point group data, so that the distance between the outermost point coordinate and the center point C becomes 1. The three-dimensional shape data 1a can be proportionally reduced.

또한, 시점 처리부(112)는 중심점(C)과 거리가 1인 단위구(2)를 생성하여, 단위구(2)를 비례 축소된 3차원 형상 데이터(1a)에 투영할 수 있다.In addition, the viewpoint processor 112 may generate a unit sphere 2 having a distance of 1 from the center point C, and may project the unit sphere 2 onto the three-dimensional shape data 1a which is scaled down.

여기서, 단위구(2)는 표면이 삼각망 또는 사각망으로 이루어진 3차원 구 형상일 수 있으며, 시점 처리부(112)는 단위구(2)에서 삼각망 또는 사각망을 이루는 직선들의 교차점 각각을 복수의 시점(V1, V2, VnV)으로 설정할 수 있다.Here, the unit sphere 2 may be a three-dimensional sphere shape of the surface consisting of a triangular network or a square network, the viewpoint processing unit 112 a plurality of intersection points of the straight lines forming a triangular or square network in the unit sphere (2). Can be set to the time points V1, V2, and Vn V.

이미지 처리부(113)는 시점 처리부(112)에서 처리된 복수의 시점(V1, V2, VnV)에서 바라본 깊이 이미지를 생성할 수 있다.The image processor 113 may generate depth images viewed from the plurality of viewpoints V1, V2, and Vn V processed by the viewpoint processor 112.

특히, 이미지 처리부(113)는 제 1 시점과 제 1 해상도를 결정하고, 제 1 시점과 제 1 해상도를 갖는 제 1 깊이 이미지를 생성할 수 있다.In particular, the image processor 113 may determine the first view point and the first resolution and generate a first depth image having the first view point and the first resolution.

여기서, 제 1 깊이 이미지는 3차원 형상 데이터를 깊이 이미지로 변환 시 정보 손실이 가작 적은 최적의 깊이 이미지이며, 제 1 시점은 제 1 깊이 이미지를 생성하기 위한 최적의 시점이며, 제 1 해상도는 제 1 깊이 이미지를 생성하기 위한 최적의 해상도를 의미한다. Here, the first depth image is an optimal depth image with little information loss when converting the 3D shape data into a depth image, the first viewpoint is an optimal viewpoint for generating the first depth image, and the first resolution is 1 means the optimal resolution for creating a depth image.

한편, 시점 처리부(112)에서 점군 데이터에 대해 위치 및 포즈 정규화를 수행하였으므로, 모든 점군 데이터가 중심점 주변에 존재한다는 것을 알고 있기 때문에, 이미지 처리부(113)에서 제 1 시점이 정해진다면 중심점을 바라보도록 스캐닝 자세를 정의할 수 있다.On the other hand, since the viewpoint processing unit 112 performs position and pose normalization on the point group data, since it is known that all the point group data exist around the center point, the image processing unit 113 looks at the center point when the first view point is determined. You can define the scanning position.

또한, 객체, 시점 및 투영 행렬을 통해 점군 데이터가 정규화 장치 좌표(Normalized Device Coordinate, NDC)로 변환되면 이후 해상도에 맞추어 화면 좌표(screen coordinate)로 변환되므로, 이미지 처리부(113)에서는 제 1 해상도에 대한 결정도 수행되어야 한다.In addition, when the point cloud data is converted into normalized device coordinates (NDC) through objects, viewpoints, and projection matrices, the point group data is converted into screen coordinates according to the resolution. Decisions must also be made.

도 4는 도 2의 3차원 형상 데이터에서 특정 시점의 깊이 이미지를 생성한 결과를 비교한 예시도이다.FIG. 4 is an exemplary view comparing the results of generating depth images of specific views from the 3D shape data of FIG. 2.

도 1 내지 도 4를 함께 참조하면, 이미지 처리부(113)는 복수의 시점(V1, V2, VnV) 각각에서 깊이 이미지를 생성하고, 본 발명에서 정의된 정보 획득률(acquisition rate, A(v, w)) 및 정보 밀도(density, D(v, w))를 연산한 뒤, 이를 기반으로 제 1 시점과 제 1 해상도를 결정할 수 있다.1 to 4, the image processor 113 generates a depth image at each of the plurality of viewpoints V1, V2, and Vn V , and defines an information acquisition rate, A (v), as defined in the present invention. , w)) and information density (D (v, w)), and then the first viewpoint and the first resolution may be determined based on this.

즉, 이미지 처리부(113)는 최대한 많은 점군 데이터가 깊이 이미지의 픽셀로 투영되는 제 1 시점과, SIFT 특징을 잘 계산할 수 있는 제 1 해상도를 결정할 수 있다.That is, the image processor 113 may determine a first view point in which as many point group data are projected as pixels of the depth image and a first resolution capable of calculating SIFT features well.

이미지 처리부(113)는 연산부(113a) 및 결정부(113b)를 포함한다.The image processor 113 includes a calculator 113a and a determiner 113b.

연산부(113a)는 정보 획득률(A(v, w)) 및 정보 밀도(D(v, w))를 연산할 수 있다.The calculation unit 113a may calculate the information acquisition rate A (v, w) and the information density D (v, w).

우선, 이미지 처리부(113)는 단위구의 표면에서 생성된 Nv개의 시점과 결정된 Nw개의 해상도를 통해 Nv * Nw 개의 깊이 이미지를 생성할 수 있다.First, the image processing unit 113 may generate a N * N v w of the depth image through a resolution of N w N v determined as the view points generated by the unit surface of a sphere.

이후, 연산부(113a)는 각 깊이 이미지에서 픽셀의 개수를 산출하여, Npixel을 계산하며, 이를 기반으로 다음의 [수학식 1]과 같이 정보 획득률(A(v,w))을 연산할 수 있다.Thereafter, the calculating unit 113a calculates N pixels by calculating the number of pixels in each depth image, and calculates the information acquisition rate A (v, w) as shown in Equation 1 below. Can be.

Figure 112018037158311-pat00022
Figure 112018037158311-pat00022

여기서,

Figure 112019077647566-pat00023
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00024
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.here,
Figure 112019077647566-pat00023
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00024
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point group data.

즉, 정보 획득률(A(v, w))은 점군 데이터 중 얼마나 많은 정보가 깊이 이미지에 반영 되었는지를 입력 점군 데이터에 대한 비율로 나타내는 것이다.That is, the information acquisition rate A (v, w) indicates how much information of the point group data is reflected in the depth image as a ratio with respect to the input point group data.

또한, 연산부(113a)는 다음의 [수학식 2]와 같이 각 깊이 이미지에서 픽셀 정보를 통해 정보 밀도(D(v, w))를 연산할 수 있다.In addition, the calculator 113a may calculate the information density D (v, w) through pixel information in each depth image as shown in Equation 2 below.

Figure 112018037158311-pat00025
Figure 112018037158311-pat00025

여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.Here, N 8 -connected is the number of pixels adjacent to eight foreground pixels in up, down, left, right and diagonal directions in the depth image.

즉, 정보 밀도(D(v, w))는 깊이 이미지에 반영된 점들이 서로 얼마나 밀집된 상태로 픽셀로 존재하는지를 깊이 영상에 투사된 전체 픽셀 수에 대한 비율로써 나타내는 것이다.That is, the information density D (v, w) indicates how dense the points reflected in the depth image exist as pixels as a ratio of the total number of pixels projected on the depth image.

도 5는 시점과 해상도에 따라 생성된 깊이 이미지에서의 정보 획득률을 예시적으로 나타낸 그림이다.5 is a diagram illustrating an information acquisition rate in a depth image generated according to a viewpoint and a resolution.

도 5를 참조하면, 연산부(113a)에서 시점과 해상도에 따가 연산 된 정보 획득률(A(v, w))의 일 예를 확인할 수 있다.Referring to FIG. 5, an example of an information acquisition rate A (v, w) calculated according to a viewpoint and a resolution may be confirmed by the calculator 113a.

해상도가 높아질수록, 정보 획득률 값은 전체적으로 높아지는 경향을 보인다. 이는, 이미지의 해상도가 높아질수록 근접해 있는 점들이 동일 픽셀로 투영되어 포화가 발생할 가능성이 높아지기 때문이다. 깊이 이미지의 각 픽셀은 하나의 깊이 값 만을 인코딩 할 수 있으므로, 점군 내 여러 점들이 하나의 픽셀에 대응될 때에는 가장 가까이에 있는(깊이 값이 가장 작은) 점의 깊이 값만이 픽셀에 기록될 수 있다.As the resolution is higher, the information acquisition rate value tends to be higher overall. This is because the higher the resolution of an image, the more likely that adjacent points are projected onto the same pixel, thereby increasing saturation. Each pixel in a depth image can encode only one depth value, so when multiple points in a point group correspond to one pixel, only the depth value of the nearest point (the smallest depth value) can be written to the pixel. .

즉, 깊이 이미지를 생성할 때 해상도가 높은 경우에는 근접한 점들의 깊이 값을 모두 기록할 수 있는 반면, 낮은 해상도에서는 밀집된 점들 중 특정한 점의 깊이 값만이 기록되고 나머지 점들의 깊이 값은 이미지에 포함되지 않으므로, 투영되는 점군의 개수가 전반적으로 적어질 수 있다.In other words, when creating a depth image, when the resolution is high, all depth values of adjacent points can be recorded, whereas at low resolution, only the depth value of a specific point among the dense points is recorded, and the depth value of the remaining points is not included in the image. Therefore, the number of projected point groups may be reduced overall.

이후, 결정부(113b)는 정규화 된 정보 획득률(Normalized_A) 값을 사용해 상술한 바와 같이 제 1 시점을 결정할 수 있다.Thereafter, the determination unit 113b may determine the first time point as described above using the normalized information acquisition rate (Normalized_A) value.

우선, 결정부(113b)는 다음의 [수학식 3]과 같이 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 할 수 있다.First, the determiner 113b may normalize the information acquisition rate derived for each resolution to the range [0,1] as shown in Equation 3 below.

Figure 112018037158311-pat00026
Figure 112018037158311-pat00026

또한, 결정부(113b)는 다음의 [수학식 4]와 같이 최적의 제 1 시점(Viewpoint_1st)을 결정할 수 있다.In addition, the determination unit 113b may determine the optimal first view point Viewpoint_1st as shown in Equation 4 below.

Figure 112018037158311-pat00027
Figure 112018037158311-pat00027

도 6은 시점과 해상도에 따라 생성된 깊이 이미지에서의 정규화 된 정보 획득률을 예시적으로 나타낸 그림이고, 도 7은 각 시점에서의 정규화 된 정보 획득률의 합을 예시적으로 나타낸 그림이다.FIG. 6 is a diagram illustrating a normalized information acquisition rate in a depth image generated according to a viewpoint and a resolution, and FIG. 7 is a diagram illustrating a sum of normalized information acquisition rates at each viewpoint.

도 6 및 도 7를 함께 참조하면, 결정부(113b)에서 적절한 해상도를 판단하기 이전에는 여러 해상도에 걸쳐 높은 정규화 된 정보 획득률 값을 도출하는 제 1 시점을 확률적으로 결정할 수 있다.6 and 7 together, before determining the proper resolution, the determination unit 113b may probabilistically determine a first time point for deriving a high normalized information acquisition rate value over several resolutions.

특히, 도 7에 도시된 바와 같이, 정규화 된 정보 획득률(Normalized_A) 합 값은 특정 시점에서 가장 높게 나타나며, 이러한 피크(peak) 값을 나타내는 시점이 결정부(113b)에서 제 1 시점으로 결정될 수 있다.In particular, as illustrated in FIG. 7, the normalized information acquisition rate (Normalized_A) sum value is highest at a specific time point, and a time point indicating this peak value may be determined as the first time point in the determination unit 113b. have.

또한, 결정부(113b)는 결정된 제 1 시점을 기준으로 정보 밀도가 최대치가 되는 해상도를 깊이 이미지의 제 1 해상도로 결정할 수 있다. 즉, 결정부(113b)는 다음의 [수학식 5]와 같이 최적의 제 1 해상도(Viewpoint_1st)를 결정할 수 있다.Also, the determiner 113b may determine, as the first resolution of the depth image, a resolution at which the information density becomes the maximum value based on the determined first viewpoint. That is, the determination unit 113b may determine the optimal first resolution View_1_1 as shown in Equation 5 below.

Figure 112018037158311-pat00028
Figure 112018037158311-pat00028

즉, 이미지 처리부(113)는 시점과 해상도에 대한 정보를 별도로 사용자의 입력을 요구하지 않고, 최적의 시점 및 최적의 이미지 해상도를 선택하는 알고리즘을 제공하여, 제 1 깊이 이미지 생성의 자동화가 가능하다.That is, the image processor 113 may provide an algorithm for selecting an optimal viewpoint and an optimal image resolution without requiring a user's input for information on the viewpoint and the resolution, thereby automating the generation of the first depth image. .

객체 식별부(114)는 이미지 처리부(113)에서 제공되는 제 1 깊이 이미지와 저장부(120)에 기 저장된 형상 모델링 데이터를 비교 분석하여, 스캐닝 된 객체를 식별할 수 있다. 또한, 객체 식별부(114)는 식별된 객체의 형상 모델링 데이터를 시설 배치 데이터에 제공할 수 있다.The object identifier 114 may identify the scanned object by comparing and analyzing the first depth image provided by the image processor 113 and the shape modeling data previously stored in the storage 120. In addition, the object identification unit 114 may provide shape modeling data of the identified object to the facility arrangement data.

도 8은 본 발명의 일 실시예에 따른 3차원 객체 식별 방법의 예시적인 흐름도이다.8 is an exemplary flowchart of a 3D object identification method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 3차원 객체 식별 방법은 깊이 이미지를 생성하는 단계(S10) 및 생성된 깊이 이미지를 기반으로 객체를 식별하고, 객체의 형상 모델링 데이터를 3차원 시설 배치 데이터에 배치하는 단계(S20)를 포함한다.Referring to FIG. 8, in the method of identifying a 3D object according to an embodiment of the present disclosure, the method may include generating a depth image (S10) and identifying the object based on the generated depth image, and 3D shape shape data of the object. The step S20 includes the facility layout data.

한편, 깊이 이미지를 생성하는 단계(S10)는 객체의 3차원 형상 데이터를 생성하는 단계(S11), 복수의 시점을 설정하는 단계(S12), 제 1 시점을 결정하는 단계(S13), 제 1 해상도를 결정하는 단계(S14), 제 1 깊이 이미지를 생성하는 단계(S15)를 포함할 수 있다.Meanwhile, the generating of the depth image (S10) may include generating three-dimensional shape data of the object (S11), setting a plurality of viewpoints (S12), determining a first viewpoint (S13), and first Determining the resolution (S14), generating a first depth image (S15) may be included.

생성된 깊이 이미지를 기반으로 객체를 식별하고, 객체의 형상 모델링 데이터를 3차원 시설 배치 데이터에 배치하는 단계(S20)는 객체를 식별하는 단계(S21) 및 형상 모델링 데이터를 3차원 시설 배치 데이터에 배치하는 단계(S22)를 포함할 수 있다.Identifying the object based on the generated depth image, and placing the shape modeling data of the object in the three-dimensional facility layout data (S20), the step of identifying the object (S21) and the shape modeling data to the three-dimensional facility layout data It may include the step (S22) to place.

객체의 3차원 형상 데이터를 생성하는 단계(S11)에서는 형상 데이터 생성부(111)에서 객체를 스캐닝하여 얻은 점군 데이터로부터 전체 시설의 3차원 형상 데이터 및 특정 객체의 3차원 형상 데이터를 생성할 수 있다.In operation S11 of generating the 3D shape data of the object, the shape data generation unit 111 may generate the 3D shape data of the entire facility and the 3D shape data of the specific object from the point group data obtained by scanning the object. .

복수의 시점을 설정하는 단계(S12)에서는 시점 처리부(112)는 객체의 3차원 형상 데이터를 비례 축소하고, 비례 축소된 3차원 형상 데이터에 단위구를 투영하여 단위구의 표면 상에 복수의 시점을 설정할 수 있다.In the step S12 of setting a plurality of viewpoints, the viewpoint processing unit 112 proportionally reduces the three-dimensional shape data of the object, projects the unit sphere on the proportionally reduced three-dimensional shape data, and displays the plurality of viewpoints on the surface of the unit sphere. Can be set.

제 1 시점을 결정하는 단계(S13)에서는 상술한 바와 같이 이미지 처리부(113)에서 [수학식 1] 및 [수학식 2]를 통해 정보 획득률(A(v, w)) 및 정보 밀도(D(v, w))를 연산하고, [수학식 3] 및 [수학식 4]를 통해 제 1 시점을 결정할 수 있다.In the determining of the first viewpoint (S13), as described above, the information acquisition rate A (v, w) and the information density D through [Equation 1] and [Equation 2] in the image processing unit 113. (v, w)), and a first time point may be determined through Equation 3 and Equation 4.

제 1 해상도를 결정하는 단계(S14)에서는 상술한 바와 같이 이미지 처리부(113)에서 결정된 제 1 시점을 기반으로 [수학식 5]를 통해 제 1 해상도를 결정할 수 있다.In the determining of the first resolution (S14), as described above, the first resolution may be determined through Equation 5 based on the first viewpoint determined by the image processor 113.

제 1 깊이 이미지를 생성하는 단계(S15)에서는 결정된 최적의 제 1 시점 및 제 1 해상도를 갖는 제 1 깊이 이미지를 생성할 수 있다.In operation S15 of generating the first depth image, a first depth image having the determined optimal first viewpoint and the first resolution may be generated.

여기서, 제 1 깊이 이미지는 3차원 형상 데이터를 깊이 이미지로 변환 시 정보 손실이 가작 적은 최적의 깊이 이미지이며, 제 1 시점은 제 1 깊이 이미지를 생성하기 위한 최적의 시점이며, 제 1 해상도는 제 1 깊이 이미지를 생성하기 위한 최적의 해상도를 의미한다. Here, the first depth image is an optimal depth image with little information loss when converting the 3D shape data into a depth image, the first viewpoint is an optimal viewpoint for generating the first depth image, and the first resolution is 1 means the optimal resolution for creating a depth image.

객체를 식별하는 단계(S21)에서는 객체 식별부(114)에서 제 1 깊이 이미지에 매칭되는 시설의 형상 모델링 데이터를 통해 스캐닝 된 객체를 식별할 수 있다. In the step of identifying the object (S21), the object identifying unit 114 may identify the scanned object through the shape modeling data of the facility that matches the first depth image.

형상 모델링 데이터를 3차원 시설 배치 데이터에 배치하는 단계(S22)에서는 객체 식별부(114)에서 식별되어 객체에 대응되는 형상 모델링 데이터를 전체 시설의 배치 데이터로 전송하여, 전체 시설의 배치 데이터 상에 객체의 형상 모델링 데이터를 배치할 수 있다.In the step S22 of disposing the shape modeling data in the three-dimensional facility layout data, the object modeling unit 114 transmits the shape modeling data corresponding to the object as the layout data of the entire facility, on the layout data of the entire facility. You can place shape modeling data of an object.

이상에서 설명한 것은 본 발명에 따른 3차원 스캐닝을 통해 획득된 점군 데이터 기반에서 깊이 이미지를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing a three-dimensional object identification method and apparatus and method for generating a depth image based on the point group data obtained through the three-dimensional scanning according to the present invention, Not limited to one embodiment, as claimed in the following claims to those skilled in the art to which the present invention pertains without departing from the gist of the present invention to the extent that various modifications can be made Would have a technical spirit.

10: 3차원 모델링 장치 110: 프로세서
111: 형상 데이터 생성부 112: 시점 처리부
113: 이미지 처리부 114: 객체 식별부
120: 저장부
10: three-dimensional modeling device 110: processor
111: shape data generation unit 112: viewpoint processing unit
113: image processing unit 114: object identification unit
120: storage unit

Claims (20)

객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 형상 데이터 생성부;
상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 시점 처리부; 및
상기 단위구의 표면에서 제 1 시점을 결정하고, 상기 제 1 시점을 기준으로 제 1 해상도를 결정하고, 상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 이미지 처리부; 를 포함하고,
상기 이미지 처리부는
상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 연산부; 및
상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 결정부; 를 포함하고.
상기 연산부는 다음의 [수식 1]을 통해 정보 획득률을 연산하는 깊이 이미지 생성 장치.
[수식 1]
Figure 112019077647566-pat00029

(여기서,
Figure 112019077647566-pat00030
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00031
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)
A shape data generator for generating three-dimensional shape data composed of point group data obtained by scanning an object;
A viewpoint processing unit for estimating a center point from the 3D shape data and projecting a unit sphere having the same distance as the center point to the 3D shape data; And
A first viewpoint is determined on a surface of the unit sphere, a first resolution is determined based on the first viewpoint, and a first depth image having the first viewpoint and the first resolution is generated from the three-dimensional shape data. An image processing unit; Including,
The image processing unit
A calculation unit for calculating each information acquisition rate (A (v, w)) and information density (D (v, w)) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere; And
A determination unit to determine the first time point and the first resolution based on the information acquisition rate and the information density; Including.
And the calculating unit calculates an information acquisition rate through the following [Equation 1].
[Equation 1]
Figure 112019077647566-pat00029

(here,
Figure 112019077647566-pat00030
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00031
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)
삭제delete 제 1 항에 있어서,
상기 연산부는 다음의 [수식 2]를 통해 정보 밀도를 연산하는 깊이 이미지 생성 장치.
[수식 2]
Figure 112019077647566-pat00032

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)
The method of claim 1,
The calculating unit is a depth image generating device for calculating the information density through the following [Equation 2].
[Formula 2]
Figure 112019077647566-pat00032

(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)
제 3 항에 있어서,
상기 결정부는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정하는 깊이 이미지 생성 장치.
[수식 3]
Figure 112018037158311-pat00033

Figure 112018037158311-pat00034

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)
The method of claim 3, wherein
And the determining unit determines the first viewpoint through the following [Equation 3].
[Equation 3]
Figure 112018037158311-pat00033

Figure 112018037158311-pat00034

(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)
제 4 항에 있어서,
상기 결정부는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정하는 깊이 이미지 생성 장치.
[수식 4]
Figure 112018037158311-pat00035

The method of claim 4, wherein
And the determining unit determines the first resolution through the following [Equation 4].
[Equation 4]
Figure 112018037158311-pat00035

제 5 항에 있어서,
상기 시점 처리부는
상기 3차원 형상 데이터의 중심점과 상기 점군 데이터 중 최외각 점 사이의 거리가 1이 되도록 상기 3차원 형상 데이터를 비례 축소하고,
중심점과 거리가 1인 단위구를 비례 축소된 3차원 형상 데이터에 투영하는 1인 깊이 이미지 생성 장치.
The method of claim 5,
The viewpoint processing unit
Proportionally reducing the 3D shape data such that the distance between the center point of the 3D shape data and the outermost point of the point group data is 1,
A one-person depth image generating device for projecting a unit sphere having a center point and a distance of one to proportionally scaled three-dimensional shape data.
제 6 항에 있어서,
상기 단위구의 표면은 삼각망 또는 사각망으로 구성되며,
상기 시점 처리부는
상기 삼각망 또는 사각망을 이루는 직선들의 교차점 각각을 상기 복수의 시점으로 설정하는 깊이 이미지 생성 장치.
The method of claim 6,
The surface of the unit sphere is composed of a triangular network or a square network,
The viewpoint processing unit
And a depth image generating device for setting each of the intersection points of the straight lines forming the triangular or quadrangular network as the plurality of viewpoints.
객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 단계;
상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 단계;
상기 단위구의 표면 중 특정 지점 각각을 복수의 시점으로 설정하는 단계;
상기 단위구의 표면에서 제 1 시점을 결정하는 단계;
상기 제 1 시점을 기준으로 제 1 해상도를 결정하는 단계; 및
상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 단계; 를 포함하고,
상기 제 1 깊이 이미지를 생성하는 단계는 상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 단계; 및
상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 단계; 를 포함하고,
상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 1]을 통해 정보 획득률을 연산하는 깊이 이미지 생성 방법.
[수식 1]
Figure 112019077647566-pat00036

(여기서,
Figure 112019077647566-pat00037
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00038
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)
Generating three-dimensional shape data composed of point group data obtained by scanning an object;
Estimating a center point from the three-dimensional shape data and projecting a unit sphere having the same distance as the center point to the three-dimensional shape data;
Setting each specific point of the surface of the unit sphere to a plurality of viewpoints;
Determining a first viewpoint at the surface of the unit sphere;
Determining a first resolution based on the first viewpoint; And
Generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data; Including,
The generating of the first depth image may include the information acquisition rate A (v, w) and the information density D (v, w) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere. Calculating; And
Determining the first time point and the first resolution based on the information acquisition rate and the information density; Including,
The calculating of the information acquisition rate and the information density may include calculating the information acquisition rate through the following [Equation 1].
[Equation 1]
Figure 112019077647566-pat00036

(here,
Figure 112019077647566-pat00037
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00038
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)
삭제delete 삭제delete 제 8 항에 있어서,
상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 2]를 통해 정보 밀도를 연산하는 깊이 이미지 생성 방법.
[수식 2]
Figure 112019077647566-pat00039

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)
The method of claim 8,
The calculating of the information acquisition rate and the information density may include calculating an information density using Equation 2 below.
[Formula 2]
Figure 112019077647566-pat00039

(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)
제 11 항에 있어서,
상기 제 1 시점을 결정하는 단계는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정하는 깊이 이미지 생성 방법.
[수식 3]
Figure 112018037158311-pat00040

Figure 112018037158311-pat00041

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)
The method of claim 11,
The determining of the first viewpoint may include determining the first viewpoint through the following [Equation 3].
[Equation 3]
Figure 112018037158311-pat00040

Figure 112018037158311-pat00041

(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)
제 12 항에 있어서,
상기 제 1 해상도를 결정하는 단계는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정하는 깊이 이미지 생성 방법.
[수식 4]
Figure 112018037158311-pat00042

The method of claim 12,
The determining of the first resolution may include determining the first resolution through Equation 4 below.
[Equation 4]
Figure 112018037158311-pat00042

제 13 항에 있어서,
상기 단위구를 3차원 형상 데이터에 투영하는 단계는
상기 3차원 형상 데이터의 중심점과 상기 점군 데이터 중 최외각 점 사이의 거리가 1이 되도록 상기 3차원 형상 데이터를 비례 축소하는 단계; 및
상기 비례 축소된 3차원 형상 데이터의 중심점과 거리가 1인 단위구를 상기 비례 축소된 3차원 형상 데이터에 투영하는 단계; 를 포함하는 깊이 이미지 생성 방법.
The method of claim 13,
Projecting the unit sphere to the three-dimensional shape data
Proportionally reducing the 3D shape data such that a distance between a center point of the 3D shape data and the outermost point of the point group data is 1; And
Projecting the unit sphere whose distance from the center point of the proportionally reduced three-dimensional shape data is 1 to the proportionally reduced three-dimensional shape data; Depth image generation method comprising a.
제 14 항에 있어서,
상기 단위구를 3차원 형상 데이터에 투영하는 단계에서,
상기 단위구의 표면은 삼각망 또는 사각망으로 구성되는 깊이 이미지 생성 방법.
The method of claim 14,
In the step of projecting the unit sphere to the three-dimensional shape data,
Surface of the unit sphere is a depth image generation method consisting of a triangular network or a square network.
제 15 항에 있어서,
상기 복수의 시점으로 설정하는 단계에서,
상기 단위구에서 상기 삼각망 또는 사각망을 이루는 직선들의 교차점 각각을 상기 복수의 시점으로 설정하는 깊이 이미지 생성 방법.
The method of claim 15,
In the step of setting to the plurality of viewpoints,
The depth image generation method of setting each intersection point of the straight lines constituting the triangular or square network in the unit sphere as the plurality of viewpoints.
객체를 스캐닝하여 얻은 점군 데이터로 구성된 3차원 형상 데이터를 생성하는 단계;
상기 3차원 형상 데이터에서 중심점을 추정하며, 상기 중심점과 동일 거리를 이루는 단위구를 3차원 형상 데이터에 투영하는 단계;
상기 단위구의 표면 중 특정 지점 각각을 복수의 시점으로 설정하는 단계;
상기 단위구의 표면에서 의 제 1 시점을 결정하는 단계;
상기 제 1 시점을 기준으로 의 제 1 해상도를 결정하는 단계;
상기 3차원 형상 데이터로부터 상기 제 1 시점 및 상기 제 1 해상도를 갖는 제 1 깊이 이미지를 생성하는 단계; 및
상기 제 1 깊이 이미지를 기 저장된 형상 모델링 데이터에 매칭시켜, 상기 객체를 식별하는 단계; 를 포함하고,
상기 제 1 깊이 이미지를 생성하는 단계는
상기 단위구의 표면 중 복수의 시점을 각각 갖는 복수의 깊이 이미지를 통해 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 단계; 및
상기 정보 획득률과 정보 밀도를 통해 상기 제 1 시점과 상기 제 1 해상도를 결정하는 단계; 를 포함하고,
상기 각각의 정보 획득률(A(v, w))과 정보 밀도(D(v, w))를 연산하는 단계는 다음의 [수식 1]을 통해 정보 획득률을 연산하는 3차원 객체 식별 방법.
[수식 1]
Figure 112019077647566-pat00058

(여기서,
Figure 112019077647566-pat00059
는 단위구의 표면 상의 한 지점인 위치이고,
Figure 112019077647566-pat00060
는 깊이 이미지의 해상도이고, Npixel은 시점 개수와 해상도 개수를 기반의 깊이 이미지의 전경(foreground) 픽셀의 개수이며, Np는 점군 데이터의 점 개수이다.)
Generating three-dimensional shape data composed of point group data obtained by scanning an object;
Estimating a center point from the three-dimensional shape data and projecting a unit sphere having the same distance as the center point to the three-dimensional shape data;
Setting each specific point of the surface of the unit sphere to a plurality of viewpoints;
Determining a first time point at the surface of the unit sphere;
Determining a first resolution of with respect to the first viewpoint;
Generating a first depth image having the first viewpoint and the first resolution from the three-dimensional shape data; And
Matching the first depth image with pre-stored shape modeling data to identify the object; Including,
Generating the first depth image
Calculating each information acquisition rate (A (v, w)) and information density (D (v, w)) through a plurality of depth images each having a plurality of viewpoints on the surface of the unit sphere; And
Determining the first time point and the first resolution based on the information acquisition rate and the information density; Including,
Computing the information acquisition rate (A (v, w)) and the information density (D (v, w)) of each of the three-dimensional object identification method using the following equation (1).
[Equation 1]
Figure 112019077647566-pat00058

(here,
Figure 112019077647566-pat00059
Is a location on the surface of the unit sphere,
Figure 112019077647566-pat00060
Is the resolution of the depth image, N pixel is the number of foreground pixels of the depth image based on the number of viewpoints and the resolution number, and N p is the number of points of the point cloud data.)
삭제delete 제 17항에 있어서,
상기 정보 획득률과 정보 밀도를 연산하는 단계는 다음의 [수식 2]를 통해 정보 밀도를 연산하고,
상기 제 1 시점을 결정하는 단계는 다음의 [수식 3]을 통해 상기 제 1 시점을 결정하고,
상기 제 1 해상도를 결정하는 단계는 다음의 [수식 4]를 통해 상기 제 1 해상도를 결정하는 3차원 객체 식별 방법.
[수식 2]
Figure 112019077647566-pat00046

(여기서, N8-connected는 깊이 이미지에서 상, 하, 좌, 우 및 대각선 방향으로 8개의 전경 픽셀이 이웃한 픽셀의 개수이다.)
[수식 3]
Figure 112019077647566-pat00047

Figure 112019077647566-pat00048

(여기서, Viewpoint_1st는 제 1 시점이고, Normalized_A(v, w)는 각 해상도별로 도출된 정보 획득률을 [0,1] 범위로 정규화 한 것이다.)
[수식 4]
Figure 112019077647566-pat00049

The method of claim 17,
The calculating of the information acquisition rate and the information density may be performed by calculating the information density through the following [Formula 2],
The determining of the first time point may include determining the first time point through the following Equation 3,
The determining of the first resolution may include determining the first resolution through Equation 4 below.
[Formula 2]
Figure 112019077647566-pat00046

(N 8-connected is the number of neighboring eight foreground pixels in the depth image in the up, down, left, right and diagonal directions.)
[Equation 3]
Figure 112019077647566-pat00047

Figure 112019077647566-pat00048

(Here, Viewpoint_1st is the first time point, and Normalized_A (v, w) normalizes the information acquisition rate derived for each resolution to [0,1].)
[Equation 4]
Figure 112019077647566-pat00049

제 19항에 있어서,
식별된 상기 객체의 형상 모델링 데이터를 3차원 모델링 데이터에 배치하는 단계; 를 더 포함하는 3차원 객체 식별 방법.
The method of claim 19,
Placing shape modeling data of the identified object into three-dimensional modeling data; Three-dimensional object identification method further comprising.
KR1020180043473A 2018-04-13 2018-04-13 Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same Active KR102042343B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180043473A KR102042343B1 (en) 2018-04-13 2018-04-13 Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180043473A KR102042343B1 (en) 2018-04-13 2018-04-13 Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same

Publications (2)

Publication Number Publication Date
KR20190119926A KR20190119926A (en) 2019-10-23
KR102042343B1 true KR102042343B1 (en) 2019-11-07

Family

ID=68461114

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180043473A Active KR102042343B1 (en) 2018-04-13 2018-04-13 Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same

Country Status (1)

Country Link
KR (1) KR102042343B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749594B (en) * 2019-10-31 2022-04-22 浙江商汤科技开发有限公司 Information completion method, lane line recognition method, intelligent driving method and related products
CN111455927A (en) * 2020-01-21 2020-07-28 河海大学 A design method for aquifers in the outer ring of the island to increase the underground freshwater storage of the island

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000509150A (en) 1996-04-24 2000-07-18 サイラ・テクノロジーズ・インク Integrated device for imaging and modeling three-dimensional objects
US20140002448A1 (en) 2012-06-28 2014-01-02 Kabushiki Kaisha Toshiba Measurement support device, method and computer program product
JP2017054468A (en) * 2015-09-11 2017-03-16 大豊精機株式会社 System, method, and computer software program for displaying and operating two-dimensional or three-dimensional shape information
US20170094243A1 (en) 2013-03-13 2017-03-30 Pelican Imaging Corporation Systems and Methods for Synthesizing Images from Image Data Captured by an Array Camera Using Restricted Depth of Field Depth Maps in which Depth Estimation Precision Varies
KR101788269B1 (en) 2016-04-22 2017-10-19 주식회사 에스원 Method and apparatus for sensing innormal situation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355334B1 (en) * 2013-09-06 2016-05-31 Toyota Jidosha Kabushiki Kaisha Efficient layer-based object recognition
KR101665446B1 (en) * 2015-03-30 2016-10-13 경북대학교 산학협력단 Apparatus and method for generating 3d facility layout data from point-cloud data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000509150A (en) 1996-04-24 2000-07-18 サイラ・テクノロジーズ・インク Integrated device for imaging and modeling three-dimensional objects
US20140002448A1 (en) 2012-06-28 2014-01-02 Kabushiki Kaisha Toshiba Measurement support device, method and computer program product
JP2014010559A (en) * 2012-06-28 2014-01-20 Toshiba Corp Measurement support device, method and program
US20170094243A1 (en) 2013-03-13 2017-03-30 Pelican Imaging Corporation Systems and Methods for Synthesizing Images from Image Data Captured by an Array Camera Using Restricted Depth of Field Depth Maps in which Depth Estimation Precision Varies
JP2017054468A (en) * 2015-09-11 2017-03-16 大豊精機株式会社 System, method, and computer software program for displaying and operating two-dimensional or three-dimensional shape information
KR101788269B1 (en) 2016-04-22 2017-10-19 주식회사 에스원 Method and apparatus for sensing innormal situation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
문두환. et al, "플랜트 3D CAD 시스템 기반의 기기 및 피팅의 형상 유사도 비교 API 개발 방안." 한국정밀공학회 학술발표대회 논문집 (2017)

Also Published As

Publication number Publication date
KR20190119926A (en) 2019-10-23

Similar Documents

Publication Publication Date Title
RU2695528C2 (en) Laser scanning data image visualization
US20100328308A1 (en) Three Dimensional Mesh Modeling
US6970174B2 (en) Texture mapping method and apparatus
JPH11149576A (en) Three-dimensional modeling device, three-dimensional method, medium recording three-dimensional modeling program and medium recording three-dimensional shape estimation program
KR20130096854A (en) A system for generating seafloor 3-dimensional geospatial information using intensive filtering an edge of pipe line object and digital elevation value
JP2019091393A (en) Point group kind estimating apparatus using red three-dimensional map image, and point group kind estimating program using red three-dimensional map image
US20100053191A1 (en) System and method for computing and displaying a roundness error of an object
CN117115358B (en) Automatic digital person modeling method and device
KR20130096432A (en) A system and method for generating underwater geospatial information using the ground slope under the sea
CN112052489A (en) Method and system for generating house type graph
KR20130118105A (en) Method and apparatus for representation 3d space based plane
KR102042343B1 (en) Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same
JP4385244B2 (en) Topographic shape extraction method, topographic shape extraction system, and program
CN116051980B (en) Building identification method, system, electronic equipment and medium based on oblique photography
JP7374433B2 (en) How to generate three-dimensional shape data of a structure
US10365099B2 (en) Installation space exploration method for a substance and readable media having the program therefor
JP2020144686A (en) Model creating system, and model creating method
Nguyen et al. High-Definition Texture Reconstruction for 3D Image-based Modelling.
US20230368462A1 (en) Information processing apparatus, information processing method, and recording medium
WO2011129409A1 (en) Precision improving device for three dimensional topographical data, precision improving method for three dimensional topographical data and recording medium
KR101692058B1 (en) A Method for dividing 3D Mesh Model
KR101364375B1 (en) System and method for extracting a specific object from 3d data
JP2010237941A (en) Mask image generating apparatus, three-dimensional object model information generating apparatus, and program
KR20220094460A (en) Apparatus and method for calculating the failure volume of an object
US12100089B1 (en) Systems and methods for generating and animating three-dimensional assets with a dynamic resolution

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20180413

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190528

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20191030

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20191101

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20191101

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20221026

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20231026

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20241030

Start annual number: 6

End annual number: 6