[go: up one dir, main page]

KR20200092893A - Augmented reality video production system and method using 3d scan data - Google Patents

Augmented reality video production system and method using 3d scan data Download PDF

Info

Publication number
KR20200092893A
KR20200092893A KR1020200009117A KR20200009117A KR20200092893A KR 20200092893 A KR20200092893 A KR 20200092893A KR 1020200009117 A KR1020200009117 A KR 1020200009117A KR 20200009117 A KR20200009117 A KR 20200009117A KR 20200092893 A KR20200092893 A KR 20200092893A
Authority
KR
South Korea
Prior art keywords
character
video
data
scan data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020200009117A
Other languages
Korean (ko)
Other versions
KR102337020B1 (en
Inventor
손용준
Original Assignee
주식회사 버츄얼넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버츄얼넥스트 filed Critical 주식회사 버츄얼넥스트
Publication of KR20200092893A publication Critical patent/KR20200092893A/en
Application granted granted Critical
Publication of KR102337020B1 publication Critical patent/KR102337020B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시예는, 복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 생성되는 스캔데이터로서, 상기 복수의 관절에 대한 본(bone)데이터를 포함하고 있는 3D스캔데이터를 로딩하는 단계; 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 제1레이어에서 상기 캐릭터의 각 동작을 클립(clip)의 단위로 배치하는 단계; 인접한 클립들의 영상이 연속적으로 연결되도록 상기 복수의 동작에 대해 동작 블렌딩(blending)을 적용하는 단계; 제2레이어에 상기 가상의 공간에 대한 배경영상을 배치하는 단계; 상기 가상의 공간을 촬영하는 가상의 카메라를 설정하고, 상기 캐릭터 및 상기 배경영상에 상기 카메라의 시점(view point)을 적용하는 단계; 및 상기 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 단계를 포함하는 동영상제작방법을 제공한다.According to an embodiment of the present invention, loading 3D scan data including bone data for a plurality of joints as scan data generated by 3D (dimension) scanning a character having a plurality of joints; Assigning a plurality of movements to the character in a virtual space using the present data, and disposing each movement of the character in a unit of a clip in a first layer; Applying motion blending to the plurality of motions so that images of adjacent clips are continuously connected; Disposing a background image of the virtual space on a second layer; Setting a virtual camera for photographing the virtual space, and applying a view point of the camera to the character and the background image; And generating a temporal change in the virtual space as a video according to the viewpoint of the camera.

Description

3D스캔데이터를 이용한 증강현실 동영상제작시스템 및 그 방법{AUGMENTED REALITY VIDEO PRODUCTION SYSTEM AND METHOD USING 3D SCAN DATA}Augmented Reality Video Production System and Method Using 3D Scan Data {AUGMENTED REALITY VIDEO PRODUCTION SYSTEM AND METHOD USING 3D SCAN DATA}

본 실시예는 동영상제작기술에 관한 것이다. This embodiment relates to a video production technology.

최근 동영상 공유 사이트 혹은 소셜 네트워크 서비스(SNS)가 유행하면서 참신하고 독특한 동영상들이 다량으로 만들어지고 있다. 이러한 동영상들은 주로 사용자가 직접 연출하고 촬영하는 것에 기반하여 제작되거나 타인이 제작한 컨텐츠를 편집하는 방식으로 제작되고 있다. 그런데, 이러한 연출/촬영에 기반한 동영상 제작이나 편집에 기반한 동영상 제작 방식은 사용자의 많은 시간적 혹은 재정적 투자를 요구하는 방식으로 일반인이 쉽게 이용하기 어려운 방식이다. 예를 들어, 연출/촬영에 기반하여 동영상을 제작하기 위해서는 카메라에 대한 재정적 투자가 필요하고, 특정 장소(연출 공간)에서 다수의 시행착오를 수반하는 촬영 활동(시간적 투자)이 요구된다. 또한, 편집에 기반한 동영상 제작 방식도 고가의 편집툴이 필요하기 때문에 많은 재정적 투자가 요구되는데, 특히, 이러한 방식은 편집툴을 다루기 위한 고도의 기술을 요구한다는 측면에서 일반인이 이용하기 더욱 어려운 방식이다. 최근 유행하고 있는 동영상 공유 사이트 혹은 소셜 네트워크 서비스에서 전문가가 아닌 일반인들의 더 적극적인 참여를 유도하기 위해서는 종래의 동영상 제작 방식이 가지는 전술한 문제를 해결하는 새로운 기술의 개발이 요구된다.Recently, as a video sharing site or social network service (SNS) has become popular, a lot of novel and unique videos have been made. These videos are mainly produced on the basis of direct directing and shooting by the user, or are produced by editing content created by others. However, such a video production method based on production/editing based on directing/shooting is a method that requires a lot of time or financial investment by a user and is difficult to use by the general public. For example, in order to produce a video based on directing/shooting, a financial investment in the camera is required, and a shooting activity (temporal investment) involving a lot of trial and error in a specific place (directing space) is required. In addition, the video production method based on editing also requires expensive financial tools because it requires expensive editing tools. In particular, this method is more difficult to use by the general public in that it requires a high level of skill to handle the editing tools. . In order to induce more active participation of the non-professional people in the recent video sharing site or social network service, it is required to develop a new technology that solves the aforementioned problems of the conventional video production method.

한편, 종래의 동영상 제작 방식은 사용자(제작자)가 아닌 타인을 중심 캐릭터로 삼아 동영상을 제작하는 방식이다. 예를 들어, 연출/촬영에 기반하여 동영상을 제작하는 경우, 연출/촬영을 담당하는 사용자는 중심 캐릭터를 담당할 타인을 섭외하고 타인의 연기 혹은 활동을 촬영함으로써 동영상을 제작하는데, 이때, 동영상의 중심 캐릭터는 타인이 된다. 타인을 중심 캐릭터로 설정하는 방식은, 사용자(제작자)와 타인과의 호흡이 잘 맞지 않는 경우, 동영상 제작이 어렵다는 문제도 있지만, 자신을 중심 캐릭터로 출연시키고 싶어하는 다수의 사용자에게 동영상 제작의 욕구를 충족시키기에 부족한 측면이 있다. 사용자 자신이 동영상의 중심 캐릭터가 되고, 그 중심 캐릭터가 사용자의 조작에 의해 용이하게 제어되는 경우, 자신을 표출하고 싶은 많은 사용자들의 동영상 제작 참여가 유발될 수 있다.On the other hand, the conventional video production method is a method of producing a video using other people as the main character, not the user (producer). For example, in the case of producing a video based on directing/shooting, the user in charge of directing/shooting produces a video by inviting others to be in charge of the central character and filming the acting or activities of others. The central character becomes another person. The method of setting the other person as the central character has a problem in that it is difficult to produce a video if the user (producer) and the other person's breathing do not match well, but the desire to produce the video to a large number of users who want to appear as the central character There are aspects that are insufficient to meet. When the user himself becomes the central character of the video and the central character is easily controlled by the user's manipulation, many users who want to express themselves may be involved in video production.

사용자 자신은 디지털 영상 장치의 촬영에 의해 디지털 컨텐츠화될 수 있다. 예를 들어, 사용자 자신은 디지털 카메라에 의한 촬영을 통해 스틸 사진 혹은 동영상 속의 캐릭터로 삽입될 수 있다. 그런데, 디지털 카메라에 의해 생성된 캐릭터는 사용자에 대한 평면적인 정보만을 수록하고 있기 때문에, 변형-예를 들어, 회전 등-이 쉽지 않고, 움직임의 조작도 쉽지 않기 때문에 전술한 사용자 자신을 캐릭터로 동영상을 제작하는 방식에 활용하기 어렵다. 이에 반해, 3D(dimension)스캔장치는 사용자에 대하여 입체적인 정보를 포함하는 3D스캔데이터를 생성해 준다는 측면에서, 사용자를 중심 캐릭터로 하는 동영상 제작에 훨씬 유용할 수 있다. 하지만, 3D스캔장치를 활용한 최근 기술들은 3D스캔데이터를 3D프린터와 결합시켜 단순히 3D피규어를 제작하는 등 그 활용의 범위가 제한되어 있고, 전술한 동영상 제작 방식에 대한 사용자의 욕구를 충족시키는 기술에 이르지 못하고 있다.The user himself can be digitalized by photographing the digital imaging device. For example, the user himself may be inserted as a character in a still picture or video through shooting by a digital camera. However, since the character generated by the digital camera only contains planar information about the user, it is not easy to deform-for example, rotate, etc., and it is not easy to manipulate the motion. It is difficult to utilize in the method of making. On the other hand, a 3D (dimension) scanning device may be much more useful for producing a video having a user as a central character, in terms of generating 3D scan data including stereoscopic information about a user. However, recent technologies utilizing 3D scanning devices have limited scope of use, such as simply producing 3D figures by combining 3D scan data with 3D printers, and satisfying the user's desire for the above-described video production method. Has not reached.

이러한 배경에서, 본 실시예의 목적은, 사용자가 3D스캔데이터를 이용하여 용이하게 동영상을 제작할 수 있는 기술을 제공하는 것이다.Against this background, the purpose of this embodiment is to provide a technique for a user to easily produce a video using 3D scanned data.

전술한 목적을 달성하기 위하여, 일 실시예는, 복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 생성되는 스캔데이터로서, 상기 복수의 관절에 대한 본(bone)데이터를 포함하고 있는 3D스캔데이터를 로딩하는 단계; 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 제1레이어에서 상기 캐릭터의 각 동작을 클립(clip)의 단위로 배치하는 단계; 인접한 클립들의 영상이 연속적으로 연결되도록 상기 복수의 동작에 대해 동작 블렌딩(blending)을 적용하는 단계; 제2레이어에 상기 가상의 공간에 대한 배경영상을 배치하는 단계; 상기 가상의 공간을 촬영하는 가상의 카메라를 설정하고, 상기 캐릭터 및 상기 배경영상에 상기 카메라의 시점(view point)을 적용하는 단계; 및 상기 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 단계를 포함하는 동영상제작방법을 제공한다.In order to achieve the above object, an embodiment is a scan data generated by 3D (dimension) scanning of a character having a plurality of joints, and includes bone data for the plurality of joints Loading 3D scan data; Assigning a plurality of movements to the character in a virtual space using the present data, and disposing each movement of the character in a unit of a clip in a first layer; Applying motion blending to the plurality of motions so that images of adjacent clips are continuously connected; Disposing a background image of the virtual space on a second layer; Setting a virtual camera for photographing the virtual space, and applying a view point of the camera to the character and the background image; And generating a temporal change in the virtual space as a video according to the viewpoint of the camera.

상기 동영상제작방법은, 상기 제1레이어에 상기 캐릭터의 각 동작을 배치하는 단계에서, 각 클립마다 상기 캐릭터에 대한 하나의 동작이 완료되도록 상기 클립을 설정하되, 상기 클립의 길이에 따라 상기 동작의 속도를 조절하여 슬로우 모션 혹은 패스트 모션을 구현할 수 있다.In the video production method, in the step of arranging each motion of the character in the first layer, the clip is set so that one motion for the character is completed for each clip, but the motion of the motion is determined according to the length of the clip. Slow or fast motion can be achieved by adjusting the speed.

상기 동영상제작방법은, 제3레이어에 상기 가상의 공간에 대한 효과성 물체들의 움직임을 상기 캐릭터의 주변 영역으로 배치하는 단계를 더 포함할 수 있다.The video production method may further include the step of arranging the motions of the effective objects for the virtual space on the third layer as a peripheral area of the character.

상기 동영상제작방법은, 상기 복수의 동작에 대해 동작 블렌딩을 적용하는 단계에서, 인접한 두 개의 클립에서 상기 캐릭터의 이전 클립의 마무리 자세와 다음 클립의 시작 자세가 일치하도록 각 클립의 동작을 제어할 수 있다.In the video production method, in the step of applying motion blending to the plurality of motions, in two adjacent clips, the motion of each clip can be controlled such that the finish posture of the previous clip of the character and the start posture of the next clip match. have.

상기 동영상제작방법은, 상기 카메라의 시점을 적용하는 단계에서, 상기 카메라가 제1시간에서 제1위치로 설정되고 제2시간에서 제2위치로 설정되는 경우, 상기 제1시간에서 상기 제2시간 동안 상기 카메라의 위치가 상기 제1위치에서 상기 제2위치로 서서히 변경될 수 있다.In the video production method, in the step of applying the viewpoint of the camera, when the camera is set from the first time to the first position and from the second time to the second position, the first time to the second time Meanwhile, the position of the camera may be gradually changed from the first position to the second position.

상기 동영상제작방법은, 상기 동영상을 생성하는 단계에서, 음향을 더 결합시켜 상기 동영상을 생성할 수 있다.In the video production method, in the step of generating the video, the video may be generated by further combining sound.

상기 동영상제작방법은, 상기 동영상을 생성하는 단계 이후에, 실제 카메라가 촬영중인 실시간 영상에 상기 캐릭터를 합성하는 단계; 상기 실시간 영상에서 상기 캐릭터가 상기 복수의 동작을 연속적으로 취하도록 하는 단계; 상시 실시간 영상에서 상기 캐릭터가 상기 복수의 동작을 연속적으로 취하는 증강 현실 영상에 대한 증강 현실 동영상을 생성하는 단계를 더 포함할 수 있다.The video production method comprises: after the step of generating the video, synthesizing the character into a real-time image being shot by a real camera; Causing the character to continuously take the plurality of actions in the real-time image; The method may further include generating an augmented reality video of the augmented reality image in which the character continuously takes the plurality of motions in the real time image.

상기 동영상제작방법은, 상기 증강 현실 동영상을 생성하는 단계 이전에, 상기 실시간 영상의 배경 중에서 크로마키 색상을 가지는 배경 부분에 특정 이미지를 합성하는 단계를 더 포함할 수 있다.The video production method may further include, before the step of generating the augmented reality video, synthesizing a specific image in a background portion having a chroma key color among the background of the real-time video.

상기 동영상제작방법은, 상기 동영상을 생성하는 단계 이후에, 상기 캐릭터 및 상기 캐릭터와는 별개인 하나 이상의 별도 캐릭터를 실제 카메라가 촬영중인 실시간 영상에 합성하는 단계; 상기 실시간 영상에서 상기 캐릭터 및 상기 하나 이상의 별도 캐릭터가 상기 복수의 동작을 연속적으로 취하도록 하는 단계; 상기 실시간 영상에서 상기 캐릭터 및 상기 하나 이상의 별도 캐릭터가 상기 복수의 동작을 연속적으로 취하는 증강 현실 영상에 대한 증강 현실 동영상을 생성하는 단계를 더 포함할 수 있다.The video production method comprises: after the step of generating the video, synthesizing the character and one or more separate characters separate from the character into a real-time video being taken by a real camera; Causing the character and the one or more separate characters to continuously take the plurality of operations in the real-time image; The method may further include generating an augmented reality video for the augmented reality image in which the character and the one or more separate characters successively perform the plurality of operations in the real-time image.

다른 실시예는, 복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 스캔로우데이터를 생성하는 3D스캐너; 상기 스캔로우데이터를 처리하여 상기 복수의 관절에 대한 본(bone)데이터를 포함하는 3D스캔데이터를 생성하는 제1서버; 및 상기 서버로부터 상기 3D스캔데이터를 다운로드하고, 상기 3D스캔데이터의 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 상기 가상의 공간을 촬영하는 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 단말장치를 포함하는 동영상제작시스템을 제공한다.Another embodiment includes a 3D scanner that scans a character having a plurality of joints in 3D to generate scan row data; A first server that processes the scan row data and generates 3D scan data including bone data for the plurality of joints; And downloading the 3D scan data from the server, and using the original data of the 3D scan data to give a plurality of actions to the character in a virtual space, and according to the viewpoint of the camera shooting the virtual space. Provided is a video production system including a terminal device that generates a temporal change of a virtual space as a video.

상기 동영상제작시스템에서, 상기 단말장치의 화면으로 다수의 레이어가 시간축 방향으로 늘어서도록 표시되고, 상기 캐릭터의 각 동작은 제1레이어에서 클립(clip)의 단위로 배치되고, 제2레이어에 상기 가상의 공간에 대한 배경영상이 배치되며, 제3레이어에 상기 가상의 공간에 대한 효과성 물체들의 움직임이 배치될 수 있다.In the video production system, a plurality of layers are displayed on the screen of the terminal device to be lined up in the time axis direction, and each action of the character is arranged in units of clips in the first layer, and the virtual in the second layer. The background image of the space is arranged, and motions of effective objects for the virtual space may be arranged on the third layer.

상기 동영상제작시스템에서, 상기 제3레이어에서 상기 효과성 물체들의 움직임은 바(bar)의 형태로 재생시점 및 재생구간이 설정되도록 표시되고, 상기 단말장치는 상기 바의 양단에 표시되는 조절표시기에 대한 사용자조작을 인식하여 상기 효과성 물체들의 움직임에 대한 재생구간을 설정할 수 있다.In the video production system, the movement of the effective objects in the third layer is displayed such that a playback point and a playback section are set in the form of a bar, and the terminal device is displayed on an adjustment indicator displayed at both ends of the bar. It is possible to set a reproduction section for the movement of the effective objects by recognizing the user's operation on the.

상기 동영상제작시스템에서, 상기 가상의 공간은 바닥면과 상기 바닥면 상의 구조물로 표시되고, 상기 단말장치는 사용자설정에 따라 상기 바닥면 혹은 상기 구조물에 대한 이미지를 변경할 수 있다.In the video production system, the virtual space is displayed as a floor surface and a structure on the floor surface, and the terminal device can change an image of the floor surface or the structure according to a user setting.

다른 실시예는, 복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 스캔로우데이터를 생성하는 단말장치; 및 상기 스캔로우데이터를 처리하여 상기 복수의 관절에 대한 본(bone)데이터를 포함하는 3D스캔데이터를 생성하는 제1서버를 포함하되, 상기 단말장치는 상기 제1서버로부터 상기 3D스캔데이터를 다운로드하고, 상기 3D스캔데이터의 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 상기 가상의 공간을 촬영하는 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 동영상제작시스템을 제공한다.Another embodiment includes a terminal device for generating scan row data by scanning a 3D (dimension) character having a plurality of joints; And a first server that processes the scan row data and generates 3D scan data including bone data for the plurality of joints, wherein the terminal device downloads the 3D scan data from the first server. Then, using the original data of the 3D scan data, a plurality of motions are given to the character in a virtual space, and the temporal change of the virtual space is converted into a video according to a viewpoint of a camera shooting the virtual space. It provides a video production system to create.

이상에서 설명한 바와 같이 본 실시예에 의하면, 사용자가 3D스캔데이터를 이용하여 용이하게 동영상을 제작할 수 있게 된다. 사용자는 자신을 중심 캐릭터로 삼은 동영상을 제작하여 온라인 등의 커뮤니티를 통해 타인과 공유할 수 있다. 이를 통해, 온라인 커뮤니티에서의 동영상 공유가 더욱 활성화될 수 있고, 자신을 표출하려는 사용자의 욕구가 쉽게 충족될 수 있다. 또한, 3D스캔데이터에 대한 활용도가 높아짐으로써 3D스캔장치들에 대한 수요가 증가하고 관련 산업의 발전에 기여할 수 있다.As described above, according to the present embodiment, a user can easily produce a video using 3D scanned data. Users can create videos that make themselves the main character and share it with others through communities such as online. Through this, video sharing in the online community can be further activated, and a user's desire to express themselves can be easily satisfied. In addition, as the utilization of 3D scanning data increases, the demand for 3D scanning devices increases and can contribute to the development of related industries.

도 1은 일 실시예에 따른 동영상제작시스템의 구성도이다.
도 2는 일 실시예에 따른 단말장치의 구성도이다.
도 3은 일 실시예에 따른 3D 캐릭터의 구성 예시 도면이다.
도 4는 일 실시예에 따른 동영상제작방법의 흐름도이다.
도 5는 일 실시예에 따른 단말장치에서 3D스캔데이터를 수신하는 것을 나타내는 도면이다.
도 6은 일 실시예에 따른 단말장치에서 각 레이어에 대한 제어화면을 나타내는 도면이다.
도 7은 도 6의 제어창을 좀 더 구체적으로 나타내는 도면이다.
도 8은 일 실시예에 따른 단말장치에서 캐릭터효과에 대한 제어화면을 나타내는 도면이다.
도 9는 일 실시예에 따른 단말장치에서 녹음에 대한 제어화면을 나타내는 도면이다.
도 10은 일 실시예에 따른 단말장치에서 실시간 영상에 다수의 3D 캐릭터를 합성한 화면을 나타내는 도면이다.
도 11은 다른 실시예에 따른 동영상제작시스템의 구성도이다.
도 12는 다른 실시예에 따른 단말장치의 구성도이다.
도 13은 다른 실시예에 따른 단말장치에서 생성한 스캔데이터의 예시 도면이다.
도 14는 다른 실시예에 따른 단말장치에서 스캔데이터를 편집하는 구성의 예시 도면이다.
도 15 및 도 16은 다른 실시예에 따른 단말장치에서 2D 이미지를 이용하여 3D 캐릭터를 생성하는 구성의 예시 도면이다.
1 is a block diagram of a video production system according to an embodiment.
2 is a block diagram of a terminal device according to an embodiment.
3 is a diagram illustrating a configuration of a 3D character according to an embodiment.
4 is a flowchart of a video production method according to an embodiment.
5 is a diagram illustrating receiving 3D scan data in a terminal device according to an embodiment.
6 is a diagram illustrating a control screen for each layer in a terminal device according to an embodiment.
7 is a view showing the control window of FIG. 6 in more detail.
8 is a view showing a control screen for a character effect in a terminal device according to an embodiment.
9 is a view showing a control screen for recording in a terminal device according to an embodiment.
FIG. 10 is a diagram illustrating a screen in which a plurality of 3D characters are combined with real-time images in a terminal device according to an embodiment.
11 is a block diagram of a video production system according to another embodiment.
12 is a configuration diagram of a terminal device according to another embodiment.
13 is an exemplary view of scan data generated by a terminal device according to another embodiment.
14 is an exemplary view of a configuration for editing scan data in a terminal device according to another embodiment.
15 and 16 are exemplary views of a configuration for generating a 3D character using a 2D image in a terminal device according to another embodiment.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. It should be noted that in adding reference numerals to the components of each drawing, the same components have the same reference numerals as possible, even if they are displayed on different drawings. In addition, in describing the present invention, when it is determined that detailed descriptions of related well-known configurations or functions may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only for distinguishing the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to the other component, but another component between each component It will be understood that elements may be "connected", "coupled" or "connected".

도 1은 일 실시예에 따른 동영상제작시스템의 구성도이다.1 is a block diagram of a video production system according to an embodiment.

도 1을 참조하면, 동영상제작시스템(100)은 단말장치(110), 적어도 하나의 서버(120, 140), 3D스캐너(130) 등을 포함할 수 있다.Referring to FIG. 1, the video production system 100 may include a terminal device 110, at least one server 120, 140, a 3D scanner 130, and the like.

단말장치(110)는 사용자 인터페이스를 제공하는 장치로서, 동영상 제작을 위한 사용자 조작을 입력받고, 동영상 제작에 필요한 정보 및 동영상 제작의 결과물을 사용자에게 표시할 수 있다.The terminal device 110 is a device that provides a user interface, receives user manipulation for video production, and displays information required for video production and a result of video production to a user.

단말장치(110)는 사용자 인터페이스로서 터치패널을 포함하는 디스플레이패널을 포함할 수 있다. 단말장치(110)는 터치패널에 대한 신호를 수신하여 사용자 조작을 인식할 수 있고, 동영상 제작에 필요한 정보 및 동영상 제작의 결과물을 디스플레이패널을 통해 표시할 수 있다.The terminal device 110 may include a display panel including a touch panel as a user interface. The terminal device 110 may recognize a user manipulation by receiving a signal for the touch panel, and display information required for video production and a result of video production through a display panel.

단말장치(110)는 동영상 제작 이외에 다른 기능을 더 수행할 수 있다. 예를 들어, 단말장치(110)는 무선통신을 수행할 수 있다. 단말장치(110)는 모바일로 호칭되는 전화기의 일종으로서, 터치패널, 디스플레이패널 및 데이터프로세서 등을 포함할 수 있다. 단말장치(110)는 무선통신에 사용되는 이러한 터치패널, 디스플레이패널 및 데이터프로세서를 이용하여 동영상제작시스템(100)에 필요한 기능을 수행할 수 있다.The terminal device 110 may further perform other functions in addition to video production. For example, the terminal device 110 may perform wireless communication. The terminal device 110 is a type of telephone called a mobile device, and may include a touch panel, a display panel, and a data processor. The terminal device 110 may perform functions necessary for the video production system 100 using such a touch panel, display panel, and data processor used for wireless communication.

3D스캐너(130)는 캐릭터(10)를 3D스캔하고 스캔데이터를 생성할 수 있다. 여기서, 캐릭터(10)는 복수의 관절을 포함하는 개체로서, 사람, 동물 등일 수 있다.The 3D scanner 130 may 3D scan the character 10 and generate scan data. Here, the character 10 is an object including a plurality of joints, and may be a person or an animal.

3D스캐너(130)는 3D뎁스카메라, 거리측정장치 등을 포함하고 있으면서 이를 이용하여 캐릭터(10)의 외형에 대한 입체적인 형상을 디지털데이터 형식의 스캔데이터로서 생성할 수 있다.The 3D scanner 130 includes a 3D depth camera, a distance measuring device, and the like, and can generate a three-dimensional shape of the appearance of the character 10 as scan data in the form of digital data.

3D스캐너(130)와 단말장치(110)는 물리적으로 서로 다른 공간에 배치될 수 있다. 예를 들어, 단말장치(110)는 소형장치로서 사용자가 거주하는 공간에 배치될 수 있고, 3D스캐너(130)는 대형장치로서 특정 공간-예를 들어, 3D스캔전문매장-에 배치될 수 있다.The 3D scanner 130 and the terminal device 110 may be physically arranged in different spaces. For example, the terminal device 110 may be arranged in a space where the user resides as a small device, and the 3D scanner 130 may be arranged in a specific space as a large device, for example, a 3D scanning specialty store. .

서로 이격되어 배치되는 3D스캐너(130)와 단말장치(110)는 서버(120)를 통해 서로 연동될 수 있다. 예를 들어, 3D스캐너(130)는 생성된 스캔데이터를 네트워크를 경유하여 제1서버(120)로 송신할 수 있다. 그리고, 단말장치(110)는 제1서버(120)를 통해 스캔데이터를 다운로드하거나 스캔데이터가 재처리된 3D스캔데이터를 다운로드할 수 있다. 이때, 스캔데이터 및/혹은 3D스캔데이터에는 식별번호가 부여될 수 있는데, 3D스캐너(130)는 식별번호가 부여된 스캔데이터를 제1서버(120)로 송신하고, 단말장치(110)는 해당 식별번호에 대응되는 스캔데이터 혹은 3D스캔데이터를 제1서버(120)로부터 다운로드할 수 있다. 식별번호는 스캔코드로 명명될 수 있는데, 이러한 스캔코드에 대한 상세한 예시는 후술한다.The 3D scanner 130 and the terminal device 110 which are spaced apart from each other may be interlocked with each other through the server 120. For example, the 3D scanner 130 may transmit the generated scan data to the first server 120 via the network. Then, the terminal device 110 may download scan data through the first server 120 or download 3D scan data in which the scan data is reprocessed. At this time, an identification number may be assigned to the scan data and/or the 3D scan data. The 3D scanner 130 transmits the scan data to which the identification number is assigned to the first server 120, and the terminal device 110 is applicable. The scan data or 3D scan data corresponding to the identification number can be downloaded from the first server 120. The identification number may be referred to as a scan code, and detailed examples of the scan code will be described later.

3D스캐너(130)와 단말장치(110)는 네트워크를 통해 직접 연동될 수 있다. 3D스캐너(130)는 스캔데이터 혹은 스캔데이터를 재처리한 3D스캔데이터를 단말장치(110)로 직접 송신할 수 있다. 그리고, 단말장치(110)는 이러한 스캔데이터 혹은 3D스캔데이터를 이용하여 동영상을 제작할 수 있다.The 3D scanner 130 and the terminal device 110 may be directly linked through a network. The 3D scanner 130 may directly transmit the scan data or 3D scan data obtained by reprocessing the scan data to the terminal device 110. In addition, the terminal device 110 may produce a video using the scan data or 3D scan data.

3D스캐너(130)와 단말장치(110)는 동일한 하드웨어로 구현되는 장치일 수 있다. 예를 들어, 단말장치(110)는 3D뎁스카메라를 포함할 수 있는데, 단말장치(110)는 이러한 3D뎁스카메라를 이용하여 3D스캐너(130)와 동일한 기능을 수행할 수 있다. 이러한 실시예에서 단말장치(110)는 직접 캐릭터(10)를 3D스캔하여 스캔데이터를 생성할 수 있다.The 3D scanner 130 and the terminal device 110 may be devices implemented with the same hardware. For example, the terminal device 110 may include a 3D depth camera, and the terminal device 110 may perform the same function as the 3D scanner 130 using the 3D depth camera. In this embodiment, the terminal device 110 may directly generate a scan data by 3D scanning the character 10.

제1서버(120)는 스캔데이터를 3D스캔데이터로 변환할 수 있다. 3D스캔데이터는 캐릭터(10)에 포함되는 복수의 관절에 대한 본(bone)데이터를 포함할 수 있다. 제1서버(120)는 스캔데이터를 통해 확인되는 캐릭터(10)의 특징부-예를 들어, 변곡점, 종단점, 교차점 등-를 분석하여 관절의 위치를 파악하고, 관절에 대한 정보, 관절과 관절 사이의 스켈레톤(뼈대)에 대한 정보, 스켈레톤을 덮고 있는 살에 대한 정보 등을 포함하는 본데이터를 생성할 수 있다. 그리고, 캐릭터(10)의 실사 이미지를 포함하는 스캔데이터에 본데이터를 결합시켜 3D스캔데이터를 생성할 수 있다.The first server 120 may convert the scan data into 3D scan data. The 3D scan data may include bone data for a plurality of joints included in the character 10. The first server 120 analyzes the features of the character 10 identified through the scan data-for example, an inflection point, an end point, an intersection, etc.-to determine the position of the joint, information about the joint, joints and joints This data can be generated, including information on the skeleton (skeleton) between, and information on the skin covering the skeleton. In addition, 3D scan data may be generated by combining the present data with the scan data including the live image of the character 10.

제1서버(120)는 내부에 프로그램화된 분석알고리즘을 이용하여 본데이터를 생성할 수도 있고, 스캔데이터에 대해 접근권한을 가지고 있는 관리자의 제어에 의해 생성되는 본데이터를 전달받을 수도 있다.The first server 120 may generate the present data using an analysis algorithm programmed therein, or may receive the present data generated by the control of an administrator who has access to the scan data.

일 실시예에서는 본데이터가 제1서버(120)에서 생성되는 것으로 설명하였으나, 실시예에 따라서는 본데이터가 3D스캐너(130)에서 생성되거나 단말장치(110)에서 생성될 수 있다.In one embodiment, the present data is described as being generated by the first server 120, but depending on the embodiment, the present data may be generated by the 3D scanner 130 or the terminal device 110.

단말장치(110)는 3D스캔데이터를 이용하여 제작한 동영상을 제2서버(140)에 업로드할 수 있다. 제2서버(140)는 동영상을 공유하거나 소셜네트워크서비스를 지원하는 서버일 수 있다. 단말장치(110)를 이용하는 사용자는 제2서버(140)를 통해 직접 제작한 동영상을 다른 사람들과 공유할 수 있다.The terminal device 110 may upload the video produced using the 3D scan data to the second server 140. The second server 140 may be a server that shares videos or supports social network services. The user using the terminal device 110 can share the video produced directly through the second server 140 with other people.

도 2는 일 실시예에 따른 단말장치의 구성도이다.2 is a block diagram of a terminal device according to an embodiment.

도 2를 참조하면, 단말장치(110)는 저장부(210), 동작제어부(220), 배경설정부(230), 카메라제어부(240), 음향제어부(250), 동영상제작 및 재생부(260), 인터페이스부(270), 단말기통신부(280), 중앙제어부(290) 등을 포함할 수 있다.Referring to FIG. 2, the terminal device 110 includes a storage unit 210, a motion control unit 220, a background setting unit 230, a camera control unit 240, a sound control unit 250, a video production and playback unit 260 ), an interface unit 270, a terminal communication unit 280, a central control unit 290, and the like.

저장부(210)는 동영상 제작에 필요한 각종 데이터를 저장할 수 있다. 예를 들어, 저장부(210)는 3D스캔데이터를 저장할 수 있다. 3D스캔데이터에는 캐릭터의 외형에 대한 입체적인 실사 이미지와 함께, 캐릭터의 3D모델링데이터에 대응되는 본데이터가 포함될 수 있다. 저장부(210)는 각종 설정데이터를 저장할 수 있다. 단말장치(110)는 사용자 조작을 인식하여 각종 설정에서 하나의 설정을 선택할 수 있는데, 여기서, 설정에 대응되는 설정데이터는 저장부(210)에 미리 저장되어 있을 수 있다. 이하에서, 미리 저장되거나 미리 설정된 것으로 기술되는 구성들은 저장부(210)에 미리 저장되어 있는 것으로 이해할 수 있다.The storage unit 210 may store various data necessary for video production. For example, the storage 210 may store 3D scanned data. The 3D scan data may include three-dimensional photorealistic images of the appearance of the character, and this data corresponding to the 3D modeling data of the character. The storage unit 210 may store various setting data. The terminal device 110 may recognize a user manipulation and select one setting from various settings, where the setting data corresponding to the setting may be stored in advance in the storage 210. Hereinafter, it can be understood that components that are stored in advance or described as being preset are stored in advance in the storage unit 210.

동작제어부(220)는 3D스캔데이터의 본데이터를 이용하여 가상의 공간에서 3D 캐릭터에게 복수의 동작을 부여할 수 있다. 여기서, 3D 캐릭터는 실제 공간의 캐릭터가 아닌 가상의 공간에서의 캐릭터를 의미한다. 이하에서 조작되고 제어되는 것으로 설명되는 3D 캐릭터는 가상의 공간에서의 캐릭터로 이해하면 된다.The motion control unit 220 may provide a plurality of motions to the 3D character in the virtual space using the original data of the 3D scan data. Here, the 3D character means a character in a virtual space, not a character in a real space. The 3D character described as being manipulated and controlled below may be understood as a character in a virtual space.

동작제어부(220)는 본데이터를 이용하여 가상의 공간에서 3D 캐릭터에게 복수의 동작을 부여할 수 있다. 가상의 공간에서 3D 캐릭터가 동작한다는 것은 가상의 공간에 부여되는 공간 좌표 상에서 3D 캐릭터에 대응되는 좌표가 시간적으로 변화한다는 것을 의미할 수 있다. 디지털적인 측면에서 시간에 대응되는 3D 캐릭터의 좌표들의 조합이 캐릭터의 동작으로 이해될 수 있다. 여기서, 좌표는 공간상의 위치를 특정하기 위한 하나의 방법으로 이해될 수 있으며, 공간상의 위치를 특정할 수 있는 다른 방법으로 3D 캐릭터의 동작이 구현될 수 있다.The motion control unit 220 may use the data to give a plurality of motions to the 3D character in the virtual space. The operation of the 3D character in the virtual space may mean that the coordinates corresponding to the 3D character change temporally on the spatial coordinates assigned to the virtual space. In a digital aspect, a combination of coordinates of a 3D character corresponding to time can be understood as a character's motion. Here, the coordinates may be understood as one method for specifying the position in space, and the motion of the 3D character may be implemented in another way to specify the position in space.

한편, 3D 캐릭터는 복수의 관절을 포함하는데, 3D 캐릭터의 동작은 이러한 복수의 관절이 가상의 공간에서 시간의 흐름에 따라 이동하는 것으로 구현될 수 있다. 여기서의 이동은 공간상의 움직임으로 회전을 포함하는 개념으로 이해될 수 있다. 동작제어부(220)는 본데이터를 통해 획득되는 복수의 관절에 대한 정보, 그 관절들 사이의 스켈레톤에 대한 정보, 그 스켈레톤을 덮고 있는 살에 대한 정보를 동역학적 개념이 접목된 알고리즘에 적용하여 3D 캐릭터의 동작을 구현할 수 있다.On the other hand, the 3D character includes a plurality of joints, and the motion of the 3D character may be implemented as such a plurality of joints move over time in a virtual space. The movement here can be understood as a concept involving rotation as a movement in space. The motion control unit 220 applies information about a plurality of joints obtained through the present data, information about a skeleton between the joints, and information about a flesh covering the skeleton to an algorithm incorporating a dynamic concept in 3D You can implement the character's action.

동작제어부(220)는 3D 캐릭터의 동작을 나타내는 가상의 공간상의 디지털데이터-예를 들어, 시간의 흐름에 따른 좌표데이터-를 저장부(210)에 저장하고, 후술하는 동영상제작 및 재생부(260)가 이러한 디지털데이터를 이용하여 동영상을 생성할 수 있다.The motion control unit 220 stores the digital data in the virtual space representing the motion of the 3D character-for example, coordinate data according to the passage of time-in the storage unit 210, and the video production and playback unit 260 described later. ) Can generate a video using this digital data.

동작제어부(220)는 가상의 공간에서 3D 캐릭터에 복수의 동작을 부여할 수 있는데, 이때, 각각의 동작은 클립(clip)의 단위로 형성될 수 있다. 클립(clip)은 동영상의 작은 단위로서, 각각의 동작에 대응되는 클립은 동일한 시간을 가질 수도 있고, 서로 다른 시간을 가질 수도 있다. 3D 캐릭터의 동작은 속도제어가 가능한데, 이때, 사용자는 각각의 동작에 대응되는 클립의 시간길이를 조절하여 3D 캐릭터의 동작에 대한 속도를 제어할 수 있다. 예를 들어, 클립의 시간길이가 길어지면 하나의 동작이 완성되는데 소요되는 시간이 길어지는 것을 의미하고 이에 따라 3D 캐릭터의 동작이 슬로우 모션화할 수 있다. 반대로, 클립의 시간길이가 짧아지면 하나의 동작이 완성되는데 소요되는 시간이 짧아지는 것을 의미하고 이에 따라 3D 캐릭터의 동작이 패스트 모션화할 수 있다.The motion control unit 220 may give a plurality of motions to a 3D character in a virtual space, where each motion may be formed in units of clips. A clip is a small unit of a video, and a clip corresponding to each operation may have the same time or different times. The speed of the motion of the 3D character can be controlled. At this time, the user can control the speed of the motion of the 3D character by adjusting the time length of the clip corresponding to each motion. For example, if the time length of the clip is increased, it means that the time required for one operation to be completed is increased, and accordingly, the motion of the 3D character can be slow-motion. Conversely, if the time length of the clip is short, it means that the time required to complete one motion is shortened, and accordingly, the motion of the 3D character can be fast-motiond.

동작제어부(220)는 가상의 공간에서의 3D 캐릭터의 동작을 제1레이어에 배치할 수 있다. 이하에서 레이어의 개념을 이용하여 동영상 제작 과정을 설명하는데, 여기서, 레이어는 가상의 레이어로서 서로 다른 레이어에 배치되는 구성 요소들은 서로 충돌되지 않고 동일한 시간에서 서로 중첩될 수 있는 것으로 이해할 수 있다.The motion control unit 220 may arrange the motion of the 3D character in the virtual space on the first layer. Hereinafter, a video production process will be described using the concept of a layer. Here, the layer is a virtual layer, and it can be understood that components arranged on different layers can overlap each other at the same time without colliding with each other.

동작제어부(220)는 인접한 클립들의 영상이 연속적으로 연결되도록 복수의 동작에 대해 동작 블렌딩(blending)을 적용할 수 있다. 블렌딩은 서로 다른 특성의 구성이 시간의 경계에서 연속적으로 연결되도록 하는 기술로서, 일 실시예에서는 3D 캐릭터의 동작과 카메라의 설정에 블렌딩 기술이 적용될 수 있다. 3D 캐릭터의 동작에 적용되는 블렌딩을 동작 블렌딩이라 호칭하고, 카메라의 설정에 적용되는 블렌딩을 카메라 블렌딩이라 호칭할 수 있다.The motion control unit 220 may apply motion blending to a plurality of motions so that images of adjacent clips are continuously connected. Blending is a technique that allows the composition of different characteristics to be continuously connected at a time boundary, and in one embodiment, a blending technique can be applied to the motion of a 3D character and the setting of a camera. The blending applied to the motion of the 3D character may be referred to as motion blending, and the blending applied to the setting of the camera may be referred to as camera blending.

동작 블렌딩은 3D 캐릭터의 자세에 의해 구현될 수 있다. 예를 들어, 동작제어부(220)는 인접한 두 개의 클립에서 3D 캐릭터의 이전 클립의 마무리 자세와 다음 클립의 시작 자세가 일치하도록 각 클립의 동작을 제어할 수 있다. 이러한 제어에 따라 인접한 두 개의 클립에서 3D 캐릭터의 동작이 자연스럽게 연결될 수 있다.Motion blending can be implemented by the pose of the 3D character. For example, the motion control unit 220 may control the motion of each clip such that the finishing posture of the previous clip of the 3D character and the starting posture of the next clip coincide in two adjacent clips. Under this control, the motions of 3D characters can be naturally connected in two adjacent clips.

배경설정부(230)는 제2레이어에 가상의 공간에 대한 배경영상을 배치할 수 있다. 가상의 공간은 바닥면과 바닥면 상의 구조물로 표시될 수 있다. 바닥면은 3D 캐릭터가 공중에 부양되지 않은 상태에서 3D 캐릭터의 최하단이 접하는 부분으로, 3D 캐릭터는 공중에 부양되지 않은 상태에서 바닥면을 따라 이동할 수 있다.The background setting unit 230 may place a background image for a virtual space on the second layer. The virtual space can be represented by floors and structures on the floor. The bottom surface is a portion where the bottom of the 3D character comes into contact while the 3D character is not floating in the air, and the 3D character can move along the bottom surface while not floating in the air.

배경설정부(230)는 사용자설정에 따라 바닥면 혹은 구조물에 대한 이미지를 변경할 수 있다. 이와 같이 가상의 공간을 바닥면과 그 상부의 공간으로 구분하지 않는 경우, 사용자설정에 따른 이미지의 바닥면이 가상의 공간의 바닥면과 불일치할 수 있고, 이 경우, 3D 캐릭터가 바닥면이 아닌 위치에 기립하는 부자연스러운 상황이 연출될 수 있다.The background setting unit 230 may change the image of the floor surface or the structure according to the user setting. In this way, if the virtual space is not divided into a floor surface and a space above it, the bottom surface of the image according to the user setting may be inconsistent with the floor surface of the virtual space. In this case, the 3D character is not the floor surface. An unnatural situation that stands on location can be created.

저장부(210)에는 사용자가 저장한 다수의 이미지가 저장되어 있을 수 있다. 배경설정부(230)는 사용자설정에 따라 이러한 다수의 이미지 중 하나의 이미지로 바닥면 혹은 그 상부의 공간을 설정할 수 있다.A plurality of images stored by the user may be stored in the storage unit 210. The background setting unit 230 may set a floor surface or a space on the top of one of these multiple images according to a user setting.

배경설정부(230)는 가상의 공간에 배경효과를 배치할 수 있다. 배경효과는 제3레이어에 배치될 수 있다. 배경효과는 가상의 공간에 대한 효과성 물체들의 움직임을 3D 캐릭터의 주변 영역으로 배치함으로써 생성될 수 있다. 예를 들어, 강설 혹은 강우에 대응되는 효과성 물체들-예를 들어, 눈 혹은 비-의 움직임을 3D 캐릭터의 주변 영역에 배치함으로써 배경효과가 구현될 수 있다.The background setting unit 230 may arrange a background effect in a virtual space. The background effect can be arranged on the third layer. The background effect can be generated by arranging the movement of the effective objects in the virtual space into the surrounding area of the 3D character. For example, a background effect may be realized by arranging movements of effective objects corresponding to snowfall or rainfall, eg, eyes or rain, in a peripheral area of a 3D character.

배경설정부(230)는 짧은 시구간에 정의된 디지털데이터를 반복 재생함으로써 배경효과에 대한 재생시간을 조절할 수 있다. 후술하는 사용자 인터페이스에서 제3레이어에서 효과성 물체들의 움직임은 바(bar)의 형태로 재생시점 및 재생구간이 설정되도록 표시될 수 있는데, 배경설정부(230)는 바의 양단에 표시되는 조절표시기에 대한 사용자조작을 인식하여 효과성 물체들의 움직임에 대한 재생구간을 설정할 수 있다.The background setting unit 230 may adjust the playback time for the background effect by repeatedly playing digital data defined in a short time period. In the user interface, which will be described later, the movement of the effective objects in the third layer may be displayed so that the playback time and playback section are set in the form of a bar, and the background setting unit 230 is an adjustment indicator displayed at both ends of the bar. By recognizing the user's operation for, it is possible to set the playback section for the movement of effective objects.

3D 캐릭터의 각 동작은 제1레이어에서 클립의 단위로 배치되고, 제2레이어에는 가상의 공간에 대한 배경영상이 배치되며, 제3레이어에는 가상의 공간에 대한 효과성 물체들의 움직임이 배치될 수 있다. 여기서, 각각의 레이어는 단말장치의 화면으로 시간축 방향으로 늘어서도록 표시될 수 있다. 그리고, 사용자는 시간축 방향으로 각 레이어의 배치요소-캐릭터의 동작, 배경영상, 효과성 물체들의 움직임-의 구현길이를 제어하여 각 배치요소의 재생시간을 조절할 수 있다.Each motion of the 3D character is arranged in units of clips in the first layer, a background image for a virtual space is arranged in the second layer, and motions of effective objects for the virtual space can be arranged in the third layer. have. Here, each layer may be displayed on the screen of the terminal device to be lined up in the time axis direction. And, the user can control the playing time of each arrangement element by controlling the implementation length of the arrangement elements of each layer-the motion of the character, the background image, and the movement of the effective objects-in the time axis direction.

카메라제어부(240)는 가상의 공간을 촬영하는 가상의 카메라를 설정하고, 3D 캐릭터 및 배경영상에 카메라의 시점(view point)을 적용시켜 영상을 생성할 수 있다. 여기서, 카메라는 가상의 카메라로서, 표시의 측면에서 보면 가상의 공간을 바라보는 시점의 기능을 수행하고, 데이터처리의 측면에서 보면, 3차원(3D)의 공간데이터를 2차원의 이미지데이터로 변환하는 기준을 제공할 수 있다. 예를 들어, 카메라제어부(240)가 바닥면을 기준으로 제1측에 카메라를 설정하고, 제1측의 시점으로 가상의 공간을 2차원 이미지데이터로 변환할 수 있다. 다른 예로서, 카메라제어부(240)는 제1측에서 시계방향으로 90도 회전한 제2측에 카메라를 설정하고, 제2측의 시점으로 가상의 공간을 2차원 이미지데이터로 변환할 수 있다. 동영상은 2차원의 이미지데이터들이 시간축으로 배열됨으로써 생성될 수 있는데, 이때, 2차원의 이미지데이터들은 카메라의 설정에 의해 그 시점(view point)가 결정될 수 있다.The camera controller 240 may set a virtual camera for photographing a virtual space, and generate an image by applying a camera's view point to 3D characters and background images. Here, the camera is a virtual camera, and performs a function of viewing a virtual space in terms of display, and in terms of data processing, converts three-dimensional (3D) spatial data into two-dimensional image data. You can provide the criteria. For example, the camera control unit 240 may set the camera on the first side with respect to the bottom surface, and convert the virtual space into two-dimensional image data as the viewpoint of the first side. As another example, the camera control unit 240 may set the camera on the second side rotated 90 degrees clockwise from the first side, and convert the virtual space into two-dimensional image data as the viewpoint of the second side. The moving image may be generated by arranging two-dimensional image data on a time axis. At this time, the two-dimensional image data may be determined by a camera setting.

동영상제작 및 재생부(260)는 카메라의 시점에 따라 가상의 공간의 시간적인 변화를 동영상으로 생성할 수 있다. 예를 들어, 카메라제어부(240)에 따라 카메라의 시점이 가상의 공간에 적용되고, 그러한 시점으로 가상의 공간에 대한 2차원 이미지데이터들-가상의 공간이 카메라에 의해 촬영된 것과 같은 2차원 이미지데이터들-이 생성될 수 있는데, 동영상제작 및 재생부(260)는 이러한 시간적인 흐름에 맞추어 2차원 이미지데이터들을 연속적으로 배치하고 통합함으로써 동영상을 제작할 수 있다.The video production and playback unit 260 may generate a temporal change of the virtual space according to the viewpoint of the camera as a video. For example, the camera's viewpoint is applied to the virtual space according to the camera control unit 240, and the 2D image data of the virtual space taken by the camera as the viewpoint is captured by the camera. Data- can be generated, and the video production and playback unit 260 can produce a video by continuously arranging and integrating two-dimensional image data according to this temporal flow.

카메라제어부(240)는 카메라의 설정에 있어서, 카메라 블렌딩 기술을 적용할 수 있다. 카메라제어부(240)는 제1시간에서 제1위치로 카메라를 설정하고, 제2시간에서 제2위치로 카메라를 설정할 수 있다. 이때, 카메라제어부(240)는 카메라의 시점이 연속적으로 변화되도록 제1시간에서 제2시간 동안 카메라의 위치가 제1위치에서 제2위치로 서서히 변경되도록 카메라를 설정할 수 있다.The camera control unit 240 may apply a camera blending technique in setting the camera. The camera control unit 240 may set the camera from the first time to the first position, and set the camera from the second time to the second position. At this time, the camera control unit 240 may set the camera so that the position of the camera is gradually changed from the first position to the second position for the first time to the second time so that the viewpoint of the camera is continuously changed.

음향제어부(250)는 음향데이터를 제어할 수 있다. 음향데이터는 사용자설정에 의한 음향파일에서 추출될 수 있고, 녹음에 의해 생성될 수도 있다. 사용자가 3D 캐릭터의 동작에 맞추어 더빙을 추가하고자 하는 경우, 음향제어부(250)는 사용자의 음성을 음향데이터로 변환할 수 있다.The sound control unit 250 may control sound data. The sound data can be extracted from the sound file by user setting, or can be generated by recording. When the user wants to add dubbing according to the motion of the 3D character, the sound control unit 250 may convert the user's voice into sound data.

동영상제작 및 재생부(260)는 전술한 카메라의 시점에 따른 영상데이터에 음향데이터를 결합시켜 동영상을 생성할 수 있다.The video production and playback unit 260 may generate video by combining sound data with image data according to the viewpoint of the aforementioned camera.

그리고 동영상 제작 및 재생부(260)는 기 생성한 동영상을 단말장치(110)의 디스플레이부(미도시)를 통해 재생할 수 있다.In addition, the video production and playback unit 260 may play the previously generated video through the display unit (not shown) of the terminal device 110.

또한, 동영상제작 및 재생부(260)는 단말장치(110)에 구비된 실제 카메라(미도시)가 촬영중인 실시간 영상에 3D 캐릭터를 합성할 수 있다. 그리고 동영상제작 및 재생부(260)는 기 생성한 동영상의 캐릭터 동작을 실시간 영상에 합성한 3D 캐릭터에 적용시킬 수 있다. In addition, the video production and playback unit 260 may synthesize a 3D character into a real-time image being photographed by a real camera (not shown) provided in the terminal device 110. In addition, the video production and playback unit 260 may apply a character motion of a previously generated video to a 3D character synthesized in real-time video.

다시 말해서, 동영상제작 및 재생부(260)는 실제 카메라(미도시)가 촬영 중인 실시간 영상에서 실제 바닥면을 인식하고, 실제 바닥면에 3D 캐릭터를 배치하는 증강 현실 기법을 통해 실시간 영상에 3D 캐릭터의 동작 영상이 합성된 증강 현실 동영상을 생성할 수 있다.In other words, the video production and playback unit 260 recognizes the real bottom surface from the real-time image being shot by a real camera (not shown), and places the 3D character on the real bottom image through augmented reality technique It is possible to generate an augmented reality video synthesized motion image of

여기서, 저장부(210)에 다수의 3D 캐릭터에 해당하는 다수의 3D스캔데이터가 저장된 경우, 동영상제작 및 재생부(260)는 사용자의 설정에 따라 다수의 3D 캐릭터를 실시간 영상의 실제 바닥면에 배치할 수 있다. Here, when a plurality of 3D scan data corresponding to a plurality of 3D characters are stored in the storage unit 210, the video production and playback unit 260 may transmit a number of 3D characters to the actual bottom surface of the real-time image according to the user's setting. Can be placed.

예를 들어, 저장부(210)에 제 1 캐릭터, 제 2 캐릭터 및 제 3 캐릭터에 해당하는 3D스캔데이터가 저장된 경우, 동영상제작 및 재생부(260)는 도 10과 같이 사용자의 설정에 따라 제 1 캐릭터(1010), 제 2 캐릭터(1020) 및 제 3 캐릭터(1030)를 실시간 영상의 실제 바닥면(1040)에 배치할 수 있다. 여기서, 실제 바닥면(1040)은 지면, 도로면, 책상, 테이블 등의 상판 면 등일 수 있다.For example, when the 3D scan data corresponding to the first character, the second character, and the third character is stored in the storage unit 210, the video production and playback unit 260 is configured according to the user's setting as shown in FIG. The first character 1010, the second character 1020, and the third character 1030 may be arranged on the real bottom surface 1040 of the real-time image. Here, the actual bottom surface 1040 may be a top surface such as a ground surface, a road surface, a desk, a table, or the like.

그리고, 동영상제작 및 재생부(260)는 사용자의 설정에 따라 다수의 3D 캐릭터에 각각 상이한 동작을 적용시키거나, 다수의 3D 캐릭터에 동일한 동작(예를 들어, 군무 동작)을 적용시킬 수 있다.In addition, the video production and playback unit 260 may apply different motions to a plurality of 3D characters according to a user's setting, or apply the same motion (for example, military service motion) to a plurality of 3D characters.

일 실시예에서, 저장부(210)는 실시간 영상에 배치될 수 있는 다수의 증강 현실용 오브젝트를 저장할 수 있다. 여기서, 증강 현실용 오브젝트는 실제 바닥면에 배치될 수 있는 구조물(예를 들어, 공연 무대, 육상 트랙, 잔디 구장), 구조물에 적용할 수 있는 장치(예를 들어, 무대 조명, 경기장 조명, 전광판) 등 일 수 있다.In one embodiment, the storage 210 may store a plurality of objects for augmented reality that can be arranged in a real-time image. Here, the object for augmented reality is a structure (for example, a performance stage, a running track, a grass field) that can be disposed on a real floor surface, a device that can be applied to a structure (for example, stage lighting, stadium lighting, billboards) ) Etc.

위와 같이 저장부(210)에서 다수의 증강 현실용 오브젝트를 저장한 경우, 동영상제작 및 재생부(260)는 사용자의 설정에 따라 실시간 영상에 하나 이상의 증강 현실용 오브젝트와 3D 캐릭터를 적절하게 배치할 수 있다.When a plurality of augmented reality objects are stored in the storage 210 as described above, the video production and playback unit 260 may appropriately place one or more augmented reality objects and 3D characters in the real-time image according to the user's setting. Can.

예를 들어, 증강 현실용 오브젝트가 공연 무대인 경우, 동영상제작 및 재생부(260)는 실시간 영상의 실제 바닥면에 공연 무대를 배치하고, 공연 무대의 상단면에 3D 캐릭터를 배치할 수 있다.For example, when the object for augmented reality is a performance stage, the video production and reproducing unit 260 may place a performance stage on a real bottom surface of a real-time image, and place a 3D character on the upper surface of the performance stage.

한편, 동영상제작 및 재생부(260)는 저장부(210)에 저장된 다수의 이미지 중 사용자가 선택한 이미지를 크로마키 기법을 통해 실시간 영상에 합성할 수도 있다.Meanwhile, the video production and playback unit 260 may synthesize a user-selected image from a plurality of images stored in the storage unit 210 into a real-time image through a chroma key technique.

구체적으로, 동영상제작 및 재생부(260)는 실시간 영상의 배경 중에서 크로마키 색상을 가지는 배경 부분에 사용자가 선택한 이미지를 합성할 수 있다.Specifically, the video production and playback unit 260 may synthesize an image selected by the user on a background portion having a chroma key color among backgrounds of a real-time image.

인터페이스부(270)는 사용자 조작을 인식하고, 사용자에게 정보를 제공하는 부분이다. 인터페이스부(270)는 터치패널을 포함하고 있으면서, 터치패널을 통해 사용자 조작을 인식할 수 있다. 전술한 사용자설정이나 후술하는 사용자설정은 이러한 사용자 조작에 따라 결정되는 것을 이해될 수 있다. 인터페이스부(270)는 디스플레이패널을 포함하고 있으면서, 디스플레이패널을 화면으로 사용하면서 화면으로 동영상 제작 과정에서 창출되는 정보나 동영상 제작의 결과물을 표시할 수 있다.The interface unit 270 recognizes user manipulation and provides information to the user. The interface unit 270 may include a touch panel and recognize a user manipulation through the touch panel. It can be understood that the above-described user setting or user setting described later is determined according to the user operation. The interface unit 270 includes a display panel, and may display information generated in a video production process or a result of video production on the screen while using the display panel as a screen.

단말기통신부(280)는 외부 장치와 데이터를 송수신할 수 있는 부분으로, 제1서버로부터 3D스캔데이터를 수신할 수 있고, 제1서버로 식별정보를 송신할 수 있다. 그리고, 단말기통신부(280)는 온라인 커뮤니티에 업로드되어 있는 타인의 동영상을 다운로드 받아 화면에 표시할 수 있고, 동영상제작 및 재생부(260)에서 제작된 동영상을 온라인 커뮤니티에 업로드할 수 있다.The terminal communication unit 280 is a part that can transmit and receive data to and from an external device, and can receive 3D scan data from the first server and transmit identification information to the first server. In addition, the terminal communication unit 280 may download a video of another person uploaded to the online community and display it on the screen, and upload the video produced by the video production and playback unit 260 to the online community.

중앙제어부(290)는 단말장치(110)의 제반 제어를 처리하는 구성으로서 다른 각 구성의 유기적인 연결을 제어하고, 각 구성에서 구현되지 않는 기능들을 구현할 수 있다.The central control unit 290 is a component that processes the overall control of the terminal device 110 and controls organic connections of each other component, and can implement functions that are not implemented in each component.

도 3은 일 실시예에 따른 가상의 3D 캐릭터의 구성 예시 도면이다.3 is a diagram illustrating a configuration of a virtual 3D character according to an embodiment.

도 3을 참조하면, 가상의 공간에서 3D 캐릭터(20)는 다수의 본(BN)으로 구성될 수 있다. 그리고, 각각의 본(BN)은 적어도 하나의 관절(JT), 스켈레톤(SK), 살(WT) 등을 포함할 수 있다. 각각의 본(BN)은 신체의 일부에 매칭될 수 있는데, 예를 들어, 팔, 다리, 손, 발, 몸체, 머리 등에 매칭될 수 있고, 이러한 매칭정보는 본데이터에 포함될 수 있다. 관절(JT)은 매칭정보에 따라 그 특성이 제한될 수 있는데, 예를 들어, 관절(JT)은 신체에 대응되는 부위에 따라 회전범위 등이 제한될 수 있다. 종단에 위치하는 스켈레톤(SK)은 하나의 관절(JT)과 연결될 수 있고, 두 개의 스켈레톤(SK) 사이에 위치하는 스켈레톤(SK)은 양단으로 두 개의 관절(JT)과 연결될 수 있다. 살(WT)은 무게값을 가질 수 있는데, 이러한 무게값에 따라 본(BN)의 움직임 속도, 가속도 등이 결정될 수 있다.Referring to FIG. 3, a 3D character 20 in a virtual space may be composed of a plurality of bones (BN). And, each bone (BN) may include at least one joint (JT), skeleton (SK), flesh (WT), and the like. Each bone (BN) may be matched to a part of the body, for example, arms, legs, hands, feet, body, head, and the like, and this matching information may be included in this data. The characteristics of the joint JT may be limited according to matching information. For example, the range of rotation of the joint JT may be limited according to a portion corresponding to the body. Skeletons (SK) positioned at the end may be connected to one joint (JT), and skeletons (SK) positioned between the two skeletons (SK) may be connected to two joints (JT) at both ends. The weight WT may have a weight value, and the movement speed, acceleration, and the like of the bone BN may be determined according to the weight value.

일부의 설명은 실제 공간에서의 개념으로 설명되고 있으나 이러한 개념은 가상의 공간에서도 동일하게 적용될 수 있는 것으로 동영상제작시스템에서는 가상의 공간에서의 디지털 값으로 처리되는 것으로 이해될 수 있다. 이러한 본데이터에 대한 가상의 공간에서의 동역학적 처리는 미리 개발된 다수의 스켈레톤 알고리즘을 통해 구현될 수 있고, 시판되거나 무료로 배포되고 있는 API(application programming interface) 등에 의해 구현될 수도 있다.Some of the descriptions are explained as concepts in the real space, but these concepts can be applied to virtual spaces as well, and can be understood as being processed as digital values in the virtual spaces in the video production system. The dynamic processing of virtual data in the virtual space may be implemented through a number of pre-developed skeleton algorithms, or may be implemented by a commercially available or freely distributed application programming interface (API).

도 4는 일 실시예에 따른 동영상제작방법의 흐름도이다.4 is a flowchart of a video production method according to an embodiment.

도 4를 참조하면, 장치는 3D스캔데이터를 로딩할 수 있다(S400)-도 4를 참조하여 설명하는 장치는 전술한 단말장치이거나 다른 장치일 수 있음-. 3D스캔데이터는 복수의 관절을 가지는 캐릭터를 3D스캔하여 생성되는 스캔데이터로서, 복수의 관절에 대한 본데이터를 포함할 수 있다.Referring to FIG. 4, the device may load 3D scan data (S400)-the device described with reference to FIG. 4 may be the aforementioned terminal device or another device. 3D scan data is scan data generated by 3D scanning a character having a plurality of joints, and may include main data for a plurality of joints.

장치는 본데이터를 이용하여 가상의 공간에서 3D 캐릭터에게 복수의 동작을 부여하고, 제1레이어에서 3D 캐릭터의 각 동작을 클립의 단위로 배치할 수 있다(S402). 여기서, 3D 캐릭터은 3D스캔데이터를 이미지화한 가상의 캐릭터이고, 3D 캐릭터의 동작은 예를 들어, 전측보행, 후측보행, 좌측보행, 우측보행, 구보, 돌기, 팔돌리기 등 신체를 가동시켜 3D 캐릭터에 움직임을 형성하는 것으로 가상의 공간에 위치하는 3D 캐릭터의 관절에 대한 제어를 통해 수행될 수 있다.The device may use the present data to give a plurality of motions to the 3D character in a virtual space, and arrange each motion of the 3D character in the first layer in units of clips (S402). Here, the 3D character is a virtual character that imaged 3D scan data, and the motion of the 3D character is a 3D character by moving a body such as an anterior gait, a posterior gait, a left gait, a right gait, a gumbo, a spin, or an arm turn. Forming a movement, it can be performed through control of a joint of a 3D character located in a virtual space.

그리고 3D 캐릭터에게 부여될 수 있는 동작은 감정표현동작을 포함할 수 있다. 감정표현동작은 얼굴의 세부 구성들에 대한 미세한 위치 제어를 통해 구현될 수도 있고, 팔, 몸체, 다리, 손가락 등의 신체 구성에 대한 위치 제어를 통해 구현될 수도 있다.In addition, the gesture that can be given to the 3D character may include an emotion expression gesture. Emotional expression may be implemented through fine position control of detailed components of the face, or may be implemented through position control of body components such as arms, bodies, legs, and fingers.

장치는 각 동작에 대한 제어시퀀스를 미리 저장하고 있으면서, 사용자설정에 의해 하나의 동작이 선택되면 해당 동작에 대응되는 제어시퀀스에 따라 3D 캐릭터를 동작시킬 수 있다. 제어시퀀스에는 3D 캐릭터의 각 관절에 대한 시간별 위치제어값이 포함될 수 있다.The apparatus may store a control sequence for each operation in advance, and, when one operation is selected by user setting, may operate the 3D character according to a control sequence corresponding to the operation. The control sequence may include time-dependent position control values for each joint of the 3D character.

장치는 인접한 동작들의 경계에서 동작 블렌딩을 적용할 수 있다(S404). 동작 블렌딩은 서로 다른 동작이 연속적으로 이루어지도록 제어하는 것으로 장치는 이전 동작의 마지막 자세와 다음 동작의 처음 자세가 동일해 지도록 동작 블렌딩을 수행할 수 있다.The apparatus may apply motion blending at the boundary of adjacent motions (S404). Motion blending controls different motions to be continuously performed, and the device may perform motion blending such that the last posture of the previous motion and the first posture of the next motion are the same.

장치는 제2레이어에 가상의 공간에 대한 배경영상을 배치할 수 있다(S406). 배경영상은 배경화면과 배경효과를 포함할 수 있다.The device may place a background image of the virtual space on the second layer (S406). The background image may include a background screen and a background effect.

배경영상은 3D데이터일 수 있다. 배경영상이 3D데이터로 구성되는 경우, 가상의 공간을 촬영하는 카메라의 시점에 따라 배경영상도 변할 수 있다.The background image may be 3D data. When the background image is composed of 3D data, the background image may also be changed according to the viewpoint of the camera shooting the virtual space.

장치는 가상의 공간을 촬영하는 가상의 카메라를 설정하고, 3D 캐릭터 및 배경영상에 카메라의 시점을 적용시켜 각 시간에서의 이미지를 결정할 수 있다(S408). 장치는 시간단위-예를 들어, 10ms, 100ms, 1s 등-마다 2차원 이미지데이터를 생성할 수 있는데, 이러한 2차원 이미지데이터에 시점(view point)은 카메라의 방향에 따라 결정될 수 있다.The device may set a virtual camera for photographing a virtual space, and determine an image at each time by applying a camera's viewpoint to 3D characters and background images (S408). The device may generate 2D image data for each time unit-for example, 10ms, 100ms, 1s, etc., and a view point of the 2D image data may be determined according to the direction of the camera.

카메라의 설정은 예를 들어, 위치 및 방향에 대한 설정일 수 있고, 카메라 효과에 대한 설정일 수 있다. 카메라 효과는 예를 들어, 줌인(zoom-in), 줌아웃(zoom-out), 카메라 회전 등의 기법일 수 있다.The setting of the camera may be, for example, a setting for a position and a direction, or a setting for a camera effect. The camera effect may be, for example, a technique such as zoom-in, zoom-out, camera rotation, or the like.

장치는 서로 다른 카메라 설정의 사이에 카메라 블렌딩을 적용할 수 있다. 예를 들어, 장치는 카메라가 제1시간에서 제1위치로 설정되고 제2시간에서 제2위치로 설정되는 경우, 제1시간에서 제2시간 동안 카메라의 위치가 제1위치에서 제2위치로 서서히 변경되도록 카메라 설정을 제어할 수 있다.The device can apply camera blending between different camera settings. For example, when the camera is set from the first time to the first position and from the second time to the second position, the device may change the position of the camera from the first position to the second position during the first time to the second time. Camera settings can be controlled to change gradually.

장치는 시간단위마다 생성되는 2차원 이미지데이터를 결합하여 동영상을 생성할 수 있다(S410). 이러한 동영상은 카메라의 시점에 따라 가상의 공간의 시간적인 변화를 촬영한 것과 같을 수 있다. 장치는 음향을 더 결합시켜 동영상을 생성할 수 있다. 음향은 미리 생성된 음악파일일 수도 있고, 사용자에 의해 녹음된 음성파일일 수도 있다.The device may generate a video by combining 2D image data generated for each time unit (S410). Such a video may be the same as capturing a temporal change in the virtual space according to the viewpoint of the camera. The device may generate a video by further combining sound. The sound may be a pre-generated music file or a voice file recorded by a user.

장치는 생성된 동영상을 온라인 커뮤니티, 동영상 공유 사이트, 소셜 네트워크 서비스 등에 업로드하여 동영상을 공유할 수 있다(S412).The device may share the video by uploading the generated video to an online community, a video sharing site, a social network service, etc. (S412).

한편, 단말장치는 스마트폰과 같은 개인 휴대용 무선통신장치에 앱(APP)의 형태로 구현될 수 있는데, 이러한 구현 방법에서의 단말장치의 인터페이스 및 그 제어에 대한 예시를 좀더 설명한다.On the other hand, the terminal device may be implemented in the form of an app (APP) on a personal portable wireless communication device such as a smartphone, and an example of the interface and control of the terminal device in such an implementation method will be further described.

도 5는 일 실시예에 따른 단말장치에서 3D스캔데이터를 수신하는 것을 나타내는 도면이다.5 is a diagram illustrating receiving 3D scan data in a terminal device according to an embodiment.

도 5를 참조하면, 사용자는 3D스캐너(130)를 통해 자신에 대한 스캔데이터(SD)를 생성할 수 있다. 이때, 3D스캐너(130)는 단말장치(110)와 공간적으로 이격된 곳에 위치할 수 있는데, 사용자는 3D스캐너(130)가 스캔한 데이터를 추후 단말장치(110)에서 이용할 수 있도록 스캔코드(SC)를 스캔데이터(SD)에 매칭시킬 수 있다.Referring to FIG. 5, the user may generate scan data SD for himself through the 3D scanner 130. At this time, the 3D scanner 130 may be located at a spatially spaced distance from the terminal device 110, and the user may use the scan code (SC) so that the 3D scanner 130 can use the data scanned by the terminal device 110 later. ) To match the scan data SD.

3D스캐너(130)는 스캔코드(SC)가 매칭된 스캔데이터(SD)를 제1서버(120)로 송신할 수 있다. 스캔데이터(SD)는 사용자의 외관에 대한 3차원(3D) 실사이미지를 포함하는 데이터로서, 사용자의 관절에 대한 정보는 포함하지 않을 수 있다.The 3D scanner 130 may transmit the scan data SD matching the scan code SC to the first server 120. The scan data SD is data including a three-dimensional (3D) photorealistic image of the user's appearance, and may not include information about the user's joint.

제1서버(120)는 스캔데이터(SD)를 3D스캔데이터(3DSD)로 변환하거나 스캔데이터(SD)에 대응되는 3D스캔데이터(3DSD)를 다른 장치 혹은 관리자 조작은 인식하여 획득할 수 있다.The first server 120 may convert the scan data SD into 3D scan data 3DSD or recognize the 3D scan data 3DSD corresponding to the scan data SD by recognizing another device or an administrator's operation.

그리고, 단말장치(110)는 스캔코드(SC)를 제1서버(120)로 송신하고, 그에 대응되는 3D스캔데이터(3DSD)를 수신하여 저장부에 저장하거나 로딩할 수 있다. 단말장치(110)는 화면에 스캔코드를 입력할 수 있는 창을 표시하고, 해당 창으로 입력되는 스캔코드를 제1서버(120)로 송신할 수 있다.Then, the terminal device 110 may transmit the scan code SC to the first server 120, receive the corresponding 3D scan data 3DSD, and store or load it in the storage unit. The terminal device 110 may display a window for inputting a scan code on the screen, and transmit the scan code input to the window to the first server 120.

도 6은 일 실시예에 따른 단말장치에서 각 레이어에 대한 제어화면을 나타내는 도면이고, 도 7은 도 6의 제어창을 좀더 구체적으로 나타내는 도면이다.6 is a diagram illustrating a control screen for each layer in a terminal device according to an embodiment, and FIG. 7 is a diagram more specifically showing the control window of FIG. 6.

도 6 및 도 7을 참조하면, 단말장치는 동영상 제작을 위한 각 레이어의 제어화면을 표시할 수 있다.6 and 7, the terminal device may display a control screen of each layer for video production.

제어화면은 미리보기창(610)과 제어창(620)으로 구성될 수 있다.The control screen may include a preview window 610 and a control window 620.

미리보기창(610)은 현재 재생시간에서의 동영상의 이미지를 표시하거나 재생시간 전체 구간에서의 동영상을 표시할 수 있다. 제어창(620)에는 시간축창(670)이 있고, 현재 재생시간을 지시하는 재생시간지시자(622)가 표시될 수 있는데, 미리보기창(610)은 정지화면에서 재생시간지시자(622)가 지시하는 현재 재생시간에서의 동영상의 이미지를 표시할 수 있고, 동영상화면에서 재생시간 전체 구간에서의 동영상을 표시할 수 있다.The preview window 610 may display an image of the video at the current playback time or a video at the entire duration of the playback time. In the control window 620, there is a time axis window 670, and a playback time indicator 622 indicating the current playback time may be displayed. The preview window 610 indicates the playback time indicator 622 on the still screen. The image of the video at the current playback time can be displayed, and the video at the entire playback time section can be displayed on the video screen.

제어창(620)은 시간축창(670) 및 다수의 레이어창(630, 640, 650, 660)으로 구성될 수 있다.The control window 620 may include a time axis window 670 and a plurality of layer windows 630, 640, 650, and 660.

시간축창(670)은 재생시간지시자(622)가 지시하는 현재 재생시간을 표시할 수 있고, 동영상의 전체 재생시간을 표시할 수 있다. 필요에 따라, 시간축창(670)에 저장버튼이나 화면비율조절버튼 등이 더 배치될 수 있다.The time axis window 670 may display the current playing time indicated by the playing time indicator 622, and may display the entire playing time of the video. If necessary, a storage button or an aspect ratio control button may be further disposed in the time axis window 670.

동작레이어창(630)에는 캐릭터에 대한 복수의 동작을 부여하는 동작블럭들(632)이 배치될 수 있다. 각 동작블럭들(632)이 하나의 클립을 형성할 수 있다.In the operation layer window 630, operation blocks 632 that give a plurality of operations to the character may be disposed. Each motion block 632 may form one clip.

동작블럭들(632)의 시간축방향 길이가 각 클립의 재생시간을 결정할 수 있다. 사용자는 각 동작블럭(632)의 시간축방향의 좌우측단(734)을 조작하여 각 동작블럭(632)의 길이를 조절할 수 있다. 각 동작블럭(632)은 최초 배치될 때, 3D 캐릭터의 동작에 따라 미리 설정된 재생시간을 가지도록 배치될 수 있다. 그리고, 사용자가 이러한 동작블럭(632)의 길이를 조절하는 경우, 각 동작의 슬로우 모션화 혹은 패스트 모션화가 구현될 수 있다.The length of the motion blocks 632 in the time axis direction may determine the reproduction time of each clip. The user can adjust the length of each operation block 632 by manipulating the left and right ends 734 in the time axis direction of each operation block 632. Each motion block 632 may be arranged to have a preset playback time according to the motion of the 3D character when initially arranged. And, when the user adjusts the length of the motion block 632, slow motion or fast motion of each motion may be implemented.

카메라레이어창(640)에는 카메라설정블럭들(642)이 배치될 수 있다. 각 카메라설정블럭들(642)마다 하나의 카메라설정이 적용될 수 있으며, 그러한 카메라설정의 시간은 각 카메라설정블럭들(642)의 시간축방향길이에 의해 결정될 수 있다. 카메라설정블럭(642)이 배치되지 않는 시간대에서는 카메라에 대한 기본 설정이 적용될 수 있다.Camera setting blocks 642 may be disposed in the camera layer window 640. One camera setting may be applied to each of the camera setting blocks 642, and the time of such camera setting may be determined by the time axis length of each camera setting block 642. In a time zone in which the camera setting block 642 is not disposed, the default setting for the camera may be applied.

한편, 동영상의 재생시간은 동작레이어창(630)에 배치되는 동작블럭들(632)의 길이의 합에 의해 결정될 수 있는데, 이렇게 결정된 재생시간을 초과하는 카메라설정블럭(642) 부분(643)은 비활성화되고 동영상에 포함되지 않을 수 있다.On the other hand, the playback time of the video may be determined by the sum of the lengths of the motion blocks 632 arranged in the motion layer window 630, wherein the camera setting block 642 portion 643 exceeding the determined play time is It is disabled and may not be included in the video.

배경레이어창(650)에는 배경영상블럭(652)이 배치될 수 있다. 배경레이어창(650)은 배경효과레이어창(754)과 배경화면레이어창(756)으로 구분될 수 있다. 그리고, 배경효과레이어창(754)에는 배경효과블럭(755)이 배치되고, 배경화면레이어창(756)에는 배경화면블럭(757)이 배치될 수 있다. 배경효과블럭(755) 및 배경화면블럭(757)의 시간축 방향 길이에 따라 배경효과 및 배경화면의 재생시간이 결정될 수 있는데, 배경효과가 일정 영상을 반복재생하는 형태로 구현되는 경우, 배경효과블럭(755)의 길이가 변해도 배경효과의 재생속도가 변하지는 않고, 재생시간만 변할 수 있다.A background image block 652 may be disposed in the background layer window 650. The background layer window 650 may be divided into a background effect layer window 754 and a background screen layer window 756. Further, a background effect block 755 may be disposed in the background effect layer window 754, and a background screen block 757 may be disposed in the background layer layer 756. Depending on the length of the time axis direction of the background effect block 755 and the wallpaper block 757, the background effect and the playback time of the background screen may be determined. If the background effect is implemented in a form of repeatedly playing a certain image, the background effect block Even if the length of 755 is changed, the playback speed of the background effect does not change, and only the playback time can be changed.

재생시간은 동작블럭들(632)의 시작시간과 종료시간으로 결정될 수 있는데, 시간축방향에서 동작블럭들(632)의 종료시간 이전은 활성부분(722)이고, 이후는 비활성부분(724)으로 표시되고, 비활성부분(724)에 해당되는 카메라레이어창(640), 배경레이어창(650)의 구성들은 동영상 제작에서 무시될 수 있다.The reproduction time may be determined by a start time and an end time of the motion blocks 632, before the end time of the motion blocks 632 in the time axis direction is the active part 722, and thereafter indicated by the inactive part 724. The components of the camera layer window 640 and the background layer window 650 corresponding to the inactive portion 724 may be ignored in video production.

도 8은 일 실시예에 따른 단말장치에서 캐릭터효과에 대한 제어화면을 나타내는 도면이다.8 is a view showing a control screen for a character effect in a terminal device according to an embodiment.

단말장치는 3D 캐릭터에 효과를 부여할 수 있다. 예를 들어, 단말장치는 3D 캐릭터의 신체의 특정 부분에서 불, 번개, 바람 등의 효과가 발생하도록 제어할 수 있다.The terminal device can give an effect to the 3D character. For example, the terminal device can control the effects of fire, lightning, and wind to occur in a specific part of the body of the 3D character.

단말장치는 효과가 부여될 수 있는 위치를 3D 캐릭터와 함께 화면에 표시할 수 있다. 그리고, 단말장치는 사용자조작을 인식하여 사용자선택 위치에 3D 캐릭터의 효과를 표시할 수 있으며, 시간축 상으로 3D 캐릭터의 효과가 부여된 시간 이후에는 3D 캐릭터의 동작 등에 있어서 효과가 적용된 3D 캐릭터로 그 동작을 표시할 수 있다.The terminal device may display a location on which the effect can be applied along with the 3D character on the screen. In addition, the terminal device can recognize the user's operation and display the effect of the 3D character at the user-selected position, and after the time when the effect of the 3D character is granted on the time axis, the terminal is a 3D character with an effect applied to the operation of the 3D character. The action can be displayed.

도 9는 일 실시예에 따른 단말장치에서 녹음에 대한 제어화면을 나타내는 도면이다.9 is a view showing a control screen for recording in a terminal device according to an embodiment.

단말장치는 사용자의 음성을 녹음하여 동영상에 결합시킬 수 있다. 도 9와 같이 제어화면에는 녹음버튼이 표시되고, 시간축으로 녹음의 길이가 표시될 수 있다. 한편, 도면에는 도시되지 않았으나, 동영상의 미리 보기 창과 함께 녹음제어창이 화면에 표시될 수 있다. 이러한 실시예에서 사용자는 동영상을 보면서 음성을 더빙의 형식으로 녹음할 수 있게 된다.The terminal device can record a user's voice and combine it with a video. As shown in FIG. 9, a recording button is displayed on the control screen, and a length of recording may be displayed on a time axis. Meanwhile, although not shown in the drawings, a recording control window may be displayed on the screen together with a preview window of a video. In this embodiment, the user can record the voice in the form of dubbing while watching a video.

이상에서는 3D스캐너(130)가 캐릭터(10)의 외형을 스캔하고, 이에 대한 스캔데이터를 생성하는 실시예에 대해서 설명하였다.In the above, an embodiment in which the 3D scanner 130 scans the appearance of the character 10 and generates scan data therefor has been described.

이하에서는 캐릭터(10)의 스캔데이터를 3D스캐너(130)가 아닌 단말장치(110 또는 별도의 휴대장치에서 생성하는 실시예에 대해 설명하도록 한다.Hereinafter, an embodiment in which the scan data of the character 10 is generated by the terminal device 110 or a separate portable device other than the 3D scanner 130 will be described.

도 11은 다른 실시예에 따른 동영상제작시스템의 구성도이다.11 is a block diagram of a video production system according to another embodiment.

도 11을 참조하면, 동영상제작시스템(1100)은 단말장치(1110) 및 적어도 하나의 서버(1120, 140) 등을 포함할 수 있다. 여기서, 제2서버(140)는 일 실시예의 구성과 동일하므로 제2서버(140)에 대한 설명은 생략하도록 한다.Referring to FIG. 11, the video production system 1100 may include a terminal device 1110 and at least one server 1120 or 140. Here, since the second server 140 is the same as the configuration of one embodiment, description of the second server 140 will be omitted.

단말장치(1110)는 사용자 인터페이스를 제공하는 장치로서, 동영상 제작을 위한 사용자 조작을 입력받고, 동영상 제작에 필요한 정보 및 동영상 제작의 결과물을 사용자에게 표시할 수 있다.The terminal device 1110 is a device that provides a user interface, and receives user manipulation for video production, and can display information required for video production and a result of video production to a user.

단말장치(1110)는 사용자 인터페이스로서 터치패널을 포함하는 디스플레이패널을 포함할 수 있다. 단말장치(1110)는 터치패널에 대한 신호를 수신하여 사용자 조작을 인식할 수 있고, 동영상 제작에 필요한 정보 및 동영상 제작의 결과물을 디스플레이패널을 통해 표시할 수 있다.The terminal device 1110 may include a display panel including a touch panel as a user interface. The terminal device 1110 may recognize a user operation by receiving a signal for the touch panel, and display information required for video production and a result of video production through a display panel.

단말장치(1110)는 동영상 제작 이외에 다른 기능을 더 수행할 수 있다. 예를 들어, 단말장치(1110)는 무선통신을 수행할 수 있다. 단말장치(1110)는 모바일로 호칭되는 전화기의 일종으로서, 터치패널, 디스플레이패널 및 데이터프로세서 등을 포함할 수 있다. 단말장치(1110)는 무선통신에 사용되는 이러한 터치패널, 디스플레이패널 및 데이터프로세서를 이용하여 동영상제작시스템(1100)에 필요한 기능을 수행할 수 있다.The terminal device 1110 may perform other functions in addition to video production. For example, the terminal device 1110 may perform wireless communication. The terminal device 1110 is a type of telephone called a mobile device, and may include a touch panel, a display panel, and a data processor. The terminal device 1110 may perform functions necessary for the video production system 1100 using such a touch panel, display panel, and data processor used for wireless communication.

구체적으로 단말장치(1110)는 일 실시예에서 3D스캐너(130)가 수행했던 캐릭터(10)의 3D스캔을 수행할 수 있다.Specifically, the terminal device 1110 may perform a 3D scan of the character 10 performed by the 3D scanner 130 in one embodiment.

이를 위해 단말장치(1110)는 3D뎁스카메라를 구비할 수 있다.To this end, the terminal device 1110 may include a 3D depth camera.

다시 말해서, 단말장치(1110)는 3D뎁스카메라를 사용하여 캐릭터(10)를 3D스캔하고, 이에 대한 스캔데이터를 생성할 수 있다. 여기서, 스캔데이터는 3D스캔에 대한 폴리곤데이터와 2D텍스쳐데이터를 포함할 수 있다.In other words, the terminal device 1110 may 3D scan the character 10 using a 3D depth camera, and generate scan data for the character 10. Here, the scan data may include polygon data for 3D scan and 2D texture data.

스캔데이터를 생성한 단말장치(1110)는 스캔데이터를 제1서버(1120)로 송신할 수 있다.The terminal device 1110 generating the scan data may transmit the scan data to the first server 1120.

여기서, 단말장치(1110)는 스캔데이터를 편집한 후에 제1서버(1120)로 송신할 수 있다.Here, the terminal device 1110 may transmit the scan data to the first server 1120 after editing.

다시 말해서, 스캔데이터가 도 13과 같이 캐릭터(10)의 전신에 대한 스캔데이터인 경우, 단말장치(1110)는 사용자의 설정에 따라 도 13과 같이 편집하지 않은 스캔데이터인 전신 스캔데이터를 송신하거나, 도 14의 14A와 같이 전신 스캔데이터에서 캐릭터(10)의 몸체를 제거한 스캔데이터인 두상 스캔데이터를 생성 및 제1서버(120)에 송신할 수 있다.In other words, when the scan data is the scan data for the whole body of the character 10 as shown in FIG. 13, the terminal device 1110 transmits the whole body scan data, which is the unedited scan data as shown in FIG. 13 according to the user's setting, or , As shown in 14A of FIG. 14, the head scan data, which is the scan data obtained by removing the body of the character 10 from the whole body scan data, may be generated and transmitted to the first server 120.

또한, 단말장치(1110)는 도 14의 14B와 같이 전신 스캔데이터에서 캐릭터(10)의 두상을 제거한 스캔데이터인 몸체 스캔데이터를 생성 및 제1서버(1120)에 송신할 수도 있다.In addition, the terminal device 1110 may generate and transmit body scan data, which is the scan data obtained by removing the head of the character 10 from the whole body scan data, as shown in 14B of FIG. 14 and transmit it to the first server 1120.

한편, 다른 실시예에서 캐릭터(10)의 3D 스캔을 단말장치(1110)에서 수행하지 않고, 별도의 휴대장치(예를 들어, 3D뎁스카메라를 구비한 태블릿 PC, 디지털 카메라, 노트북 등)에서 캐릭터(10)의 3D 스캔을 수행하여 스캔데이터를 생성할 수도 있다.On the other hand, in another embodiment, without performing the 3D scan of the character 10 in the terminal device 1110, the character in a separate portable device (for example, a tablet PC equipped with a 3D depth camera, digital camera, laptop, etc.) Scan data may be generated by performing the 3D scan of (10).

이러한 경우, 단말장치(1110)는 블루투스와 같은 근거리 무선통신 또는 케이블 통신을 통해 휴대장치로부터 스캔데이터를 수신하고, 위와 같은 스캔데이터의 편집만을 수행한 후에 제1서버(1120)로 송신할 수 있다.In this case, the terminal device 1110 may receive the scan data from the portable device through short-range wireless communication such as Bluetooth or cable communication, and perform the editing of the scan data as described above, and then transmit it to the first server 1120. .

단말장치(1110)가 스캔데이터를 제1서버(1120)에 송신한 후, 단말장치(1110)는 제1서버(1120)로부터 3D스캔데이터를 다운로드할 수 있다. 여기서, 3D스캔데이터는 캐릭터(10)에 포함되는 복수의 관절에 대한 본(bone)데이터를 포함할 수 있다.After the terminal device 1110 transmits the scan data to the first server 1120, the terminal device 1110 may download 3D scan data from the first server 1120. Here, the 3D scan data may include bone data for a plurality of joints included in the character 10.

다시 말해서, 단말장치(1110)가 제1서버(1120)에 송신한 스캔데이터가 전신 스캔데이터인 경우, 3D스캔데이터는 캐릭터(10)의 전신 관절에 대한 본 데이터를 포함할 수 있다.In other words, when the scan data transmitted from the terminal device 1110 to the first server 1120 is whole body scan data, the 3D scan data may include the present data about the whole body joint of the character 10.

단말장치(1110)가 제1서버(1120)에 송신한 스캔데이터가 두상 스캔데이터인 경우, 3D스캔데이터는 캐릭터(10)의 목관절에 대한 본 데이터를 포함한 두상 3D스캔데이터일 수 있다.When the scan data transmitted from the terminal device 1110 to the first server 1120 is head scan data, the 3D scan data may be head head 3D scan data including this data on the neck joint of the character 10.

단말장치(1110)가 제1서버(1120)에 송신한 스캔데이터가 몸체 스캔데이터인 경우, 3D스캔데이터는 몸체 관절에 대한 본 데이터를 포함한 몸체 3D스캔데이터일 수 있다. 여기서, 몸체 관절은 캐릭터(10)의 전신 관절 중에서 목관절을 제외한 관절을 의미할 수 있다.When the scan data transmitted from the terminal device 1110 to the first server 1120 is body scan data, the 3D scan data may be body 3D scan data including the present data on the body joint. Here, the body joint may mean a joint excluding a wood joint among the whole body joints of the character 10.

3D스캔데이터를 다운로드한 단말장치(1110)는 일 실시예에서와 같이 3D스캔데이터를 이용하여 동영상을 제작할 수 있고, 동영상을 제2서버(140)에 업로드할 수 있다.The terminal device 1110 that downloads the 3D scan data can produce a video using the 3D scan data and upload the video to the second server 140 as in one embodiment.

제2서버(140)는 동영상을 공유하거나 소셜네트워크서비스를 지원하는 서버일 수 있다. 단말장치(1110)를 이용하는 사용자는 제2서버(140)를 통해 직접 제작한 동영상을 다른 사람들과 공유할 수 있다.The second server 140 may be a server that shares videos or supports social network services. A user using the terminal device 1110 can share the video produced directly through the second server 140 with other people.

다른 실시예에서 단말장치(1110)는 다수의 두상 3D일러스트 데이터, 다수의 몸체 3D일러스트 데이터, 다수의 전신 3D일러스트 데이터를 저장할 수 있다. 여기서, 두상 3D일러스트 데이터, 몸체 3D일러스트 데이터, 전신 3D일러스트 데이터는 3D일러스트 이미지에 본 데이터를 결합한 데이터일 수 있다.In another embodiment, the terminal device 1110 may store a plurality of head 3D illustration data, a plurality of body 3D illustration data, and a plurality of whole body 3D illustration data. Here, the head 3D illustration data, the body 3D illustration data, and the whole body 3D illustration data may be data obtained by combining data viewed with a 3D illustration image.

3D스캔데이터가 두상 3D스캔데이터인 경우, 단말장치(1110)는 사용자의 설정에 따라 다수의 몸체 3D일러스트 데이터 중 어느 하나를 두상 3D스캔데이터와 결합하여 가상의 3D 캐릭터를 생성할 수 있다.When the 3D scan data is two-phase 3D scan data, the terminal device 1110 may generate a virtual 3D character by combining any one of a plurality of body 3D illustration data with the two-phase 3D scan data according to the user's setting.

3D스캔데이터가 몸체 3D스캔데이터인 경우, 단말장치(1110)는 사용자의 설정에 따라 다수의 두상 3D일러스트 데이터 중 어느 하나를 몸체 3D스캔데이터와 결합하여 가상의 3D 캐릭터를 생성할 수도 있다.When the 3D scan data is the body 3D scan data, the terminal device 1110 may generate a virtual 3D character by combining any one of a plurality of head 3D illustration data with the body 3D scan data according to a user setting.

또한, 단말장치(1110)는 캐릭터(10)의 스캔데이터에서 캐릭터(10)의 두상 2D 텍스쳐를 추출하거나, 캐릭터(10)를 촬영한 사진데이터에서 두상 2D이미지를 추출한 후에 도 15와 같이 전신 3D일러스트(1510)의 2D이미지 합성면(1512)에 두상 2D텍스쳐 또는 두상 2D이미지를 합성하여 도 16의 16A와 같이 가상의 3D 캐릭터를 생성할 수도 있다. 여기서, 단말장치(1110)는 도 16의 16B와 같이 2D이미지 합성면(1512)을 꾸밀 수 있는 다양한 3D아이템들을 더 저장할 수도 있다.In addition, the terminal device 1110 extracts the head 2D texture of the character 10 from the scan data of the character 10, or after extracting the head 2D image from the photo data of the character 10, the whole body 3D as shown in FIG. It is also possible to generate a virtual 3D character as shown in 16A in FIG. 16 by combining a two-phase 2D texture or a two-phase 2D image on the 2D image composite surface 1512 of the illustration 1510. Here, the terminal device 1110 may further store various 3D items that can decorate the 2D image composite surface 1512 as shown in 16B of FIG. 16.

단말장치(1110)는 가상의 3D 캐릭터를 이용해서 동영상을 제작할 수 있고, 동영상을 제2서버(140)에 업로드할 수도 있다.The terminal device 1110 may produce a video using a virtual 3D character, and upload the video to the second server 140.

제1서버(1120)는 스캔데이터를 3D스캔데이터로 변환할 수 있다. 여기서, 제1서버(1120)는 스캔데이터에 포함된 2D텍스쳐데이터로 3D스캔데이터의 질감과 윤곽을 표현할 수 있다.The first server 1120 may convert the scan data into 3D scan data. Here, the first server 1120 may express the texture and contour of the 3D scan data as 2D texture data included in the scan data.

스캔데이터가 전신 스캔데이터인 경우, 제1서버(120)는 캐릭터(10)의 전신 관절에 대한 본데이터를 포함한 3D스캔데이터(전신 3D스캔데이터)를 생성할 수 있다.When the scan data is whole body scan data, the first server 120 may generate 3D scan data (full body 3D scan data) including the original data of the whole body joint of the character 10.

스캔데이터가 두상 스캔데이터인 경우, 제1서버(1120)는 캐릭터(10)의 목관절에 대한 본 데이터를 포함한 3D스캔데이터(두상 3D스캔데이터)를 생성할 수 있다.When the scan data is head scan data, the first server 1120 may generate 3D scan data (head 3D scan data) including the present data on the neck joint of the character 10.

스캔데이터가 몸체 스캔데이터인 경우, 제1서버(1120)는 캐릭터(10)의 몸체 관절에 대한 본 데이터를 포함한 3D스캔데이터(몸체 3D스캔데이터)를 생성할 수 있다.When the scan data is body scan data, the first server 1120 may generate 3D scan data (body 3D scan data) including this data for the body joint of the character 10.

제1서버(1120)에서 본데이터를 생성하는 구성과 3D스캔데이터를 생성하는 구성은 일 실시예와 동일하므로, 다른 실시예에서는 이에 대한 설명을 생략하도록 한다.The configuration for generating the main data and the configuration for generating the 3D scan data in the first server 1120 is the same as in one embodiment, so a description of this is omitted in other embodiments.

도12는 다른 실시예에 따른 단말장치의 구성도이다.12 is a configuration diagram of a terminal device according to another embodiment.

도 12를 참조하면, 단말장치(1110)는 저장부(1210), 스캔데이터 편집부(1220), 동작제어부(220), 배경설정부(230), 카메라제어부(240), 음향제어부(250), 동영상제작 및 재생부(260), 인터페이스부(270), 단말기통신부(280), 중앙제어부(290) 등을 포함할 수 있다. 여기서, 동작제어부(220), 배경설정부(230), 카메라제어부(240), 음향제어부(250), 동영상제작 및 재생부(260), 인터페이스부(270), 단말기통신부(280), 중앙제어부(290)는 일 실시예의 구성과 동일하므로 이에 대한 설명은 생략하도록 한다.Referring to FIG. 12, the terminal device 1110 includes a storage unit 1210, a scan data editing unit 1220, a motion control unit 220, a background setting unit 230, a camera control unit 240, and a sound control unit 250, It may include a video production and playback unit 260, the interface unit 270, the terminal communication unit 280, the central control unit 290, and the like. Here, the operation control unit 220, the background setting unit 230, the camera control unit 240, the sound control unit 250, the video production and playback unit 260, the interface unit 270, the terminal communication unit 280, the central control unit 290 is the same as the configuration of one embodiment, so a description thereof will be omitted.

저장부(1210)는 동영상 제작에 필요한 각종 데이터를 저장할 수 있다. 예를 들어, 저장부(1210)는 스캔데이터와 3D스캔데이터를 저장할 수 있다. 여기서, 저장부(1210)는 제1서버(1120)로부터 3D스캔데이터를 수신하여 저장할 수 있다. 3D스캔데이터에는 캐릭터의 외형에 대한 입체적인 실사 이미지와 함께, 캐릭터의 3D모델링데이터에 대응되는 본데이터가 포함될 수 있다.The storage unit 1210 may store various data necessary for video production. For example, the storage unit 1210 may store scan data and 3D scan data. Here, the storage unit 1210 may receive and store 3D scan data from the first server 1120. The 3D scan data may include three-dimensional photorealistic images of the appearance of the character, and this data corresponding to the 3D modeling data of the character.

또한, 저장부(1210)는 캐릭터(10)를 촬영한 사진데이터를 더 저장할 수도 있다.In addition, the storage unit 1210 may further store photo data of the character 10.

저장부(1210)는 각종 설정데이터를 저장할 수 있다. 단말장치(1110)는 사용자 조작을 인식하여 각종 설정에서 하나의 설정을 선택할 수 있는데, 여기서, 설정에 대응되는 설정데이터는 저장부(1210)에 미리 저장되어 있을 수 있다. 이하에서, 미리 저장되거나 미리 설정된 것으로 기술되는 구성들은 저장부(1210)에 미리 저장되어 있는 것으로 이해할 수 있다.The storage unit 1210 may store various setting data. The terminal device 1110 may recognize a user operation and select one setting from various settings, where the setting data corresponding to the setting may be stored in advance in the storage unit 1210. Hereinafter, it can be understood that components previously stored or described as being preset are stored in advance in the storage unit 1210.

한편, 저장부(1210)는 다수의 두상 3D일러스트 데이터, 다수의 몸체 3D일러스트 데이터, 다수의 전신 3D일러스트 데이터를 저장할 수도 있다.Meanwhile, the storage unit 1210 may store a plurality of head 3D illustration data, a plurality of body 3D illustration data, and a plurality of whole body 3D illustration data.

스캔데이터 편집부(1220)는 단말장치(1110)에 구비된 실제 카메라(미도시) 또는 별도의 휴대장치를 통해 생성된 스캔데이터를 편집할 수 있다.The scan data editing unit 1220 may edit scan data generated through an actual camera (not shown) provided in the terminal device 1110 or a separate portable device.

다시 말해서, 스캔데이터가 도 13과 같이 캐릭터(10)의 전신에 대한 스캔데이터인 경우, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 도 14의 14A와 같이 전신 스캔데이터에서 캐릭터(10)의 몸체를 제거한 스캔데이터인 두상 스캔데이터를 생성할 수 있다.In other words, when the scan data is the scan data for the whole body of the character 10 as shown in FIG. 13, the scan data editing unit 1220 may display the character 10 in the whole body scan data as shown in 14A in FIG. It is possible to generate head scan data, which is scan data with the body removed.

또한, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 도 14의 14B와 같이 전신 스캔데이터에서 캐릭터(10)의 두상을 제거한 스캔데이터인 몸체 스캔데이터를 생성할 수 있다.In addition, the scan data editing unit 1220 may generate body scan data, which is scan data in which the head of the character 10 is removed from the whole body scan data as illustrated in 14B of FIG. 14 according to a user's setting.

스캔데이터 편집부(1220)는 위와 같이 스캔데이터를 편집한 후에 단말기 통신부(280)를 통해 스캔데이터를 제1서버(1120)로 송신할 수 있다.After editing the scan data as described above, the scan data editing unit 1220 may transmit the scan data to the first server 1120 through the terminal communication unit 280.

한편, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 캐릭터(10)의 스캔데이터에서 캐릭터(10)의 두상에 대한 2D텍스쳐를 추출할 수도 있다.Meanwhile, the scan data editing unit 1220 may extract a 2D texture of the head of the character 10 from the scan data of the character 10 according to the user's setting.

또한, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 캐릭터(10)의 사진데이터에서 캐릭터(10)의 두상에 대한 2D이미지를 추출할 수도 있다.Further, the scan data editing unit 1220 may extract a 2D image of the head of the character 10 from the photo data of the character 10 according to the user's setting.

스캔데이터 편집부(1220)는 사용자의 설정에 따라 편집하지 않은 스캔데이터를 제1서버(1120)로 송신할 수도 있다.The scan data editing unit 1220 may transmit unedited scan data to the first server 1120 according to a user's setting.

저장부(1210)에 저장된 3D스캔데이터가 두상 3D스캔데이터인 경우, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 저장부(1210)에 저장된 다수의 몸체 3D일러스트 데이터 중 어느 하나를 두상 3D스캔데이터와 결합하여 가상의 3D 캐릭터를 생성할 수 있다.When the 3D scan data stored in the storage unit 1210 is a head-to-head 3D scan data, the scan data editing unit 1220 can perform any one of a plurality of body 3D illustration data stored in the storage unit 1210 according to user settings. It can be combined with data to create virtual 3D characters.

저장부(1210)에 저장된 3D스캔데이터가 몸체 3D스캔데이터인 경우, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 저장부(1210)에 저장된 다수의 두상 3D일러스트 데이터 중 어느 하나를 몸체 3D스캔데이터와 결합하여 가상의 3D 캐릭터를 생성할 수도 있다.When the 3D scan data stored in the storage unit 1210 is body 3D scan data, the scan data editing unit 1220 scans any one of a plurality of head 3D illustration data stored in the storage unit 1210 according to user settings. It can also be combined with data to create virtual 3D characters.

위와 같이 3D 캐릭터를 생성한 후, 단말장치(1110)는 일 실시예와 동일한 구성을 통해 3D 캐릭터에 대한 동영상을 제작할 수 있다.After generating the 3D character as described above, the terminal device 1110 may produce a video for the 3D character through the same configuration as in one embodiment.

한편, 스캔데이터 편집부(1220)에서 두상에 대한 2D텍스쳐 또는 2D 이미지를 추출한 경우, 스캔데이터 편집부(1220)는 사용자의 설정에 따라 저장부(1210)에 저장된 다수의 전신 3D일러스트 데이터 중 어느 하나에 2D텍스쳐 또는 2D 이미지를 합성하여 가상의 3D 캐릭터를 생성할 수도 있다.On the other hand, when the 2D texture or 2D image of the head image is extracted from the scan data editing unit 1220, the scan data editing unit 1220 may use any one of a plurality of whole body 3D illustration data stored in the storage unit 1210 according to a user setting. You can also create virtual 3D characters by combining 2D textures or 2D images.

앞서서 설명하지 못한 추가적인 예시에 대해 좀더 설명한다.Additional examples that have not been described previously will be described further.

일 실시예에 따른 영상제작방법은 비지니스모델(business model)과 결합하여 수익창출의 도구로 사용될 수 있다.The image production method according to an embodiment may be used as a tool for generating revenue in combination with a business model.

단말장치를 구성하는 앱은 무료로 배포될 수 있으나, 그 앱에 선택사항으로 추가되는 아이템들 중 일부는 유료의 형태로 배포될 수 있다. 기술적인 측면에서 보면, 단말장치는 사용자조작을 인식하여 유료 아이템에 대한 사용자선택을 인식하고, 사용자선택된 아이템과 사용자정보를 제1서버로 송신할 수 있다. 그리고, 제1서버는 사용자정보를 통해 사용자계정에서의 아이템비용지급관련사항을 체크하고, 아이템비용이 지급되었거나 지급되는 것으로 처리되는 경우, 단말장치에서 해당 아이템이 활성화될 수 있도록 관련 데이터를 단말장치로 송신할 수 있다. 유료 아이템은 예를 들어, 캐릭터의 동작에 대한 것일 수 있고, 카메라의 설정에 대한 것일 수 있다. 캐릭터의 복수의 동작이 연속적으로 결합된 프리셋이 유료 아이템으로 사용될 수 있다. 이 경우, 사용자는 프리셋에 포함되는 연속 동작을 자신의 캐릭터에 손쉽게 적용할 수 있다.The app constituting the terminal device may be distributed free of charge, but some of the items added as an option to the app may be distributed in a paid form. In technical terms, the terminal device may recognize a user operation, recognize a user selection for a paid item, and transmit the user selected item and user information to the first server. Then, the first server checks the item cost payment related information in the user account through the user information, and when the item cost is paid or processed as being paid, the terminal device transmits related data so that the corresponding item can be activated in the terminal device. Can be sent to The paid item may, for example, be for the motion of the character, and may be for the setting of the camera. Presets in which a plurality of actions of a character are continuously combined may be used as a paid item. In this case, the user can easily apply the continuous motion included in the preset to his character.

3D 캐릭터는 3D스캔데이터에 의해 생성될 수 있으나, 실시예에 따라서는 가상으로 생성된 3D일러스트 캐릭터가 추가적으로 더 사용될 수 있다. 이러한 3D일러스트 캐릭터는 유료 아이템의 형태로 각 단말장치에 배포될 수 있다. The 3D character may be generated by 3D scan data, but in some embodiments, a virtually generated 3D illustration character may be further used. These 3D illustration characters can be distributed to each terminal device in the form of paid items.

또한, 사용자가 3D 제작 툴이 설치된 컴퓨터를 이용하여 3D일러스트 캐릭터를 제작할 수 있고, 컴퓨터와 단말장치 간의 케이블 통신 또는 근거리 무선통신을 통해 단말장치에 저장 및 사용될 수도 있다.In addition, the user can create a 3D illustration character using a computer on which the 3D production tool is installed, and may be stored and used in the terminal device through cable communication or short-range wireless communication between the computer and the terminal device.

3D일러스트 캐릭터는 신체의 전체가 하나로 배포될 수 있고, 머리, 몸, 다리 등으로 구분되어 배포될 수도 있다. 일러스트 캐릭터가 구분되어 배포될 경우, 사용자의 선택에 따라 조합적으로 하나의 3D 일러스트 캐릭터가 완성될 수도 있다.The entire 3D illustration character can be distributed as one, or it can be distributed as a head, body, or leg. When the illustration characters are divided and distributed, one 3D illustration character may be completed in combination according to the user's selection.

단말장치는 사용자조작에 따라 필터레이어를 더 배치할 수 있고, 단말장치는 필터레이어를 구성하는 필터의 특성에 따라 동영상의 이미지에 필터효과를 적용시킬 수 있다.The terminal device may further arrange a filter layer according to a user's operation, and the terminal device may apply a filter effect to an image of a video according to characteristics of a filter constituting the filter layer.

단말장치는 사용자조작에 따라 텍스트레이어를 더 배치할 수 있고, 단말장치는 텍스트레이어를 구성하는 텍스트들을 동영상에 더 결합시킬 수 있다.The terminal device may further arrange a text layer according to user manipulation, and the terminal device may further combine texts constituting the text layer into a video.

본 실시예는 3D 스캔을 통해 제작된 자신의 3D스캔데이터를 누구나가 보유하고 있는 스마트 폰과 PC(personal computer) 디바이스를 이용하여 간단한 방법으로 자신이 주체가 되는 동영상을 제작할 수 있는 시스템을 제공하는 것으로 가상 공간 속에서 자신의 모습을 한 캐릭터를 사용해 실제 자신이 행동한 듯한 다양한 동작으로 조합하고 여러 효과들을 추가하여 재미있고 멋있는 자신만의 동영상을 제작할 수 있게 도와준다.The present embodiment provides a system capable of producing a video that is a subject in a simple manner by using a smart phone and a personal computer (PC) device that everyone has own 3D scan data produced through 3D scanning. As a result, it helps you to create your own fun and cool video by using various characters as if you were actually acting in a virtual space, and adding various effects.

동영상 컨텐츠가 온라인 상에서 하나의 소통 수단이 되어가고 있을 만큼 다량의 컨텐츠들이 제작되어 공유되고 있다. 또한, 개인방송 채널을 통해 정기적으로 자신이 직접 출연하는 동영상을 제작 및 공유하여 채널의 구독자 수 확보를 통해 광고 수익 등의 간접 매출을 발생시키는 사업자들도 생겨나고 있다. 하지만, 동영상 제작에는 많은 시간과 기술들이 필요한 관계로 창작의 욕구를 가진 사용자들이 있더라도 쉽게 접근하지 못하는 상황이며 많은 동영상들이 제작되는 만큼 소재의 고갈을 해소하지 못 하고 있다. A large amount of content is being produced and shared so that video content is becoming a means of communication online. In addition, there are companies that generate indirect sales, such as advertising revenue, by regularly creating and sharing videos that appear on their own through personal broadcasting channels to secure the number of subscribers on the channel. However, as video production requires a lot of time and technology, even if there are users who have a desire to create, it is not easily accessible, and as many videos are produced, it cannot solve the exhaustion of the material.

본 실시예는 이를 해결하는 방법으로 자신의 모습을 한 고유 캐릭터라는 소재의 제공과 더불어 기획한 동영상을 쉽고 간단한 조작으로 제작하여 공유할 수 있는 새로운 커뮤니티 컨텐츠의 제작 도구가 될 것이다. This embodiment will be a tool for creating new community contents that can be produced and shared through a simple and easy manipulation of a planned video along with the provision of a material called a unique character that has made its appearance in a way to solve this.

또한, 3D스캐너를 보유한 사업자들의 비즈니스 모델이 고가의 카메라를 사용해 추출한 3D 모델링 데이터를 3D 프린터로 제작한 피규어 판매에 그치고 있는 사업 형태에 새로운 추가 비지니스 모델을 제시하는 해결책이 될 수 있을 것이다.In addition, the business model of operators with 3D scanners could be a solution to present a new additional business model to a business type that is only selling figures produced by 3D printers using 3D printers to extract 3D modeling data extracted using expensive cameras.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.The terms "comprise", "compose" or "have" as described above mean that the component can be inherent, unless otherwise stated, and do not exclude other components. It should be interpreted that it may further include other components. All terms, including technical or scientific terms, have the same meaning as generally understood by a person skilled in the art to which the present invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted as being consistent with the meaning in the context of the related art, and are not to be interpreted as ideal or excessively formal meanings unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the claims below, and all technical spirits within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

Claims (14)

복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 생성되는 스캔데이터로서, 상기 복수의 관절에 대한 본(bone)데이터를 포함하고 있는 3D스캔데이터를 로딩하는 단계;
상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 제1레이어에서 상기 캐릭터의 각 동작을 클립(clip)의 단위로 배치하는 단계;
인접한 클립들의 영상이 연속적으로 연결되도록 상기 복수의 동작에 대해 동작 블렌딩(blending)을 적용하는 단계;
제2레이어에 상기 가상의 공간에 대한 배경영상을 배치하는 단계;
상기 가상의 공간을 촬영하는 가상의 카메라를 설정하고, 상기 캐릭터 및 상기 배경영상에 상기 카메라의 시점(view point)을 적용하는 단계; 및
상기 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 단계
를 포함하는 동영상제작방법.
Loading 3D scan data including bone data for the plurality of joints as scan data generated by 3D (dimension) scanning a character having a plurality of joints;
Assigning a plurality of movements to the character in a virtual space using the present data, and arranging each movement of the character in units of clips in a first layer;
Applying motion blending to the plurality of motions so that images of adjacent clips are continuously connected;
Disposing a background image of the virtual space on a second layer;
Setting a virtual camera for photographing the virtual space, and applying a view point of the camera to the character and the background image; And
Generating a temporal change of the virtual space as a video according to the viewpoint of the camera
Video production method comprising a.
제1항에 있어서,
상기 제1레이어에 상기 캐릭터의 각 동작을 배치하는 단계에서,
각 클립마다 상기 캐릭터에 대한 하나의 동작이 완료되도록 상기 클립을 설정하되, 상기 클립의 길이에 따라 상기 동작의 속도를 조절하여 슬로우 모션 혹은 패스트 모션을 구현하는 동영상제작방법.
According to claim 1,
In the step of placing each movement of the character in the first layer,
The clip is set so that one operation for the character is completed for each clip, but a slow or fast motion is realized by adjusting the speed of the operation according to the length of the clip.
제1항에 있어서,
제3레이어에 상기 가상의 공간에 대한 효과성 물체들의 움직임을 상기 캐릭터의 주변 영역으로 배치하는 단계를 더 포함하는 동영상제작방법.
According to claim 1,
And arranging the movement of the effective objects for the virtual space in the third layer as a peripheral area of the character.
제1항에 있어서,
상기 복수의 동작에 대해 동작 블렌딩을 적용하는 단계에서,
인접한 두 개의 클립에서 상기 캐릭터의 이전 클립의 마무리 자세와 다음 클립의 시작 자세가 일치하도록 각 클립의 동작을 제어하는 동영상제작방법.
According to claim 1,
In the step of applying the motion blending for the plurality of actions,
A method of making a video in which two adjacent clips control the motion of each clip so that the ending posture of the previous clip and the starting posture of the next clip match.
제1항에 있어서,
상기 카메라의 시점을 적용하는 단계에서,
상기 카메라가 제1시간에서 제1위치로 설정되고 제2시간에서 제2위치로 설정되는 경우, 상기 제1시간에서 상기 제2시간 동안 상기 카메라의 위치가 상기 제1위치에서 상기 제2위치로 서서히 변경되는 동영상제작방법.
According to claim 1,
In the step of applying the viewpoint of the camera,
When the camera is set from the first time to the first position and from the second time to the second position, the position of the camera from the first time to the second time is from the first position to the second position Slowly changing video production method.
제1항에 있어서,
상기 동영상을 생성하는 단계에서,
음향을 더 결합시켜 상기 동영상을 생성하는 동영상제작방법.
According to claim 1,
In the step of generating the video,
A video production method for generating the video by further combining sound.
제1항에 있어서,
상기 동영상을 생성하는 단계 이후에,
실제 카메라가 촬영중인 실시간 영상에 상기 캐릭터를 합성하는 단계;
상기 실시간 영상에서 상기 캐릭터가 상기 복수의 동작을 연속적으로 취하도록 하는 단계;
상시 실시간 영상에서 상기 캐릭터가 상기 복수의 동작을 연속적으로 취하는 증강 현실 영상에 대한 증강 현실 동영상을 생성하는 단계를 더 포함하는 동영상제작방법.
According to claim 1,
After the step of generating the video,
Synthesizing the character into a real-time image being shot by a real camera;
Causing the character to continuously take the plurality of actions in the real-time image;
And generating an augmented reality video for the augmented reality video in which the character continuously takes the plurality of motions from the real-time video.
제 7 항에 있어서,
상기 증강 현실 동영상을 생성하는 단계 이전에,
상기 실시간 영상의 배경 중에서 크로마키 색상을 가지는 배경 부분에 특정 이미지를 합성하는 단계를 더 포함하는 동영상제작방법.
The method of claim 7,
Before the step of generating the augmented reality video,
The method of video production further comprising the step of synthesizing a specific image on a background portion having a chroma key color among the background of the real-time image.
제1항에 있어서,
상기 동영상을 생성하는 단계 이후에,
상기 캐릭터 및 상기 캐릭터와는 별개인 하나 이상의 별도 캐릭터를 실제 카메라가 촬영중인 실시간 영상에 합성하는 단계;
상기 실시간 영상에서 상기 캐릭터 및 상기 하나 이상의 별도 캐릭터가 상기 복수의 동작을 연속적으로 취하도록 하는 단계;
상기 실시간 영상에서 상기 캐릭터 및 상기 하나 이상의 별도 캐릭터가 상기 복수의 동작을 연속적으로 취하는 증강 현실 영상에 대한 증강 현실 동영상을 생성하는 단계를 더 포함하는 동영상제작방법.
According to claim 1,
After the step of generating the video,
Synthesizing the character and one or more separate characters separate from the character into a real-time image captured by a real camera;
Causing the character and the one or more separate characters to continuously take the plurality of operations in the real-time image;
And generating an augmented reality video for the augmented reality video in which the character and the one or more separate characters continuously take the plurality of motions from the real-time video.
복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 스캔로우데이터를 생성하는 3D스캐너;
상기 스캔로우데이터를 처리하여 상기 복수의 관절에 대한 본(bone)데이터를 포함하는 3D스캔데이터를 생성하는 제1서버; 및
상기 서버로부터 상기 3D스캔데이터를 다운로드하고, 상기 3D스캔데이터의 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 상기 가상의 공간을 촬영하는 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 단말장치
를 포함하는 동영상제작시스템.
A 3D scanner that scans a character having a plurality of joints and generates scan row data by 3D (dimension) scanning;
A first server that processes the scan row data and generates 3D scan data including bone data for the plurality of joints; And
Downloading the 3D scan data from the server, using the original data of the 3D scan data to give a plurality of actions to the character in a virtual space, the virtual according to the viewpoint of the camera shooting the virtual space Terminal device that generates a temporal change of space in video
Video production system comprising a.
제10항에 있어서,
상기 단말장치의 화면으로 다수의 레이어가 시간축 방향으로 늘어서도록 표시되고,
상기 캐릭터의 각 동작은 제1레이어에서 클립(clip)의 단위로 배치되고, 제2레이어에 상기 가상의 공간에 대한 배경영상이 배치되며, 제3레이어에 상기 가상의 공간에 대한 효과성 물체들의 움직임이 배치되는 동영상제작시스템.
The method of claim 10,
A plurality of layers are displayed on the screen of the terminal device to line up in the time axis direction,
Each movement of the character is arranged in units of clips in the first layer, a background image for the virtual space is arranged in the second layer, and effective objects for the virtual space are arranged in the third layer. Video production system where movements are arranged.
제10항에 있어서,
상기 제3레이어에서 상기 효과성 물체들의 움직임은 바(bar)의 형태로 재생시점 및 재생구간이 설정되도록 표시되고,
상기 단말장치는 상기 바의 양단에 표시되는 조절표시기에 대한 사용자조작을 인식하여 상기 효과성 물체들의 움직임에 대한 재생구간을 설정하는 동영상제작시스템.
The method of claim 10,
The movement of the effective objects in the third layer is displayed such that a playback time point and a playback section are set in the form of a bar,
The terminal device is a video production system that recognizes the user's operation of the adjustment indicator displayed at both ends of the bar and sets a playback section for the movement of the effective objects.
제10항에 있어서,
상기 가상의 공간은 바닥면과 상기 바닥면 상의 구조물로 표시되고,
상기 단말장치는 사용자설정에 따라 상기 바닥면 혹은 상기 구조물에 대한 이미지를 변경하는 동영상제작시스템.
The method of claim 10,
The virtual space is represented by a floor surface and structures on the floor surface,
The terminal device is a video production system that changes the image of the floor or the structure according to the user setting.
복수의 관절을 가지는 캐릭터(character)를 3D(dimension)스캔하여 스캔로우데이터를 생성하는 단말장치; 및
상기 스캔로우데이터를 처리하여 상기 복수의 관절에 대한 본(bone)데이터를 포함하는 3D스캔데이터를 생성하는 제1서버
를 포함하되, 상기 단말장치는 상기 제1서버로부터 상기 3D스캔데이터를 다운로드하고, 상기 3D스캔데이터의 상기 본데이터를 이용하여 가상의 공간에서 상기 캐릭터에게 복수의 동작을 부여하고, 상기 가상의 공간을 촬영하는 카메라의 시점에 따라 상기 가상의 공간의 시간적인 변화를 동영상으로 생성하는 동영상제작시스템.
A terminal device for generating scan row data by scanning 3D (dimension) characters having a plurality of joints; And
A first server that processes the scan row data and generates 3D scan data including bone data for the plurality of joints
Including, but, the terminal device downloads the 3D scan data from the first server, and using the original data of the 3D scan data to give a plurality of operations to the character in a virtual space, the virtual space A video production system that generates a temporal change of the virtual space as a video according to the viewpoint of the camera shooting the video.
KR1020200009117A 2019-01-25 2020-01-23 Augmented reality video production system and method using 3d scan data Active KR102337020B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190009901 2019-01-25
KR20190009901 2019-01-25

Publications (2)

Publication Number Publication Date
KR20200092893A true KR20200092893A (en) 2020-08-04
KR102337020B1 KR102337020B1 (en) 2021-12-08

Family

ID=72048976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200009117A Active KR102337020B1 (en) 2019-01-25 2020-01-23 Augmented reality video production system and method using 3d scan data

Country Status (1)

Country Link
KR (1) KR102337020B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102638847B1 (en) * 2023-05-12 2024-02-21 블래스트 주식회사 Vector determination method for avoiding interference between body parts of animated character and device thereof
KR102638853B1 (en) * 2023-04-12 2024-02-21 블래스트 주식회사 Method for avoiding interference between body parts of animated character and device thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250077275A (en) 2023-11-23 2025-05-30 주식회사 릭스스튜디오 A system for providing virtual environment contents using augmented reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070119018A (en) * 2005-02-23 2007-12-18 크레이그 써머스 Auto scene modeling for 3D cameras and 3D video
KR20180098507A (en) * 2015-12-08 2018-09-04 스타십벤딩머신 주식회사 Method and apparatus for generating animation
KR101909552B1 (en) * 2017-08-31 2018-10-22 아이캐스트 주식회사 3d scanner and method for 3d scaning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070119018A (en) * 2005-02-23 2007-12-18 크레이그 써머스 Auto scene modeling for 3D cameras and 3D video
KR20180098507A (en) * 2015-12-08 2018-09-04 스타십벤딩머신 주식회사 Method and apparatus for generating animation
KR101909552B1 (en) * 2017-08-31 2018-10-22 아이캐스트 주식회사 3d scanner and method for 3d scaning

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102638853B1 (en) * 2023-04-12 2024-02-21 블래스트 주식회사 Method for avoiding interference between body parts of animated character and device thereof
WO2024214858A1 (en) * 2023-04-12 2024-10-17 블래스트 주식회사 Method and device for avoiding inter-body interference in animation character
KR102638847B1 (en) * 2023-05-12 2024-02-21 블래스트 주식회사 Vector determination method for avoiding interference between body parts of animated character and device thereof
WO2024237372A1 (en) * 2023-05-12 2024-11-21 블래스트 주식회사 Method and device for determining vector for avoiding interference between body parts of animated character

Also Published As

Publication number Publication date
KR102337020B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
JP7135141B2 (en) Information processing system, information processing method, and information processing program
JP6317854B2 (en) Virtual three-dimensional space generation method, video system, control method thereof, and recording medium readable by computer device
KR102581453B1 (en) Image processing for Head mounted display devices
US20200329214A1 (en) Method and system for providing mixed reality service
CN113287118A (en) System and method for face reproduction
CN109889914A (en) Video pictures method for pushing, device, computer equipment and storage medium
US20190138796A1 (en) Information processing device, information processing system, facial image output method, and program
CN107248195A (en) A kind of main broadcaster methods, devices and systems of augmented reality
US12294780B2 (en) Selfie setup and stock videos creation
JP2011209887A (en) Method and program for creating avatar, and network service system
CN115379195B (en) Video generation method, device, electronic device and readable storage medium
KR102337020B1 (en) Augmented reality video production system and method using 3d scan data
KR102435185B1 (en) How to create 3D images based on 360° VR shooting and provide 360° VR contents service
US20180005430A1 (en) System, method and apparatus for rapid film pre-visualization
CN113646752A (en) VR live broadcast distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of VR original photograph data
JP7218979B1 (en) Information processing device, information processing method and program
CN104537716A (en) System for synthesizing three-dimensional digital human image and virtual scene
CN116943191A (en) Man-machine interaction method, device, equipment and medium based on story scene
US7002584B2 (en) Video information producing device
US20130336640A1 (en) System and method for distributing computer generated 3d visual effects over a communications network
JP2006244306A (en) Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium
KR101773891B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner
JP2022028091A (en) Image processing device, image processing method, and program
US11276241B2 (en) Augmented reality custom face filter
Parikh et al. A mixed reality workspace using telepresence system

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200123

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210120

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210902

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20211203

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20211206

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20241204

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20250613

Start annual number: 5

End annual number: 5