[go: up one dir, main page]

KR102174039B1 - Apparatus and Method for Editing Files Anywhere Using Augmented Reality - Google Patents

Apparatus and Method for Editing Files Anywhere Using Augmented Reality Download PDF

Info

Publication number
KR102174039B1
KR102174039B1 KR1020180159648A KR20180159648A KR102174039B1 KR 102174039 B1 KR102174039 B1 KR 102174039B1 KR 1020180159648 A KR1020180159648 A KR 1020180159648A KR 20180159648 A KR20180159648 A KR 20180159648A KR 102174039 B1 KR102174039 B1 KR 102174039B1
Authority
KR
South Korea
Prior art keywords
file
user
terminal
augmented reality
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180159648A
Other languages
Korean (ko)
Other versions
KR20200075115A (en
Inventor
전성국
이광훈
김회민
윤선규
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020180159648A priority Critical patent/KR102174039B1/en
Publication of KR20200075115A publication Critical patent/KR20200075115A/en
Application granted granted Critical
Publication of KR102174039B1 publication Critical patent/KR102174039B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • G06F16/168Details of user interfaces specifically adapted to file systems, e.g. browsing and visualisation, 2d or 3d GUIs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

증강현실을 이용하여 어디에서도 파일을 편집할 수 있는 장치 및 방법을 개시한다.
본 실시예의 일 측면에 의하면, 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집장치에 있어서, 편집할 파일을 외부로부터 수신하거나, 편집된 파일을 외부로 전송하는 통신부와 상기 통신부가 수신한 파일의 증강현실 이미지를 출력하는 이미지 출력부와 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하는 카메라 및 상기 카메라가 촬영한 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일의 증강현실 이미지를 생성하고, 생성된 파일의 증강현실 이미지를 출력하도록 상기 이미지 출력부를 제어하며, 상기 카메라가 촬영한 사용자의 신체 일부의 동작을 분석하여, 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 제어부를 포함하는 것을 특징으로 하는 파일 편집장치를 제공한다.
Disclosed is an apparatus and method capable of editing files anywhere using augmented reality.
According to an aspect of the present embodiment, in a file editing apparatus that enables a user to output a file and edit a file anywhere using augmented reality, the file to be edited is received from the outside or the edited file is transmitted to the outside. The communication unit and the image output unit for outputting an augmented reality image of the file received by the communication unit, a camera for photographing a part of the user's body and the surrounding environment of the file editing device, and the surrounding environment of the file editing device photographed by the camera. By mapping a file to generate an augmented reality image of the file, controlling the image output unit to output an augmented reality image of the generated file, and analyzing the motion of a part of the user's body photographed by the camera, the body part of the user It provides a file editing apparatus comprising a control unit for editing the file according to the operation of.

Description

증강현실을 이용하여 어디에서도 파일을 편집할 수 있는 장치 및 방법{Apparatus and Method for Editing Files Anywhere Using Augmented Reality}Apparatus and Method for Editing Files Anywhere Using Augmented Reality}

본 발명은 증강현실 기술을 이용하여, 사용자가 어디에서도 파일을 편집할 수 있도록 하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for allowing a user to edit a file anywhere by using augmented reality technology.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.

최근 통신 기술이 발달함에 따라, 인터넷을 이용해 다양한 서비스가 제공되고 있다. 특히, 인터넷을 이용해 대용량의 파일들이 이동되고 대량의 데이터가 송수신된다. 이에 따라, 언제 어디서든지 다양한 파일을 공유하는 기술도 발달하게 되었다.With the recent development of communication technology, various services are provided using the Internet. In particular, large files are moved and large amounts of data are transmitted and received using the Internet. Accordingly, technology for sharing various files anytime, anywhere has also developed.

이와 같이, 다양한 통신 기술 (예를 들어, 인터넷)을 기초로 단말기를 사용하는 사용자들이 가상의 저장소에 데이터 또는 파일을 저장하고 가상의 저장소를 통해 데이터 또는 파일을 주고 받고 공유도 할 수 있는 서비스를 클라우드(Cloud) 서비스라고 한다. 사용자는 클라우드 서비스를 이용해 데이터 또는 파일을 자유롭게 사용할 수 있다. 구체적으로, 사용자는 클라우드 서비스를 이용해 시간과 공간의 제약을 받지 않고 파일을 다운로드(Download) 또는 업로드(Upload) 할 수 있고, 파일을 다른 사용자들과 공유할 수도 있다.In this way, based on various communication technologies (e.g., the Internet), users who use terminals store data or files in a virtual storage, and provide a service that allows users to exchange and share data or files through the virtual storage. It is called a cloud service. Users can freely use data or files using cloud services. Specifically, a user can download or upload a file without being limited by time and space using a cloud service, and can share the file with other users.

이러한 클라우드 서비스는 데이터 또는 파일을 저장하고 공유하는 저장소인 공유 서버를 기반으로 제공된다. 구체적으로, 사용자들은 공유 서버를 이용해 파일을 저장 및 공유하고, 사용자들은 각자의 단말이나 다른 단말로 파일을 편집할 수 있다.These cloud services are provided based on a shared server, which is a storage for storing and sharing data or files. Specifically, users store and share files using a shared server, and users can edit files with their own terminals or other terminals.

이때, 문서파일과 같이, 이동이 용이한 단말로도 손쉽게 처리할 수 있는 간단한 파일 형식이며, 사용자가 평소에 주로 파일을 편집하는 주(Main) 단말이 이동이 용이한 단말인 경우, 사용자는 주 단말을 이용하여 어디에서나 파일을 편집할 수 있다.At this time, like a document file, it is a simple file format that can be easily processed even with a mobile terminal. If the main terminal, where the user usually edits files, is a mobile terminal, the user You can edit files anywhere using the terminal.

그러나 파일이, 비디오파일과 같이, 이동이 곤란한 단말에서 주로 편집되는 형식이거나, 사용자가 파일의 편집에 이용하는 주 단말이 이동이 곤란한 단말일 경우, 클라우드 서비스를 이용하여 파일이 저장되어 공유되더라도 사용자는 오로지 주 단말이 위치한 공간에서만 해당 파일을 편집할 수 있는 불편함이 있다. 예를 들어, 파일을 편집하는 주 단말이 데스트탑 PC인 경우, 아무리, 파일이 클라우드 서비스로 여러 단말과 공유될 수 있다고 하더라도, 사용자는 주 단말과 동종의 다른 단말을 이용할 수 있을 뿐, 주 단말이 설치된 다른 공간에서는 주 단말을 이용할 수 없는 문제가 있다. However, if the file is a format that is mainly edited on a terminal that is difficult to move, such as a video file, or if the main terminal used for editing a file is a terminal that is difficult to move, the user may save and share the file using a cloud service. It is inconvenient to edit the file only in the space where the main terminal is located. For example, if the main terminal for editing a file is a desktop PC, no matter how much the file can be shared with multiple terminals as a cloud service, the user can only use other terminals of the same type as the main terminal. There is a problem that the main terminal cannot be used in the other spaces installed.

대한민국 공개특허 제 2019-0132191호(발명의 명칭 : 증강현실 콘텐츠의 제작 및 편집 가능 증강현실 편집 시스템 및 증강현실 구현 시스템)Republic of Korea Patent Publication No. 2019-0132191 (title of the invention: augmented reality editing system and augmented reality implementation system capable of producing and editing augmented reality contents)

본 발명의 일 실시예는, 증강현실을 이용하여 언제 어디에서든 주 단말과 주 단말이 배치된 환경과 동일한 환경에서 파일을 편집할 수 있도록 한 파일 편집장치 및 방법을 제공하는 데 일 목적이 있다.An object of the present invention is to provide a file editing apparatus and method capable of editing a file in the same environment as the environment in which the main terminal and the main terminal are arranged anytime, anywhere using augmented reality.

본 발명의 일 측면에 의하면, 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집장치에 있어서, 편집할 파일을 외부로부터 수신하거나, 편집된 파일을 외부로 전송하는 통신부와 상기 통신부가 수신한 파일의 증강현실 이미지를 출력하는 이미지 출력부와 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하는 카메라 및 상기 카메라가 촬영한 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일의 증강현실 이미지를 생성하고, 생성된 파일의 증강현실 이미지를 출력하도록 상기 이미지 출력부를 제어하며, 상기 카메라가 촬영한 사용자의 신체 일부의 동작을 분석하여, 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 제어부를 포함하는 것을 특징으로 하는 파일 편집장치를 제공한다.According to an aspect of the present invention, in a file editing apparatus that enables a user to output a file and edit a file anywhere using augmented reality, the file to be edited is received from the outside or the edited file is transmitted to the outside. The communication unit and the image output unit for outputting an augmented reality image of the file received by the communication unit, a camera for photographing a part of the user's body and the surrounding environment of the file editing device, and the surrounding environment of the file editing device photographed by the camera. By mapping a file to generate an augmented reality image of the file, controlling the image output unit to output an augmented reality image of the generated file, and analyzing the motion of a part of the user's body photographed by the camera, the body part of the user It provides a file editing apparatus comprising a control unit for editing the file according to the operation of.

본 발명의 일 측면에 의하면, 상기 파일 편집장치는 스마트 글라스인 것을 특징으로 한다.According to an aspect of the present invention, the file editing device is characterized in that the smart glass.

본 발명의 일 측면에 의하면, 상기 통신부는 클라우드 서버로부터 상기 편집할 파일을 수신하거나, 상기 클라우드 서버로 상기 편집된 파일을 전송하는 것을 특징으로 한다.According to an aspect of the present invention, the communication unit may receive the file to be edited from a cloud server or transmit the edited file to the cloud server.

본 발명의 일 측면에 의하면, 상기 카메라는 사용자의 신체 중 손을 촬영하는 것을 특징으로 한다.According to an aspect of the present invention, the camera is characterized in that it photographs a hand of the user's body.

본 발명의 일 측면에 의하면, 상기 제어부는 사용자의 손 동작을 분석하여, 상기 사용자의 손 동작에 따라 상기 파일을 편집하는 것을 특징으로 한다.According to an aspect of the present invention, the control unit may analyze a user's hand motion and edit the file according to the user's hand motion.

본 발명의 일 측면에 의하면, 파일 편집장치가 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 방법에 있어서, 편집할 파일을 외부로부터 수신하는 수신과정과 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하는 촬영과정과 상기 촬영과정에서 촬영된 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하는 생성과정과 상기 파일의 증강현실 이미지를 출력하는 출력과정과 사용자의 신체 일부의 동작을 분석하여, 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 편집과정 및 편집된 파일을 외부로 전송하는 전송과정을 포함하는 것을 특징으로 하는 파일 편집방법을 제공한다.According to an aspect of the present invention, in a method of allowing a user to output a file and edit a file from anywhere using augmented reality by a file editing device, the receiving process of receiving a file to be edited from the outside and the user's body A photographing process of photographing a part and the surrounding environment of the file editing device, and a generation process of generating an augmented reality image for the file by mapping the file to the surrounding environment of the file editing device photographed in the photographing process and augmentation of the file An editing process of outputting a real image and an editing process of editing the file according to the motion of the user's body part by analyzing a motion of a user's body part and a transmission process of transmitting the edited file to the outside. Provides a method of editing files.

본 발명의 일 측면에 의하면, 상기 파일 편집장치는 스마트 글라스인 것을 특징으로 한다.According to an aspect of the present invention, the file editing device is characterized in that the smart glass.

본 발명의 일 측면에 의하면, 상기 수신과정 및 전송과정은 각각 클라우드 서버로부터 상기 편집할 파일을 수신하거나, 상기 클라우드 서버로 상기 편집된 파일을 전송하는 것을 특징으로 한다.According to an aspect of the present invention, the receiving process and the transmitting process are characterized by receiving the file to be edited from a cloud server or transmitting the edited file to the cloud server, respectively.

본 발명의 일 측면에 의하면, 상기 촬영과정은 사용자의 신체 중 손을 촬영하는 것을 특징으로 한다.According to an aspect of the present invention, the photographing process is characterized by photographing a hand of the user's body.

본 발명의 일 측면에 의하면, 상기 편집과정은 상기 촬영과정에서 촬영된 사용자의 손 동작을 분석하여, 사용자의 손 동작에 따라 상기 파일을 편집하는 것을 특징으로 한다.According to an aspect of the present invention, in the editing process, the user's hand motion photographed during the photographing process is analyzed and the file is edited according to the user's hand motion.

본 발명의 일 측면에 의하면, 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집 시스템에 있어서, 실 공간에서 파일을 편집하고 업로드하는 단말과 상기 단말로부터 업로드되는 파일을 수신하여 저장하는 클라우드 서버 및 상기 클라우드 서버에 저장된 파일을 다운로드 받고, 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하여 촬영된 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하고, 생성한 증강현실 이미지를 출력하고, 사용자의 신체 일부의 동작을 분석하여 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하며, 편집된 파일을 상기 클라우드 서버로 업로드하는 파일 편집장치를 포함하는 것을 특징으로 하는 파일 편집 시스템을 제공한다.According to an aspect of the present invention, in a file editing system that enables a user to output a file and edit a file from anywhere using augmented reality, a terminal for editing and uploading a file in a real space and uploading from the terminal A cloud server that receives and stores a file and a file stored in the cloud server is downloaded, and the file is mapped to the surrounding environment of the file editing device by photographing a part of the user's body and the surrounding environment of the file editing device. Generates an augmented reality image for, outputs the generated augmented reality image, analyzes the motion of the user's body part, edits the file according to the motion of the user's body part, and sends the edited file to the cloud server. It provides a file editing system comprising a file editing device for uploading.

본 발명의 일 측면에 의하면, 상기 클라우드 서버는 상기 클라우드 서버로 업로드된, 편집된 파일을 이용하여 기 저장된 파일을 업데이트하는 것을 특징으로 한다.According to an aspect of the present invention, the cloud server is characterized in that it updates a pre-stored file using the edited file uploaded to the cloud server.

본 발명의 일 측면에 의하면, 단말, 클라우드 서버 및 파일 편집장치를 포함하는 파일 편집 시스템이 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집방법에 있어서, 단말이 실 공간에서 파일을 편집하고 업로드하는 제1 업로드과정과 상기 클라우드 서버가 상기 단말로부터 업로드되는 파일을 수신하여 저장하는 저장과정과 상기 파일 편집장치가 상기 클라우드 서버로부터 편집할 파일을 다운로드하는 다운로드과정과 상기 파일 편집장치가 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하는 촬영과정과 상기 파일 편집장치가 상기 촬영과정에서 촬영된 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하는 생성과정과 상기 파일 편집장치가 상기 파일의 증강현실 이미지를 출력하는 출력과정과 상기 파일 편집장치가 사용자의 신체 일부의 동작을 분석하여, 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 편집과정 및 상기 파일 편집장치가 상기 클라우드 서버로 편집된 파일을 업로드하는 제2 업로드과정을 포함하는 것을 특징으로 하는 파일 편집방법을 제공한다.According to an aspect of the present invention, in a file editing method in which a file editing system including a terminal, a cloud server, and a file editing device uses augmented reality to allow a user to output a file and edit a file anywhere, the terminal A first upload process in which a file is edited and uploaded in this real space, a storage process in which the cloud server receives and stores a file uploaded from the terminal, and a download process in which the file editing device downloads a file to be edited from the cloud server And a photographing process in which the file editing device photographs a part of the user's body and the surrounding environment of the file editing device, and the file editing device maps the file to the surrounding environment of the file editing device photographed in the photographing process. The generation process of generating an augmented reality image for the file, the output process of the file editing device outputting the augmented reality image of the file, and the file editing device analyzes the motion of the user's body part, Accordingly, it provides a file editing method comprising an editing process of editing the file and a second uploading process of uploading the edited file to the cloud server by the file editing device.

본 발명의 일 측면에 의하면, 상기 클라우드 서버는 상기 클라우드 서버로 업로드된, 편집된 파일을 이용하여 상기 저장과정에서 저장된 파일을 업데이트하는것을 특징으로 한다.According to an aspect of the present invention, the cloud server is characterized in that it updates the file stored in the storage process by using the edited file uploaded to the cloud server.

이상에서 설명한 바와 같이, 본 발명의 일 측면에 따르면, 증강현실을 이용하여 언제 어디에서든 주 단말과 주 단말이 배치된 환경과 동일한 환경에서 파일을 편집할 수 있도록 함으로써, 사용자가 익숙한 환경에서 파일을 편집할 수 있도록 한 장점이 있다.As described above, according to one aspect of the present invention, by using augmented reality to edit a file in the same environment as the environment in which the main terminal and the main terminal are located, anytime, anywhere, the file can be saved in a familiar environment. There is one advantage to being able to edit it.

도 1은 본 발명의 일 실시예에 따른 파일 편집 시스템의 구성을 도면이다.
도 2는 본 발명의 일 실시예에 따른 파일 편집장치의 구성을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 파일 편집장치의 주변환경을 공간별로 분할한 모습을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 주변환경과 단말의 배치환경과의 정합도를 판단하는 모습을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 파일 편집장치의 주변환경과 증강현실 이미지가 출력된 환경을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 파일 편집 시스템이 파일을 편집하는 방법을 도시한 타이밍 차트이다.
도 7은 일 실시예에 따른 파일 편집 장치가 파일을 편집하는 방법을 도시한 순서도이다.
1 is a diagram illustrating a configuration of a file editing system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of a file editing apparatus according to an embodiment of the present invention.
3 is a diagram showing a state of dividing the surrounding environment of the file editing apparatus according to an embodiment of the present invention by space.
4 is a diagram illustrating a state of determining a degree of matching between a surrounding environment and an arrangement environment of a terminal according to an embodiment of the present invention.
5 is a diagram illustrating an environment in which an augmented reality image is output and a surrounding environment of a file editing apparatus according to an embodiment of the present invention.
6 is a timing chart illustrating a method of editing a file by a file editing system according to an embodiment of the present invention.
7 is a flowchart illustrating a method of editing a file by a file editing apparatus according to an exemplary embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.In the present invention, various changes may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에서, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "include" or "have" should be understood as not precluding the possibility of existence or addition of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms, including technical or scientific terms, used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process, or method included in each embodiment of the present invention may be shared within a range not technically contradicting each other.

도 1은 본 발명의 일 실시예에 따른 파일 편집 시스템의 구성을 도면이다.1 is a diagram illustrating a configuration of a file editing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 파일 편집 시스템(100)은 주(Main) 단말(110), 클라우드 서버(120) 및 파일 편집장치(130)를 포함한다.Referring to FIG. 1, a file editing system 100 according to an embodiment of the present invention includes a main terminal 110, a cloud server 120, and a file editing device 130.

주 단말(110)은 사용자가 파일을 편집할 수 있도록 하는 기기로서, 사용자가 파일을 편집하는데 최적의 장소에 배치되어 있다.The main terminal 110 is a device that allows a user to edit a file, and is disposed in an optimal place for a user to edit a file.

주 단말(110)은 사용자가 파일을 편집할 수 있도록 한다. 파일이란 문서 파일, 비디오 파일, 오디오 파일 또는 소프트웨어 등 사용자가 주 단말을 이용해 실행하고 편집할 수 있는 내용을 포함하는 정보를 총칭하는 개념이다. 주 단말(110)은 파일을 실행하여 사용자에게 파일 내 담긴 정보를 제공하며, 사용자의 입력을 받아 파일 내 정보를 수정한다. 주 단말(110)은 데스크탑 PC, 비디오 게임기와 같은 소프트웨어 플레이어 또는 음악 편집장치 등 주로 한 장소에 배치되어 이동이 곤란하며, 파일의 편집에 있어 상당한 성능을 보유하고 있는 기기로 구현될 수 있다. 주 단말(110)은 사용자가 편집하려고 하는 파일이거나, 편집한 파일을 클라우드 서버(120)로 업로드한다.The main terminal 110 allows a user to edit a file. A file is a generic term for information including content that a user can execute and edit using a main terminal, such as a document file, video file, audio file, or software. The main terminal 110 executes the file, provides information contained in the file to the user, and modifies the information in the file by receiving the user's input. The main terminal 110 is mainly arranged in one place, such as a desktop PC, a software player such as a video game machine, or a music editing device, so that it is difficult to move, and may be implemented as a device having considerable performance in editing files. The main terminal 110 uploads the file to be edited by the user or the edited file to the cloud server 120.

주 단말(110)은 사용자가 파일을 편집하는데 최적의 장소에 배치되어 있다. 전술한 대로, 주 단말(110)은 파일의 편집에 있어 상당한 성능을 보유하고 있는 기기로서, 이동이 용이치 않으며 주로 한 장소에 배치되어 사용된다. 이에 따라, 주 단말(110)은 사용자가 파일을 편집하는데 있어 익숙한 장소이거나 최적의 장소에 배치되어 사용된다. The main terminal 110 is arranged in an optimal place for a user to edit a file. As described above, the main terminal 110 is a device having a considerable performance in editing a file, it is not easy to move and is mainly used by being placed in one place. Accordingly, the main terminal 110 is used by being placed in a familiar or optimal place for a user to edit a file.

클라우드 서버(120)는 주 단말(110) 및 파일 편집장치(130) 중 일부 또는 전부로부터 업로드된 파일을 저장하며, 주 단말(110) 및 파일 편집장치(130) 중 일부 또는 전부에게 저장된 파일을 전송한다.The cloud server 120 stores files uploaded from some or all of the main terminal 110 and the file editing device 130, and stores files stored in some or all of the main terminal 110 and the file editing device 130. send.

클라우드 서버(120)는 주 단말(110)로부터 파일을, 파일 편집장치(130) 또는 별도의 장치로부터 주 단말(110)의 배치환경에 대한 3차원 형상정보(이하에서 '3차원 형상정보'로 약칭함)를 수신한다. 주 단말(110)은 사용자가 편집하고자 하거나 편집 중이거나 편집을 완료한 파일을 클라우드 서버(120)로 업로드하며, 클라우드 서버(120)는 주 단말(110)로부터 수신하여 저장한다. 또한, 파일 편집장치(130)나 카메라를 이용해 주변 환경을 촬영하고 이를 3차원 형상정보로 변환할 수 있는 별도의 기기는 3차원 형상정보를 생성하여 클라우드 서버(120)로 업로드하고, 클라우드 서버(120)는 파일 편집장치(130) 또는 별도의 장치로부터 수신한 3차원 형상정보를 저장한다. The cloud server 120 transfers a file from the main terminal 110, a file editing device 130 or a separate device to 3D shape information about the arrangement environment of the main terminal 110 (hereinafter as '3D shape information'). Abbreviated). The main terminal 110 uploads a file that the user intends to edit, is editing, or has completed editing to the cloud server 120, and the cloud server 120 receives and stores the file from the main terminal 110. In addition, a separate device capable of photographing the surrounding environment using the file editing device 130 or a camera and converting it to 3D shape information generates 3D shape information and uploads it to the cloud server 120, and 120) stores the 3D shape information received from the file editing device 130 or a separate device.

클라우드 서버(120)는 파일 및 3차원 형상정보를 파일 편집장치(130)로 전송하고, 파일 편집장치(130)로부터 편집된 파일을 수신한다. 파일 편집장치(130)의 요청에 따라, 클라우드 서버(120)는 클라우드 서버(120) 내 저장된 파일 및 3차원 형상정보를 파일 편집장치(130)로 전송한다. 이때, 클라우드 서버(120)는 식별자를 이용해 파일 편집장치(130)의 사용자가 주 단말(110)의 사용자와 동일인이거나 관계인인지 확인하며, 동일인일 경우에만 클라우드 서버(120) 내 저장된 파일 및 3차원 형상정보를 파일 편집장치(130)로 전송할 수 있다. 클라우드 서버(120)는 파일 편집장치(130)에 의해 편집된 파일을 파일 편집장치(130)로부터 수신하여 저장하며, 주 단말(110)의 요청이 있는 경우, 주 단말(110)로 편집된 파일을 전송한다.The cloud server 120 transmits the file and 3D shape information to the file editing device 130 and receives the edited file from the file editing device 130. In response to the request of the file editing device 130, the cloud server 120 transmits the file and 3D shape information stored in the cloud server 120 to the file editing device 130. At this time, the cloud server 120 uses the identifier to check whether the user of the file editing device 130 is the same person or a related person as the user of the main terminal 110, and only if the user is the same person, the files stored in the cloud server 120 and 3D The shape information may be transmitted to the file editing device 130. The cloud server 120 receives and stores the file edited by the file editing device 130 from the file editing device 130, and when there is a request from the main terminal 110, the file edited by the main terminal 110 To transmit.

파일 편집장치(130)는 3차원 형상정보를 생성하여 클라우드 서버(120)로 업로드하며, 클라우드 서버(120)로부터 수신한 파일 및 3차원 형상정보를 증강현실 기술을 이용하여 구현함으로써, 사용자가 시간과 장소의 구애받지 않고 주 단말의 배치환경과 유사한 환경에서 파일을 편집할 수 있도록 한다. 파일 편집장치(130)는 증강현실 기술로 구현한 파일에 대해 사용자의 동작을 인식하여 사용자의 동작에 적절히 파일의 내용을 수정함으로써, 파일을 편집한다.The file editing device 130 generates 3D shape information and uploads it to the cloud server 120, and implements the file and 3D shape information received from the cloud server 120 using augmented reality technology, so that the user can Regardless of location and location, files can be edited in an environment similar to that of the main terminal. The file editing apparatus 130 edits the file by recognizing the user's motion with respect to the file implemented by the augmented reality technology and correcting the contents of the file appropriately to the user's motion.

파일 편집장치(130)는 3차원 형상정보를 생성하여 클라우드 서버(120)로 업로드한다. 파일 편집장치(130)는 주 단말(110)의 구성과 형상, 주 단말(110)이 배치된 배치환경을 촬영하여 이를 3차원 형상정보로 생성하며, 이를 클라우드 서버(120)로 업로드한다. 파일 편집장치(130)는 3차원 형상정보를 생성하여 저장해둘 수도 있으나, 클라우드 서버(120)로 업로드함으로써 어떠한 종류의 파일 편집장치라도 3차원 형상정보를 다운로드할 수 있도록 한다. 파일 편집장치(130)는 3차원 형상정보를 생성한 파일 편집장치(130) 뿐만 아니라, 파일 편집장치(103)와 동종 또는 이종의 다른 파일 편집장치에서도 클라우드 서버(120)로 접속하여 3차원 형상정보에 접근할 수 있도록 한다. 이에 따라, 클라우드 서버(120)에 업로드한 파일과 3차원 형상정보를 이용하여 반드시 사용자가 보유하고 있는 파일 편집장치(130) 뿐만 아니라 파일 편집장치(130)의 동종 또는 이종의 다른 장치에서도 이용할 수 있기 때문에, 사용자는 파일 편집장치(130)에 대한 구속에서 벗어날 수 있다. 예를 들어, 사용자가 파일 편집장치(130)를 일정한 장소에 두고 다른 장소로 이탈한 상황에서, 다른 장소에 파일 편집기능이 있는 다른 장치가 존재하는 경우, 사용자는 해당 장치를 이용하여 파일을 편집할 수 있다.The file editing device 130 generates 3D shape information and uploads it to the cloud server 120. The file editing device 130 photographs the configuration and shape of the main terminal 110 and the arrangement environment in which the main terminal 110 is arranged, generates it as 3D shape information, and uploads it to the cloud server 120. The file editing device 130 may generate and store 3D shape information, but by uploading it to the cloud server 120, any kind of file editing device can download the 3D shape information. The file editing device 130 is connected to the cloud server 120 not only in the file editing device 130 that generated the 3D shape information, but also in other file editing devices of the same or different types as the file editing device 103 to provide a 3D shape. Make information accessible. Accordingly, the file uploaded to the cloud server 120 and the 3D shape information can be used not only in the file editing device 130 possessed by the user, but also in other devices of the same or different types of the file editing device 130. Because of this, the user can escape from the constraints on the file editing device 130. For example, in a situation where the user leaves the file editing device 130 in a certain place and leaves to another place, and there is another device with a file editing function in another place, the user edits the file using the device. can do.

파일 편집장치(130)는 사용자가 주 단말(110)을 이용해 클라우드 서버(120)에 저장한 파일과 3차원 형상정보를 클라우드 서버(120)로부터 다운로드한다. 파일 편집장치(130)는 클라우드 서버(120)에 접속하여 주 단말(110)을 이용해 클라우드 서버(120)에 저장한 파일과 3차원 형상정보를 업로드한 사용자와 동일한 사용자임을 인증할 수 있으며, 인증 후, 클라우드 서버(120)에 저장한 파일과 3차원 형상정보를 다운로드한다. The file editing device 130 downloads the file and 3D shape information stored in the cloud server 120 by the user using the main terminal 110 from the cloud server 120. The file editing device 130 can access the cloud server 120 and authenticate that the user who has uploaded the file stored in the cloud server 120 and the 3D shape information using the main terminal 110 is the same user, and authenticates After that, the file stored in the cloud server 120 and 3D shape information are downloaded.

파일 편집장치(130)는 증강현실 기술을 이용하여 파일과 3차원 형상정보를 증강현실 이미지로 변환한다. 파일 편집장치(130)는 증강현실 이미지를 생성하고 구현할 수 있는 증강현실 장치로서, 예를 들어, 스마트 글래스 등으로 구현될 수 있다. 파일 편집장치(130)는 파일 편집장치(130)의 주변 환경을 인식하고, 주변환경 중 3차원 형상정보와 유사한 주변환경을 탐색한다. 파일 편집장치(130)는 탐색한 주변환경을 이용하여 파일 및 3차원 형상정보를 증강현실 이미지로 구현한다. 파일 편집장치(130)는 파일 및 3차원 형상정보에 대한 증강현실 이미지를 3차원 형상정보와 유사한 주변환경에서 구현하여 출력함에 따라, 사용자는 실제 주 단말(110)이 배치된 배치환경과 유사한 환경에 배치된 주 단말(110)에 파일이 출력되어 있는 듯한 증강현실 이미지를 확인할 수 있다.The file editing device 130 converts the file and 3D shape information into an augmented reality image using augmented reality technology. The file editing device 130 is an augmented reality device capable of generating and implementing an augmented reality image, and may be implemented with, for example, smart glasses. The file editing device 130 recognizes the surrounding environment of the file editing device 130 and searches for a surrounding environment similar to 3D shape information among surrounding environments. The file editing device 130 implements the file and 3D shape information as an augmented reality image using the searched surrounding environment. As the file editing device 130 implements and outputs augmented reality images for files and 3D shape information in an environment similar to 3D shape information, the user is in an environment similar to the arrangement environment in which the actual main terminal 110 is placed. You can check the augmented reality image as if the file is output to the main terminal 110 arranged in.

파일 편집장치(130)는 사용자의 동작으로부터 입력 정보를 파악하여 입력 정보에 따라 파일을 편집한다. 파일 편집장치(130)는 사용자의 신체 일부를 촬영하여 사용자의 동작을 확인할 수 있고, 사용자의 동작을 분석하여 사용자가 어떠한 입력을 원하고 있는지를 파악할 수 있다. 예를 들어, 파일이 문서인 경우, 파일 편집장치(130)는 사용자, 특히, 사용자의 손가락의 동작을 확인함으로써, 사용자가 문서에 대해 편집하고자 하는 입력 정보를 확인할 수 있다. 파일 편집장치(130)는 사용자의 입력 정보를 확인하여, 입력 정보에 따라 파일을 편집한다. 파일 편집장치(130)는 편집한 파일을 클라우드 서버(120)로 업로드함으로써, 주 단말(110) 등 다른 장치에서도 해당 파일을 이어서 편집하거나 확인할 수 있도록 한다. 파일 편집장치(130)에 대한 상세한 설명은 도 2를 참조하여 설명하기로 한다.The file editing apparatus 130 recognizes input information from a user's motion and edits the file according to the input information. The file editing device 130 may check the user's motion by photographing a part of the user's body, and analyze the user's motion to determine which input the user desires. For example, when the file is a document, the file editing apparatus 130 may check input information that the user wants to edit for the document by checking the operation of the user, in particular, the user's finger. The file editing apparatus 130 checks the user's input information and edits the file according to the input information. The file editing device 130 uploads the edited file to the cloud server 120 so that other devices such as the main terminal 110 can subsequently edit or check the file. A detailed description of the file editing apparatus 130 will be described with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 파일 편집장치의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of a file editing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 파일 편집장치(130)는 통신부(210), 3D 모델링부(220), 카메라(230), 제어부(240) 및 이미지 출력부(250)를 포함한다.2, the file editing apparatus 130 according to an embodiment of the present invention includes a communication unit 210, a 3D modeling unit 220, a camera 230, a control unit 240, and an image output unit 250. Include.

통신부(210)는 클라우드 서버(120)로 3차원 형상정보 또는 편집된 파일을 업로드하거나, 클라우드 서버(120)로부터 파일 및 3차원 형상정보를 다운로드한다.The communication unit 210 uploads the 3D shape information or the edited file to the cloud server 120, or downloads the file and the 3D shape information from the cloud server 120.

3D 모델링부(220)는 카메라(230)가 촬영한 주 단말(110) 및 주 단말(110)의 배치환경을 3차원 형상정보로 모델링한다. 주 단말(110) 및 주 단말(110)의 배치환경이 파일 편집장치(130) 또는 다른 파일 편집장치에서 증강현실 이미지로 출력될 수 있도록, 3D 모델링부(220)는 주 단말(110) 및 주 단말(110)의 배치환경을 3차원 형상정보로 모델링한다. 3D 모델링부(220)는 일 예로, 다음과 같은 방법으로 3차원 형상정보를 생성할 수 있다. 먼저, 3D 모델링부(220)는 카메라(230)가 촬영한 영상 내 이미지에서 특징점들을 추출한다. 3D 모델링부(220)는 이웃한 이미지(이전 이미지와 현재 이미지)간 특징점을 매칭한다. 3D 모델링부(220)는 매칭된 특징점 간 이미지 내 2차원 좌표 관계를 활용하여 카메라의 3차원 포즈를 추정한다. 3D 모델링부(220)는 추정된 카메라의 3차원 포즈를 기반으로 2차원 특징점을 3차원 공간에 역 투영(Back Projection)함으로써 3차원 형상정보를 모델링한다. 3D 모델링부(220)는 역 투영을 함으로써, 2차원 특징점들에 색상 분포를 반영하여 사실적인 3차원 형상정보를 모델링한다. 3D 모델링부(220)는 전술한 방법을 포함한 다양한 방법을 이용하여 카메라(230)가 촬영한 주 단말(110) 및 주 단말(110)의 배치환경을 3차원 형상정보로 모델링한다. The 3D modeling unit 220 models the arrangement environment of the main terminal 110 and the main terminal 110 photographed by the camera 230 as 3D shape information. The 3D modeling unit 220 includes the main terminal 110 and the main terminal 110 so that the arrangement environment of the main terminal 110 and the main terminal 110 can be output as an augmented reality image in the file editing device 130 or other file editing device. The arrangement environment of the terminal 110 is modeled as 3D shape information. For example, the 3D modeling unit 220 may generate 3D shape information in the following manner. First, the 3D modeling unit 220 extracts feature points from an image captured by the camera 230. The 3D modeling unit 220 matches feature points between neighboring images (previous image and current image). The 3D modeling unit 220 estimates the three-dimensional pose of the camera by using the two-dimensional coordinate relationship in the image between the matched feature points. The 3D modeling unit 220 models 3D shape information by back-projecting a 2D feature point into a 3D space based on the estimated 3D pose of the camera. The 3D modeling unit 220 models realistic 3D shape information by reflecting the color distribution to 2D feature points by performing reverse projection. The 3D modeling unit 220 models the arrangement environment of the main terminal 110 and the main terminal 110 photographed by the camera 230 using various methods including the above-described method as 3D shape information.

3D 모델링부(220)는 파일 및 3차원 형상정보로 증강현실 이미지를 생성함에 있어, 파일이 3차원 형상정보 내 포함된 주 단말(110)의 형상정보에 함께 포함되도록 할 수 있다. 예를 들어, 파일이 문서이고 주 단말(110)이 데스크탑 PC인 경우, 3D 모델링부(220)는 주 단말(110)의 모니터에 문서가 출력되어 있는 것처럼 증강현실 이미지를 생성한다. 이에 따라, 3D 모델링부(220)는 사용자에게 보다 현실감 있는 증강현실 이미지를 제공할 수 있다.When the 3D modeling unit 220 generates an augmented reality image from a file and 3D shape information, the file may be included in the shape information of the main terminal 110 included in the 3D shape information. For example, when the file is a document and the main terminal 110 is a desktop PC, the 3D modeling unit 220 generates an augmented reality image as if the document is output on the monitor of the main terminal 110. Accordingly, the 3D modeling unit 220 may provide a more realistic augmented reality image to the user.

카메라(230)는 주 단말(110) 및 주 단말(110)의 배치환경을 촬영하거나, 증강현실 이미지가 출력될 가능성이 있는 파일 편집장치(130)의 주변환경 및 사용자의 신체 일부를 촬영한다.The camera 230 photographs the arrangement environment of the main terminal 110 and the main terminal 110, or the surrounding environment of the file editing apparatus 130 in which an augmented reality image may be output and a part of the user's body.

카메라(230)는 주 단말(110) 및 주 단말(110)의 배치환경을 촬영한다. 3D 모델링부(220)가 주 단말(110) 및 주 단말(110)의 배치환경을 3차원 형상정보로 모델링할 수 있도록, 카메라(2300는 주 단말(110) 및 주 단말(110)의 배치환경을 촬영한다.The camera 230 photographs the arrangement environment of the main terminal 110 and the main terminal 110. In order for the 3D modeling unit 220 to model the arrangement environment of the main terminal 110 and the main terminal 110 with 3D shape information, the camera 2300 is the arrangement environment of the main terminal 110 and the main terminal 110 Take a picture.

제어부(240)가 증강현실 이미지가 출력될 장소를 파악할 수 있도록, 카메라(230)는 파일 편집장치(130)의 주변환경을 촬영한다. 사용자가 파일 편집장치(130)를 이용하여 파일을 편집함에 있어, 주 단말(110)의 배치환경과 최대한 유사한 환경에서 파일을 편집할 수 있도록, 제어부(240)는 3차원 형상정보와 파일 편집장치(130)의 주변 환경의 정합도를 판단한다. 제어부(240)가 3차원 형상정보와의 정합도를 판단할 수 있도록, 카메라(230)는 파일 편집장치(130)의 주변환경을 촬영하여 제어부(240)로 제공한다.The camera 230 photographs the surrounding environment of the file editing device 130 so that the control unit 240 can determine the place where the augmented reality image is to be output. When a user edits a file using the file editing device 130, the control unit 240 includes 3D shape information and a file editing device so that the file can be edited in an environment similar to the arrangement environment of the main terminal 110 as much as possible. (130) judge the degree of consistency of the surrounding environment. The camera 230 photographs the surrounding environment of the file editing device 130 and provides it to the control unit 240 so that the control unit 240 can determine the degree of matching with the 3D shape information.

카메라(230)는 파일 편집장치(130)의 주변환경을 촬영함과 동시에, 사용자의 입력정보를 파악하기 위해 사용자의 신체의 일부를 촬영한다. 카메라(230)는 사용자의 신체 일부를 촬영한다. 전술한 예와 같이, 파일이 문서인 경우, 카메라(230)는 사용자의 손가락을 촬영함으로서, 제어부(240)가 사용자의 손가락의 동작을 인식하여 사용자의 입력정보를 파악할 수 있도록 한다. The camera 230 photographs the surrounding environment of the file editing apparatus 130 and simultaneously photographs a part of the user's body to grasp the user's input information. The camera 230 photographs a part of the user's body. As in the above example, when the file is a document, the camera 230 photographs the user's finger, so that the controller 240 can recognize the user's input information by recognizing the motion of the user's finger.

제어부(240)는 클라우드 서버(120)로부터 파일 및 3차원 형상정보를 다운로드받아 증강현실 이미지를 생성하여 출력하도록 하며, 사용자의 입력정보를 파악하여 파일을 편집하기 위해 각 구성요소를 제어한다.The controller 240 downloads a file and 3D shape information from the cloud server 120 to generate and output an augmented reality image, and controls each component in order to recognize the user's input information and edit the file.

제어부(240)는 통신부(210)에 의해 클라우드 서버(120)로부터 다운로드받은 파일 및 3차원 형상정보를 이용하여 증강현실 이미지를 생성하도록 3D 모델링부(220)를 제어한다. 이때, 제어부(240)는 파일 및 3차원 형상정보로 증강현실 이미지를 생성하도록 함에 있어, 파일이 3차원 형상정보 내 포함된 주 단말(110)의 형상정보에 함께 포함되도록 제어한다. 예를 들어, 파일이 문서이고 주 단말(110)이 데스크탑 PC인 경우, 제어부(240)는 주 단말(110)의 모니터에 문서가 출력되어 있는 것처럼 증강현실 이미지를 생성하도록 3D 모델링부(220)를 제어한다. 제어부(240)는 카메라(230)가 촬영한 파일 편집장치(120)의 주변환경의 이미지에 파일 및 3차원 형상정보를 매핑하여 증강현실 이미지를 생성한다. The controller 240 controls the 3D modeling unit 220 to generate an augmented reality image using the file and 3D shape information downloaded from the cloud server 120 by the communication unit 210. In this case, the control unit 240 controls the file to be included in the shape information of the main terminal 110 included in the 3D shape information in order to generate an augmented reality image from the file and the 3D shape information. For example, when the file is a document and the main terminal 110 is a desktop PC, the control unit 240 generates a 3D modeling unit 220 to generate an augmented reality image as if the document is output on the monitor of the main terminal 110. Control. The controller 240 generates an augmented reality image by mapping the file and 3D shape information to the image of the surrounding environment of the file editing device 120 photographed by the camera 230.

제어부(240)는 카메라(230)가 촬영한 파일 편집장치(130)의 주변환경과 3차원 형상정보와의 정합도를 판단하여, 증강현실 이미지를 출력할 장소를 탐색한다. 제어부(240)가 파일 편집장치(130)의 주변환경을 분석하여 3차원 형상정보와의 정합도를 판단하는 방법은 도 3 및 도 4에 도시되어 있다.The controller 240 determines the degree of matching between the surrounding environment of the file editing device 130 photographed by the camera 230 and the 3D shape information, and searches for a place to output an augmented reality image. A method in which the control unit 240 analyzes the surrounding environment of the file editing apparatus 130 and determines the degree of conformity with the 3D shape information is illustrated in FIGS. 3 and 4.

도 3은 본 발명의 일 실시예에 따른 파일 편집장치의 주변환경을 공간별로 분할한 모습을 도시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 주변환경과 단말의 배치환경과의 정합도를 판단하는 모습을 도시한 도면이다.3 is a diagram showing a state of dividing the surrounding environment of the file editing apparatus according to an embodiment of the present invention by space, and FIG. 4 is a view showing the matching of the surrounding environment and the arrangement environment of a terminal according to an embodiment of the present invention. It is a diagram showing a state of judging degree.

도 3을 참조하면, 제어부(240)는 카메라(230)가 촬영한 파일 편집장치(130)의 주변환경 이미지를 공간 별로 분할한다. 제어부(240)는 카메라(230)가 촬영한 파일 편집장치(130)의 주변환경에 대해 3D 모델링부(220)와 동일하거나 상이한 방법, 어떠한 방법으로든 주변환경에 대해 3차원 정보(이하에서, '3차원 정보'로 약칭함)를 생성한다. 제어부(240)는 3차원 정보를 기울기 또는 면적 등의 유사성에 따라 공간 별로 구분하여 각각을 분할한다.Referring to FIG. 3, the controller 240 divides the image of the surrounding environment of the file editing device 130 photographed by the camera 230 for each space. The control unit 240 provides three-dimensional information about the surrounding environment of the file editing device 130 photographed by the camera 230 in the same or different method as the 3D modeling unit 220, or by any method (hereinafter, ' (Abbreviated as '3D information') is created. The controller 240 divides the 3D information into spaces according to similarities such as inclination or area, and divides each of them.

이후, 도 4에 도시된 바와 같이, 제어부(240)는 분할한 3차원 정보의 공간들과 3차원 형상정보 내 주 단말의 배치환경을 비교하여 각 정보의 정합성을 판단한다. 도 4(a)에는, 분할한 3차원 정보의 공간들 중 어느 하나와 주 단말의 배치환경의 정합성을 판단하는 과정이 도시되어 있다. 도 4(a)를 참조하면, 양자는 상당히 정합성에서 차이가 나고 있는 것을 확인할 수 있다. 반면, 도 4(b)를 참조하면, 분할한 3차원 정보의 공간들 중 어느 하나와 주 단말의 배치환경의 정합성은 상당히 높은 것을 확인할 수 있다. 제어부(240)는 이처럼 정합성을 판단하여, 주 단말의 배치환경과의 정합성이 높은 3차원 정보의 공간을 탐색한다. 이후, 제어부(240)는 탐색한 정합성 높은 공간으로 증강현실 이미지를 출력하도록 이미지 출력부(250)를 제어함으로써, 사용자의 몰입감을 높일 수 있다.Thereafter, as shown in FIG. 4, the control unit 240 compares the spaces of the divided 3D information with the arrangement environment of the main terminal in the 3D shape information to determine the consistency of each information. Fig. 4(a) shows a process of determining the consistency of an arrangement environment of a main terminal with any one of the divided 3D information spaces. Referring to Fig. 4(a), it can be seen that the two are significantly different in consistency. On the other hand, referring to FIG. 4(b), it can be seen that the consistency of the arrangement environment of the main terminal with any one of the divided 3D information spaces is quite high. The control unit 240 determines the consistency as described above and searches a space of 3D information having high consistency with the arrangement environment of the main terminal. Thereafter, the control unit 240 controls the image output unit 250 to output an augmented reality image to the searched coherent space, thereby increasing the user's sense of immersion.

다시 도 2를 참조하면, 제어부(240)는 증강현실 이미지를 생성하여 정합성 높은 파일 편집장치(130)의 주변환경 공간으로 증강현실 이미지를 출력하도록 이미지 출력부(250)를 제어한다. 예를 들어, 파일 편집장치(130)가 스마트 글라스인 경우를 가정하면 제어부(240)는 이하와 같이 동작할 수 있다. 파일 편집장치(130)가 정합성 높은 공간의 방향을 향하고 있지 않은 경우, 제어부(240)는 이미지 출력부(250)에 방향을 출력하는 방식 등으로 파일 편집장치(130)가 정합성 높은 공간의 방향을 향하도록 제어할 수 있다. 파일 편집장치(130)가 정합성 높은 공간의 방향을 향하고 있으면, 제어부(240)는 카메라(230)가 촬영한 파일 편집장치(120)의 주변환경의 이미지에 파일 및 3차원 형상정보를 매핑하여 증강현실 이미지를 생성하고, 생성한 증강현실 이미지를 출력하도록 이미지 출력부(250)를 제어한다. 이에 따라, 파일 편집장치(130)의 사용자는 정합성 높은 공간에서 3차원 형상정보에 대한 증강현실 이미지를 제공 받음으로써, 실제 주 단말(110)이 배치된 공간에서 주 단말(110)을 이용하여 파일을 편집하는 것처럼 작업할 수 있다. 이에 대한 일 예는 도 5에 도시되어 있다.Referring back to FIG. 2, the controller 240 controls the image output unit 250 to generate an augmented reality image and output an augmented reality image to the surrounding environment space of the highly consistent file editing device 130. For example, assuming that the file editing device 130 is a smart glass, the controller 240 may operate as follows. When the file editing device 130 is not facing the direction of the highly consistent space, the control unit 240 outputs the direction to the image output unit 250 so that the file editing device 130 determines the direction of the highly consistent space. Can be controlled to face. When the file editing device 130 is facing a direction of a highly consistent space, the controller 240 maps the file and 3D shape information to the image of the surrounding environment of the file editing device 120 photographed by the camera 230 to augment it. The image output unit 250 is controlled to generate a reality image and output the generated augmented reality image. Accordingly, the user of the file editing device 130 receives an augmented reality image for 3D shape information in a highly consistent space, and uses the main terminal 110 in the space where the actual main terminal 110 is placed. You can work like editing An example of this is shown in FIG. 5.

도 5는 본 발명의 일 실시예에 따른 파일 편집장치의 주변환경과 증강현실 이미지가 출력된 환경을 도시한 도면이다.5 is a diagram illustrating an environment in which an augmented reality image is output and a surrounding environment of a file editing apparatus according to an embodiment of the present invention.

도 5(a)는 제어부(240)에 의해 탐색된 정합성 높은 파일 편집장치(130)의 주변환경 공간을 도시한 도면이다. 도 5(a)에 도시된 바와 같이, 실질적으로 주 단말(110)과 관련된 어떠한 구성도 배치되어 있는 것이 아니라, 공간만이 존재할 뿐이다.FIG. 5(a) is a diagram showing the surrounding environment space of the highly consistent file editing apparatus 130 searched by the controller 240. As shown in Fig. 5(a), substantially no configuration related to the main terminal 110 is arranged, but only a space exists.

도 5(b)는 이미지 출력부(250)에 의해 증강현실 이미지가 해당 공간상에 출력된 도면이다. 주 단말(110)과 관련된 구성이 존재하지 않는 공간 상에 증강현실 이미지가 출력됨으로써, 사용자는 자신의 주 단말(110)을 이용하여 파일을 편집하는 것과 같은 느낌을 받을 수 있어, 사용자의 작업효율과 편의성을 증진시킬 수 있는 장점이 있으며, 파일이 이동이 곤란한 단말에서 주로 편집되는 형식이거나, 사용자가 파일의 편집에 이용하는 주 단말이 이동이 곤란한 단말일 경우라도 시간과 장소에 구애받지 않고 사용자에게 주 단말(110)로 파일을 편집하는 것과 같은 인상을 제공할 수 있는 장점이 있다.5(b) is a diagram in which an augmented reality image is output on a corresponding space by the image output unit 250. As an augmented reality image is output on a space where the configuration related to the main terminal 110 does not exist, the user can feel as if editing a file using his or her main terminal 110, so the user's work efficiency It has the advantage of improving the convenience and convenience, and even if the file is a format that is mainly edited on a terminal that is difficult to move, or the main terminal used by the user for editing a file is a terminal that is difficult to move, the user can be used regardless of time and location. There is an advantage of being able to provide an impression such as editing a file with the main terminal 110.

다시 도 2를 참조하면, 제어부(240)는 카메라(230)가 촬영한 사용자 신체의 일부의 이미지나 영상을 분석하여, 사용자의 동작에 대응되는 사용자의 입력정보를 확인한다. 제어부(240)는 사용자 신체의 일부의 이미지나 영상을 분석하여, 사용자 신체의 일부에 대한 특징점의 움직임을 분석한다. 전술한 예와 같이, 문서가 파일인 경우, 제어부(240)는 카메라(230)가 사용자의 손가락을 촬영하도록 제어할 수 있으며, 사용자의 손가락 내 특징점인 각 관절의 움직임을 분석한다. 제어부(240)는 특징점(각 관절)의 움직임을 분석하여 사용자의 신체의 일부가 어떻게 움직이고 있는지를 분석하고, 사용자의 동작에 대응되는 입력정보를 확인한다. 전술한 예에서, 제어부(240)는 사용자의 손가락의 동작이 주 단말(110)의 키보드 내 어떠한 위치로 움직이는지 파악함으로써, 사용자의 동작에 대응되는 입력정보가 무엇인지 확인할 수 있다. 제어부(240)는 확인한 사용자의 입력정보를 토대로 파일을 편집한다. 이처럼, 파일 편집장치(130)는 주 단말(110)의 입력 수단을 사용자의 동작 인식으로 대체하고, 주 단말(110)의 출력수단을 이미지 출력부(250)로 대체하기 때문에, 시간과 장소에 구애받지 않고 사용자가 파일을 확인하고 편집할 수 있도록 할 수 있다. Referring back to FIG. 2, the controller 240 analyzes an image or an image of a part of the user's body photographed by the camera 230 and checks the user's input information corresponding to the user's motion. The controller 240 analyzes an image or an image of a part of the user's body, and analyzes movement of a feature point with respect to a part of the user's body. As in the above example, when the document is a file, the controller 240 may control the camera 230 to capture a user's finger, and analyze the motion of each joint, which is a feature point within the user's finger. The controller 240 analyzes the motion of the feature points (each joint) to analyze how a part of the user's body is moving, and checks input information corresponding to the user's motion. In the above-described example, the controller 240 can determine what input information corresponding to the user's motion is by grasping to which position the motion of the user's finger moves to the keyboard of the main terminal 110. The control unit 240 edits the file based on the checked user's input information. In this way, the file editing apparatus 130 replaces the input means of the main terminal 110 with the user's motion recognition, and replaces the output means of the main terminal 110 with the image output unit 250, so that the time and place You can allow users to view and edit files without being constrained.

제어부(240)는 편집된 파일을 클라우드 서버(120)로 송부하도록 통신부(210)를 제어한다. 파일 편집장치(130)는 편집된 파일을 클라우드 서버(120)로 업로드함으로써, 파일 편집장치(130)에 의해 편집된 파일이 주 단말(110)에도 공유될 수 있도록 한다.The control unit 240 controls the communication unit 210 to transmit the edited file to the cloud server 120. The file editing device 130 uploads the edited file to the cloud server 120 so that the file edited by the file editing device 130 can be shared with the main terminal 110 as well.

전술한 설명에서는, 파일 편집장치(130)가 주 단말(110)의 배치환경을 촬영하여 3차원 형상정보를 생성하는 것으로 기재하고 있으나, 반드시 이에 한정하는 것은 아니다. 3차원 형상정보의 생성과 클라우드 서버(120)로의 업로드는 파일 편집장치(120) 이외의 장치에서 동작될 수 있으며, 파일 편집장치(130)는 업로드된 파일과 3차원 형상정보를 다운로드받아 파일 편집에 이용할 수 있다.In the above description, it is described that the file editing apparatus 130 photographs the arrangement environment of the main terminal 110 to generate 3D shape information, but is not limited thereto. Generation of 3D shape information and uploading to the cloud server 120 can be operated in devices other than the file editing device 120, and the file editing device 130 downloads the uploaded file and 3D shape information and edits the file. Can be used for

도 6은 본 발명의 일 실시예에 따른 파일 편집 시스템이 파일을 편집하는 방법을 도시한 타이밍 차트이다.6 is a timing chart illustrating a method of editing a file by a file editing system according to an embodiment of the present invention.

단말(110)은 파일을 업로드한다(S610). 주 단말(110)은 사용자가 편집하려고 하는 파일이거나, 편집한 파일을 클라우드 서버(120)로 업로드한다.The terminal 110 uploads the file (S610). The main terminal 110 uploads the file to be edited by the user or the edited file to the cloud server 120.

클라우드 서버(120)는 업로드된 파일을 저장한다(S615).The cloud server 120 stores the uploaded file (S615).

파일 편집장치(130)는 단말의 구성 및 단말의 배치환경을 촬영하여 3차원 형상정보를 취득한다(S620).The file editing apparatus 130 acquires 3D shape information by photographing the configuration of the terminal and the arrangement environment of the terminal (S620).

파일 편집장치(130)는 취득한 3차원 형상정보를 클라우드 서버(120)로 업로드한다(S625). 파일 편집장치(130)는 취득한 3차원 형상정보를 클라우드 서버(120)로 업로드함으로서, 반드시 파일 편집장치(130) 뿐만 아니라 파일 편집장치(130)처럼 파일을 편집할 수 있는 장치라면 어떠한 장치에서도 클라우드 서버(120)에 저장된 파일과 3차원 형상정보를 증강현실 이미지로 변환하여 파일을 편집할 수 있다. 따라서 사용자는 파일 편집장치(130)의 배치 장소나 종류에 구애받지 않고 파일을 편집할 수 있다.The file editing device 130 uploads the acquired 3D shape information to the cloud server 120 (S625). The file editing device 130 uploads the acquired 3D shape information to the cloud server 120, so that any device that can edit files like the file editing device 130 as well as the file editing device 130 can The file stored in the server 120 and the 3D shape information may be converted into an augmented reality image to edit the file. Accordingly, the user can edit the file regardless of the location or type of the file editing device 130.

파일 편집장치(130)는 파일 편집장치(130)의 주변환경을 촬영하여 3차원 정보를 취득한다(S630).The file editing device 130 acquires 3D information by photographing the surrounding environment of the file editing device 130 (S630).

파일 편집장치(130)는 단말의 구성 및 배치환경에 대한 3차원 형상정보와 가장 정합도가 높은 주변환경을 탐색한다(S635). 제어부(240)는 파일 편집장치(130)의 주변환경 이미지를 공간 별로 분할하여, 주 단말(110)의 배치환경과 정합도가 높은 주변환경을 탐색한다.The file editing apparatus 130 searches for a surrounding environment having the highest degree of matching with 3D shape information for the configuration and arrangement environment of the terminal (S635). The controller 240 divides the image of the surrounding environment of the file editing device 130 by space, and searches for the surrounding environment having a high degree of matching with the arrangement environment of the main terminal 110.

파일 편집장치(130)는 파일 및 3차원 형상정보를 클라우드 서버(120)로부터 다운로드한다(S640).The file editing device 130 downloads the file and 3D shape information from the cloud server 120 (S640).

파일 편집장치(130)는 주변환경을 촬영하여, 파일, 주 단말의 구성 및 배치환경에 대한 3차원 형상정보의 증강현실 이미지를 생성한다(S645). 제어부(240)는 주 단말(110)의 배치환경과 정합도가 높은 주변환경에 3차원 형상정보를 매핑하여 증강현실 이미지를 생성한다The file editing apparatus 130 photographs the surrounding environment, and generates an augmented reality image of the file and 3D shape information on the configuration and arrangement environment of the main terminal (S645). The control unit 240 generates an augmented reality image by mapping the 3D shape information to the surrounding environment with high alignment with the arrangement environment of the main terminal 110.

파일 편집장치(130)는 생성한 증강현실 이미지를 출력한다(S650).The file editing device 130 outputs the generated augmented reality image (S650).

파일 편집장치(130)는 사용자 신체의 일부를 촬영하여, 신체 일부의 동작에 대응하는 입력정보를 파악한다(S655).The file editing apparatus 130 captures a part of the user's body and recognizes input information corresponding to the motion of the part of the body (S655).

파일 편집장치(130)는 입력정보를 토대로 파일을 편집한다(S660).The file editing device 130 edits the file based on the input information (S660).

파일 편집장치(130)는 편집한 파일을 클라우드 서버(120)로 업로드한다(S665).The file editing device 130 uploads the edited file to the cloud server 120 (S665).

클라우드 서버(120)는 저장된 파일을 업데이트한다(S670).The cloud server 120 updates the stored file (S670).

주단말(110)은 업데이트된 파일을 클라우드 서버(120)로부터 다운로드받을 수 있다(S675).The main terminal 110 may download the updated file from the cloud server 120 (S675).

도 7은 일 실시예에 따른 파일 편집 장치가 파일을 편집하는 방법을 도시한 순서도이다. 파일 편집 장치가 파일을 편집하는 방법은 도 1 내지 도 6을 참조하여 상세히 설명하였기 때문에, 자세한 설명은 생략하기로 한다.7 is a flowchart illustrating a method of editing a file by a file editing apparatus according to an exemplary embodiment. Since the method of editing a file by the file editing apparatus has been described in detail with reference to FIGS. 1 to 6, detailed descriptions will be omitted.

파일 편집장치(130)는 주 단말의 구성 및 주 단말의 배치 환경을 촬영하여 3차원 형상정보를 취득한다(S710).The file editing apparatus 130 acquires 3D shape information by photographing the configuration of the main terminal and the arrangement environment of the main terminal (S710).

파일 편집장치(130)는 3차원 형상정보를 클라우드 서버로 업로드한다(S715).The file editing device 130 uploads the 3D shape information to the cloud server (S715).

파일 편집장치(130)는 파일 편집장치(130)의 주변환경을 촬영하여 3차원 정보를 취득한다(S720).The file editing device 130 acquires 3D information by photographing the surrounding environment of the file editing device 130 (S720).

파일 편집장치(130)는 주 단말의 구성 및 배치환경에 대한 3차원 형상정보와 가장 정합도가 높은 주변환경을 탐색한다(S725).The file editing apparatus 130 searches for the 3D shape information for the configuration and arrangement environment of the main terminal and the surrounding environment with the highest degree of matching (S725).

파일 편집장치(130)는 파일 및 3차원 형상정보를 클라우드 서버로부터 수신한다(S730).The file editing device 130 receives the file and 3D shape information from the cloud server (S730).

파일 편집장치(130)는 주변환경을 촬영하여 파일, 주 단말의 구성 및 배치환경에 대한 3차원 형상정보의 증강현실 이미지를 생성한다(S735).The file editing apparatus 130 photographs the surrounding environment and generates an augmented reality image of 3D shape information on the file, the configuration and arrangement environment of the main terminal (S735).

파일 편집장치(130)는 생성한 증강현실 이미지를 출력한다(S740).The file editing device 130 outputs the generated augmented reality image (S740).

파일 편집장치(130)는 사용자 신체 일부를 촬영하여 신체 일부의 동작에 대응하는 입력정보를 파악한다(S745).The file editing apparatus 130 captures a part of the user's body and identifies input information corresponding to the motion of the part of the body (S745).

파일 편집장치(130)는 입력정보를 토대로 파일을 편집한다(S750).The file editing device 130 edits the file based on the input information (S750).

파일 편집장치(130)는 편집된 파일을 클라우드 서버로 업로드한다(S755).The file editing device 130 uploads the edited file to the cloud server (S755).

도 6 및 7에서는 각 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 6 및 7에 기재된 순서를 변경하여 실행하거나 각 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 6 및 7은 시계열적인 순서로 한정되는 것은 아니다.In FIGS. 6 and 7 it is described that each process is sequentially executed, but this is merely illustrative of the technical idea of an embodiment of the present invention. In other words, a person of ordinary skill in the technical field to which an embodiment of the present invention belongs can change the order shown in FIGS. 6 and 7 and execute one or more of each process without departing from the essential characteristics of an embodiment of the present invention. Since the process is executed in parallel and can be applied by various modifications and modifications, FIGS. 6 and 7 are not limited to a time series order.

한편, 도 6 및 7에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes illustrated in FIGS. 6 and 7 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. That is, the computer-readable recording medium is a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD-ROM, DVD, etc.), and carrier wave (e.g., Internet And storage media such as transmission through In addition, the computer-readable recording medium can be distributed over a computer system connected through a network to store and execute computer-readable codes in a distributed manner.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment belongs will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain the technical idea, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

100: 파일 편집 시스템
110: 주 단말
120: 클라우드 서버
130: 파일 편집장치
210: 통신부
220: 3D 모델링부
230: 카메라
240: 제어부
250: 이미지 출력부
100: file editing system
110: main terminal
120: cloud server
130: file editing device
210: communication department
220: 3D modeling unit
230: camera
240: control unit
250: image output unit

Claims (14)

증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집장치에 있어서,
편집할 파일을 외부로부터 수신하거나, 편집된 파일을 외부로 전송하는 통신부;
상기 통신부가 수신한 파일의 증강현실 이미지를 출력하는 이미지 출력부;
사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하고, 실 공간에서 파일을 편집하고 업로드하는 단말 및 상기 단말의 배치 환경을 촬영하는 카메라; 및
상기 카메라가 촬영한 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일의 증강현실 이미지를 생성하고, 생성된 파일의 증강현실 이미지를 출력하도록 상기 이미지 출력부를 제어하며, 상기 카메라가 촬영한 사용자의 신체 일부의 동작을 분석하여, 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 제어부를 포함하되,
상기 제어부는,
상기 단말 및 상기 단말의 배치 환경에 대한 3차원 형상 정보로 모델링하고, 상기 파일 편집장치의 주변 환경에 대해 3차원 정보를 생성한 후 상기 3차원 정보를 공간별로 구분하여 분할하고, 상기 분할된 3차원 정보의 공간들과 상기 3차원 형상 정보 내 단말의 배치 환경을 비교하여 각 공간의 정합성을 판단하고, 최고의 정합성을 갖는 공간에 상기 증강현실 이미지를 출력하도록 하는 것을 특징으로 하는 파일 편집장치.
In a file editing device that enables a user to output a file and edit a file anywhere using augmented reality,
A communication unit that receives a file to be edited from outside or transmits the edited file to the outside;
An image output unit for outputting an augmented reality image of the file received by the communication unit;
A terminal for capturing a part of a user's body and an environment surrounding the file editing device, and for editing and uploading a file in a real space, and a camera for capturing an arrangement environment of the terminal; And
Mapping the file to the surrounding environment of the file editing device photographed by the camera to generate an augmented reality image of the file, controlling the image output unit to output an augmented reality image of the generated file, and the user photographed by the camera And a control unit that analyzes the motion of a part of the body of the body and edits the file according to the motion of the body part of the user,
The control unit,
After modeling with 3D shape information about the terminal and the arrangement environment of the terminal, generating 3D information about the surrounding environment of the file editing device, dividing the 3D information by space, and dividing the 3D information A file editing apparatus, comprising: comparing spaces of dimensional information with an arrangement environment of a terminal in the 3D shape information to determine the consistency of each space, and outputting the augmented reality image in a space having the highest consistency.
제1항에 있어서,
상기 파일 편집장치는,
스마트 글라스인 것을 특징으로 하는 파일 편집장치.
The method of claim 1,
The file editing device,
File editing device, characterized in that the smart glass.
제1항에 있어서,
상기 통신부는,
클라우드 서버로부터 상기 편집할 파일을 수신하거나, 상기 클라우드 서버로 상기 편집된 파일을 전송하는 것을 특징으로 하는 파일 편집장치.
The method of claim 1,
The communication unit,
A file editing apparatus, characterized in that receiving the file to be edited from a cloud server or transmitting the edited file to the cloud server.
제1항에 있어서,
상기 카메라는,
사용자의 신체 중 손을 촬영하는 것을 특징으로 하는 파일 편집장치.
The method of claim 1,
The camera,
File editing apparatus, characterized in that for photographing a hand of the user's body.
제4항에 있어서,
상기 제어부는,
사용자의 손 동작을 분석하여, 상기 사용자의 손 동작에 따라 상기 파일을 편집하는 것을 특징으로 하는 파일 편집장치.
The method of claim 4,
The control unit,
A file editing apparatus comprising analyzing a user's hand motion and editing the file according to the user's hand motion.
파일 편집장치가 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 방법에 있어서,
편집할 파일을 외부로부터 수신하는 수신과정;
사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하고, 실 공간에서 파일을 편집하고 업로드하는 단말 및 상기 단말의 배치 환경을 촬영하는 촬영과정;
상기 촬영과정에서 촬영된 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하는 생성과정;
상기 파일의 증강현실 이미지를 출력하는 출력과정;
사용자의 신체 일부의 동작을 분석하여, 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 편집과정; 및
편집된 파일을 외부로 전송하는 전송과정을 포함하되,
상기 생성 과정은,
상기 단말 및 상기 단말의 배치 환경에 대한 3차원 형상 정보로 모델링하고, 상기 파일 편집장치의 주변 환경에 대해 3차원 정보를 생성한 후 상기 3차원 정보를 공간별로 구분하여 분할하고, 상기 분할된 3차원 정보의 공간들과 상기 3차원 형상 정보 내 단말의 배치 환경을 비교하여 각 공간의 정합성을 판단하고, 최고의 정합성을 갖는 공간에 상기 증강현실 이미지를 출력하도록 하는 제어 과정을 더 포함하는 것을 특징으로 하는 파일 편집방법.
In a method for a file editing device to output a file and edit a file from anywhere by using augmented reality,
A receiving process of receiving a file to be edited from outside;
A photographing process of photographing a user's body part and the surrounding environment of the file editing device, a terminal editing and uploading a file in a real space, and an arrangement environment of the terminal;
A generating process of generating an augmented reality image for the file by mapping the file to the surrounding environment of the file editing device photographed in the photographing process;
An output process of outputting an augmented reality image of the file;
An editing process of analyzing a motion of a user's body part and editing the file according to the motion of the user's body part; And
Including the transfer process of transferring the edited file to the outside,
The generation process,
After modeling with 3D shape information about the terminal and the arrangement environment of the terminal, generating 3D information about the surrounding environment of the file editing device, dividing the 3D information by space, and dividing the 3D information The method further comprises a control process of comparing the spaces of the dimensional information with the arrangement environment of the terminal in the 3D shape information to determine the consistency of each space, and outputting the augmented reality image to a space having the highest consistency. How to edit files
제6항에 있어서,
상기 파일 편집장치는,
스마트 글라스인 것을 특징으로 하는 파일 편집방법.
The method of claim 6,
The file editing device,
File editing method, characterized in that the smart glass.
제6항에 있어서,
상기 수신과정 및 전송과정은,
각각 클라우드 서버로부터 상기 편집할 파일을 수신하거나, 상기 클라우드 서버로 상기 편집된 파일을 전송하는 것을 특징으로 하는 파일 편집방법.
The method of claim 6,
The receiving process and the transmission process,
Each file editing method comprising receiving the file to be edited from a cloud server or transmitting the edited file to the cloud server.
제6항에 있어서,
상기 촬영과정은,
사용자의 신체 중 손을 촬영하는 것을 특징으로 하는 파일 편집방법.
The method of claim 6,
The above shooting process,
A file editing method comprising photographing a hand of a user's body.
제9항에 있어서,
상기 편집과정은,
상기 촬영과정에서 촬영된 사용자의 손 동작을 분석하여, 사용자의 손 동작에 따라 상기 파일을 편집하는 것을 특징으로 하는 파일 편집방법.
The method of claim 9,
The above editing process,
Analyzing the user's hand motion photographed in the photographing process, and editing the file according to the user's hand motion.
증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집 시스템에 있어서,
실 공간에서 파일을 편집하고 업로드하는 단말;
상기 단말로부터 업로드되는 파일을 수신하여 저장하는 클라우드 서버; 및
상기 클라우드 서버에 저장된 파일을 다운로드 받고, 사용자의 신체 일부와 파일 편집장치의 주변 환경을 촬영하여 촬영된 상기 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하고, 생성한 증강현실 이미지를 출력하고, 사용자의 신체 일부의 동작을 분석하여 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하며, 편집된 파일을 상기 클라우드 서버로 업로드하는 파일 편집장치를 포함하되,
상기 파일 편집 장치는,
상기 단말 및 상기 단말의 배치 환경을 촬영하여 상기 촬영된 단말 및 상기 단말의 배치 환경에 대한 3차원 형상 정보로 모델링하고, 상기 파일 편집장치의 주변 환경에 대해 3차원 정보를 생성한 후 상기 3차원 정보를 공간별로 구분하여 분할하고, 상기 분할된 3차원 정보의 공간들과 상기 3차원 형상 정보 내 단말의 배치 환경을 비교하여 각 공간의 정합성을 판단하고, 최고의 정합성을 갖는 공간에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하는 것을 특징으로 하는 파일 편집 시스템.
In a file editing system that allows a user to output and edit files anywhere using augmented reality,
A terminal for editing and uploading files in a real space;
A cloud server for receiving and storing a file uploaded from the terminal; And
Downloading the file stored in the cloud server, mapping the file to the surrounding environment of the file editing device photographed by photographing a part of the user's body and the surrounding environment of the file editing device to generate an augmented reality image for the file, Comprising a file editing device for outputting the generated augmented reality image, analyzing a motion of a user's body part, editing the file according to the motion of the user's body part, and uploading the edited file to the cloud server,
The file editing device,
The terminal and the arrangement environment of the terminal are photographed, modeled as 3D shape information on the photographed terminal and the arrangement environment of the terminal, and after generating 3D information about the surrounding environment of the file editing device, the 3D Information is divided and divided by space, and the consistency of each space is determined by comparing the spaces of the divided 3D information with the arrangement environment of the terminal in the 3D shape information, and the file is mapped to the space with the highest consistency. The file editing system, characterized in that generating an augmented reality image for the file.
제11항에 있어서,
상기 클라우드 서버는,
상기 클라우드 서버로 업로드된, 편집된 파일을 이용하여 기 저장된 파일을 업데이트하는 것을 특징으로 하는 파일 편집 시스템.
The method of claim 11,
The cloud server,
File editing system, characterized in that for updating a previously stored file using the edited file uploaded to the cloud server.
단말, 클라우드 서버 및 파일 편집장치를 포함하는 파일 편집 시스템이 증강현실을 이용하여 사용자가 어디에서도 파일을 출력하고 파일을 편집할 수 있도록 하는 파일 편집방법에 있어서,
단말이 실 공간에서 파일을 편집하고 업로드하는 제1 업로드과정;
상기 클라우드 서버가 상기 단말로부터 업로드되는 파일을 수신하여 저장하는 저장과정;
상기 파일 편집장치가 상기 클라우드 서버로부터 편집할 파일을 다운로드하는 다운로드과정;
상기 파일 편집장치가 사용자의 신체 일부와 상기 파일 편집장치의 주변 환경을 촬영하고, 상기 단말 및 상기 단말의 배치 환경을 촬영하는 촬영과정;
상기 파일 편집장치가 상기 촬영과정에서 촬영된 파일 편집장치의 주변환경에 상기 파일을 매핑하여 상기 파일에 대한 증강현실 이미지를 생성하는 생성과정;
상기 파일 편집장치가 상기 파일의 증강현실 이미지를 출력하는 출력과정;
상기 파일 편집장치가 사용자의 신체 일부의 동작을 분석하여, 상기 사용자의 신체 일부의 동작에 따라 상기 파일을 편집하는 편집과정; 및
상기 파일 편집장치가 상기 클라우드 서버로 편집된 파일을 업로드하는 제2 업로드과정을 포함하되,
상기 생성 과정은,
상기 단말 및 상기 단말의 배치 환경에 대한 3차원 형상 정보로 모델링하고, 상기 파일 편집장치의 주변 환경에 대해 3차원 정보를 생성한 후 상기 3차원 정보를 공간별로 구분하여 분할하고, 상기 분할된 3차원 정보의 공간들과 상기 3차원 형상 정보 내 단말의 배치 환경을 비교하여 각 공간의 정합성을 판단하고, 최고의 정합성을 갖는 공간에 상기 증강현실 이미지를 출력하도록 하는 제어 과정을 더 포함하는 것을 특징으로 하는 파일 편집방법.
In a file editing method in which a file editing system including a terminal, a cloud server and a file editing device uses augmented reality to allow a user to output and edit a file from anywhere,
A first upload process in which the terminal edits and uploads a file in a real space;
A storage process in which the cloud server receives and stores a file uploaded from the terminal;
A downloading process in which the file editing device downloads a file to be edited from the cloud server;
A photographing process in which the file editing apparatus photographs a part of the user's body and the surrounding environment of the file editing apparatus, and photographs the terminal and the arrangement environment of the terminal;
A generating process in which the file editing device maps the file to the surrounding environment of the file editing device photographed in the photographing process to generate an augmented reality image for the file;
An output process of the file editing device outputting an augmented reality image of the file;
An editing process in which the file editing apparatus analyzes a motion of a user's body part and edits the file according to the motion of the user's body part; And
Including a second upload process in which the file editing device uploads the edited file to the cloud server,
The generation process,
After modeling with 3D shape information about the terminal and the arrangement environment of the terminal, generating 3D information about the surrounding environment of the file editing device, dividing the 3D information by space, and dividing the 3D information The method further comprises a control process of comparing the spaces of the dimensional information with the arrangement environment of the terminal in the 3D shape information to determine the consistency of each space, and outputting the augmented reality image to a space having the highest consistency. How to edit files
제13항에 있어서,
상기 클라우드 서버는,
상기 클라우드 서버로 업로드된, 편집된 파일을 이용하여 상기 저장과정에서 저장된 파일을 업데이트하는 것을 특징으로 하는 파일 편집방법.
The method of claim 13,
The cloud server,
And updating the file stored in the storage process by using the edited file uploaded to the cloud server.
KR1020180159648A 2018-12-12 2018-12-12 Apparatus and Method for Editing Files Anywhere Using Augmented Reality Active KR102174039B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180159648A KR102174039B1 (en) 2018-12-12 2018-12-12 Apparatus and Method for Editing Files Anywhere Using Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180159648A KR102174039B1 (en) 2018-12-12 2018-12-12 Apparatus and Method for Editing Files Anywhere Using Augmented Reality

Publications (2)

Publication Number Publication Date
KR20200075115A KR20200075115A (en) 2020-06-26
KR102174039B1 true KR102174039B1 (en) 2020-11-04

Family

ID=71136231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180159648A Active KR102174039B1 (en) 2018-12-12 2018-12-12 Apparatus and Method for Editing Files Anywhere Using Augmented Reality

Country Status (1)

Country Link
KR (1) KR102174039B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516216A (en) 2014-04-30 2017-06-15 マテリアライズ・ナムローゼ・フエンノートシャップMaterialise Nv Object customization system and method in additive machining

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515147A (en) * 2011-06-21 2014-06-26 エンパイア テクノロジー ディベロップメント エルエルシー Gesture-based user interface for augmented reality
KR101444918B1 (en) * 2012-08-24 2014-09-29 한국과학기술원 Method for providing cloud service and cloud server using the same
KR101984915B1 (en) * 2012-12-03 2019-09-03 삼성전자주식회사 Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof
KR102104136B1 (en) * 2013-12-18 2020-05-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Augmented reality overlay for control devices
KR20160062906A (en) * 2014-11-26 2016-06-03 송명진 augmented reality Input Method for Wearable device
KR102641655B1 (en) * 2015-10-20 2024-02-27 매직 립, 인코포레이티드 Select virtual objects in 3D space
KR20170125618A (en) * 2016-05-04 2017-11-15 시크릿타운 주식회사 Method for generating content to be displayed at virtual area via augmented reality platform and electronic device supporting the same
KR102102994B1 (en) 2019-01-03 2020-05-29 고상혁 Augmented reality editing system to make and edit augmented reality contents, and augmented reality processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516216A (en) 2014-04-30 2017-06-15 マテリアライズ・ナムローゼ・フエンノートシャップMaterialise Nv Object customization system and method in additive machining

Also Published As

Publication number Publication date
KR20200075115A (en) 2020-06-26

Similar Documents

Publication Publication Date Title
JP7715460B2 (en) Avatar service providing method and system
JP2022503647A (en) Cross-domain image conversion
CN110264509A (en) Determine the method, apparatus and its storage medium of the pose of image-capturing apparatus
CN114860187B (en) Intelligent voice device control method, device, computer device and storage medium
JP7168485B2 (en) LEARNING DATA GENERATION METHOD, LEARNING DATA GENERATION DEVICE, AND PROGRAM
TW201346616A (en) Biometric cloud communication and data movement
US20100250588A1 (en) Image searching system and image searching method
KR20210040555A (en) Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model
CN115442519B (en) Video processing method, device and computer-readable storage medium
JP6046501B2 (en) Feature point output device, feature point output program, feature point output method, search device, search program, and search method
JP6435779B2 (en) Information processing apparatus and information processing program
JP2021136664A (en) Devices, control methods, and programs
CN118608636A (en) Image processing model training method, image processing method and device
KR102174039B1 (en) Apparatus and Method for Editing Files Anywhere Using Augmented Reality
JP2019050519A (en) Information processing apparatus and program
CN112016508A (en) Face recognition method, device, system, computing equipment and storage medium
KR20210073428A (en) Method and System for restoring objects and background and creating your own character for reality-based Social Network Services
KR102563522B1 (en) Apparatus, method and computer program for recognizing face of user
JP2013214158A (en) Display image retrieval device, display control system, display control method, and program
KR20120077485A (en) System and service for providing audio source based on facial expression recognition
JP2023177855A (en) Position association system, position association method, and position association program
CN116804916A (en) Information processing apparatus, information processing method, and recording medium
KR101845419B1 (en) Method and program for analyzing photo revision
CN113343902B (en) Palm depth detection method, device, computer equipment and storage medium
CN120014714B (en) Hand gesture recognition method, head mounted display device and storage medium

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6