[go: up one dir, main page]

KR102114457B1 - Method and apparatus for processing real-time character streaming contents - Google Patents

Method and apparatus for processing real-time character streaming contents Download PDF

Info

Publication number
KR102114457B1
KR102114457B1 KR1020190130728A KR20190130728A KR102114457B1 KR 102114457 B1 KR102114457 B1 KR 102114457B1 KR 1020190130728 A KR1020190130728 A KR 1020190130728A KR 20190130728 A KR20190130728 A KR 20190130728A KR 102114457 B1 KR102114457 B1 KR 102114457B1
Authority
KR
South Korea
Prior art keywords
content
character
video stream
viewing
content viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020190130728A
Other languages
Korean (ko)
Inventor
김부경
이상석
박영준
Original Assignee
(주)부즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)부즈 filed Critical (주)부즈
Priority to KR1020190130728A priority Critical patent/KR102114457B1/en
Application granted granted Critical
Publication of KR102114457B1 publication Critical patent/KR102114457B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4383Accessing a communication channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Disclosed are a method and a device for providing real-time character streaming content. According to an embodiment, a method for processing real-time character streaming content comprises the steps of: generating a content providing channel and a content viewing channel for providing real-time character streaming content; recognizing connections through the content providing channel from a content providing terminal of a content provider; receiving a first character selection input for selecting a first character from the content providing terminal; recognizing connections through the content viewing channel from content viewing terminals of content viewers; receiving a recorded video stream of the content provider from the content providing terminal; generating a first character video stream in which a subject of the recorded video stream is replaced with the first character based on expression, motion, and sound information of the subject of the recorded video stream received from the content provider; and transmitting the generated first character video stream to the content viewing terminals.

Description

실시간 캐릭터 스트리밍 콘텐츠의 처리 방법 및 장치{METHOD AND APPARATUS FOR PROCESSING REAL-TIME CHARACTER STREAMING CONTENTS}Method and device for processing real-time character streaming content {METHOD AND APPARATUS FOR PROCESSING REAL-TIME CHARACTER STREAMING CONTENTS}

아래 실시예들은 실시간 캐릭터 스트리밍 콘텐츠 서비스를 제공하는 기술에 관한 것이다. The embodiments below relate to a technology for providing a real-time character streaming content service.

캐릭터는 특정 인물을 상징화하거나, 동물이나 식물 등을 모티브로 하여 개성과 이미지가 부여된 상품으로서, 개인이나 기업들이 소비자들에게 보다 친근하게 접근할 수 있도록 활용하고 있다. 최근에는 통신 기술의 발전으로 캐릭터를 소비하는 방식은 전통적인 텔레비전 매체에서 벗어나 모바일 플랫폼을 이용하는 유튜브TM와 같은 다양한 동영상 플랫폼으로 확장되고 있다. 5G(5 generation) 통신 기술이 보급되면서 현장감과 체험감을 극대화시킬 수 있는 가상현실(VR) 또는 증강현실(AR) 기반 콘텐츠도 늘어나고 있다.The character is a product that symbolizes a specific person or is given a personality and image by using animals or plants as a motif, and is utilized to help individuals and companies approach consumers more intimately. In recent years, with the development of communication technology, the way of consuming characters is expanding from traditional television media to various video platforms such as YouTube TM using a mobile platform. With the spread of 5G (5 generation) communication technology, virtual reality (VR) or augmented reality (AR) based content that can maximize the sense of presence and experience is also increasing.

실시간으로 주고받을 수 있는 데이터 규모가 커짐에 따라 영상 콘텐츠를 스트리밍 방식으로 제공하는 기술이 실생활에서 구현되고 있고, 텍스트와 이미지를 넘어 동영상으로 소통하는 서비스가 보편화되고 있다. 통신기술의 발전과 동영상 콘텐츠 서비스의 확장에 따라, 기존의 캐릭터 제작자로부터 소비자로의 일방적인 캐릭터 소비 방식이 아닌 캐릭터와 소비자의 양방향 상호작용에 의해 캐릭터를 소비함으로써, 캐릭터 콘텐츠의 사용성, 체험감, 편의성을 높이기 위한 기술의 연구가 요구된다.As the size of data that can be exchanged in real time increases, technologies that provide video content in a streaming manner are being realized in real life, and services that communicate with videos beyond text and images are becoming common. With the development of communication technology and the expansion of video content services, the character content is usable, experience, by consuming characters through two-way interaction between characters and consumers, rather than one-way character consumption methods from existing character producers to consumers. Research on technology to increase convenience is required.

KR 1020060092625KR 1020060092625 KR 101987377B1KR 101987377B1 KR100881371B1KR100881371B1 KR101111172B1KR101111172B1

실시예들은 실시간 캐릭터 스트리밍 콘텐츠를 시청자들에게 제공하고자 한다.The embodiments are intended to provide viewers with real-time character streaming content.

실시예들은 촬영 영상 스트림의 주체가 선택된 캐릭터로 대체된 영상 스트리밍 콘텐츠를 생성하여, 시청자들 별로 차별화된 콘텐츠를 제공하고자 한다.The embodiments are intended to provide differentiated content for each viewer by generating video streaming content in which the subject of the captured video stream is replaced with a selected character.

실시예들은 선택한 캐릭터의 종류에 따라 상이한 캐릭터 영상 스트림을 생성함으로써 시청자가 원하는 캐릭터에 대한 실시간 체험감을 제공하고자 한다.The embodiments are intended to provide a real-time experience for a character desired by a viewer by generating a different character video stream according to the selected character type.

실시예들은 선택된 캐릭터에 대한 시청자의 동작에 기초하여 실시간으로 스트리밍 콘텐츠를 생성하여, 시청자에게 캐릭터와의 상호작용할 수 있는 체험감을 제공할 수 있도록 한다. The embodiments generate streaming content in real time based on the viewer's action on the selected character, so that the viewer can be provided with an experience to interact with the character.

실시예들은 선택된 캐릭터에 대해 상호작용하는 시청자의 수에 기초하여 실시간으로 스트리밍 콘텐츠를 생성하여, 시청자와 캐릭터의 적극적인 상호작용을 이끌어 낼 수 있도록 한다.The embodiments generate streaming content in real time based on the number of viewers interacting with the selected character, thereby enabling active interaction between the viewer and the character.

실시예들은 선택한 캐릭터 별로 콘텐츠 시청자들의 그룹을 분류하여, 시청자의 그룹들과 콘텐츠 제공자의 캐릭터가 상호작용할 수 있도록 한다. The embodiments classify a group of content viewers for each selected character, so that the group of viewers and the character of the content provider can interact.

일실시예에 따르면, 실시간 캐릭터 스트리밍 콘텐츠 처리 방법은 실시간 캐릭터 스트리밍 콘텐츠의 제공을 위한 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성하는 단계; 콘텐츠 제공자의 콘텐츠 제공 단말로부터 상기 콘텐츠 제공 채널을 통한 접속들을 인식하는 단계; 상기 콘텐츠 제공 단말로부터 제1 캐릭터를 선택하는 제1 캐릭터 선택 입력을 수신하는 단계; 콘텐츠 시청자들의 콘텐츠 시청 단말들로부터 상기 콘텐츠 시청 채널을 통한 접속들을 인식하는 단계; 상기 콘텐츠 제공자의 촬영 영상 스트림을 상기 콘텐츠 제공 단말로부터 수신하는 단계; 및 상기 콘텐츠 제공자로부터 수신한 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제1 캐릭터로 대체한 제1 캐릭터 영상 스트림을 생성하는 단계; 및 생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하는 단계를 포함할 수 있다.According to an embodiment, a method for processing real-time character streaming content includes generating a content providing channel and a content viewing channel for providing real-time character streaming content; Recognizing connections through the content providing channel from a content providing terminal of a content provider; Receiving a first character selection input for selecting a first character from the content providing terminal; Recognizing connections through the content viewing channel from content viewing terminals of content viewers; Receiving a video stream of the content provider from the content providing terminal; And generating a first character video stream in which the subject of the photographed video stream is replaced with the first character based on the expression, motion, and sound information of the subject of the photographed video stream received from the content provider. And transmitting the generated first character video stream to the content viewing terminals.

일실시예에 따르면, 실시간 캐릭터 스트리밍 콘텐츠 처리 방법은 상기 제1 캐릭터 선택 입력을 수신하는 단계는 복수의 캐릭터들에 대한 우선순위 선택 입력을 수신하는 단계를 포함하고, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 촬영 영상 스트림의 주체의 미리 설정된 제1 동작을 인식할 경우 상기 제1 캐릭터를 상기 우선순위 선택 입력의 차순위 선택 입력에 대응하는 캐릭터로 변경하는 단계; 상기 촬영 영상 스트림의 주체의 미리 설정된 제2 동작을 인식할 경우 상기 제1 캐릭터를 제거하는 단계; 또는 상기 촬영 영상 스트림의 주체의 미리 설정된 제3 동작을 인식할 경우 제거된 상기 제1 캐릭터를 재삽입하는 단계 중 하나 이상을 포함할 수 있다.According to an embodiment, the method for processing real-time character streaming content, the step of receiving the first character selection input includes receiving a priority selection input for a plurality of characters, and generating the first character image stream The step of changing the first character to a character corresponding to the next priority selection input of the priority selection input when recognizing a preset first operation of the subject of the captured video stream; Removing the first character when recognizing a preset second operation of the subject of the captured video stream; Alternatively, when recognizing a preset third operation of the subject of the captured image stream, the method may include one or more of reinserting the removed first character.

일 실시예에 따르면, 상기 콘텐츠 시청 단말들 중에서 제1 콘텐츠 시청 단말로부터 제2 캐릭터 선택 입력을 수신하는 단계; 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제2 캐릭터로 대체한 제2 캐릭터 영상 스트림을 생성하는 단계; 상기 제1 콘텐츠 시청 단말로 상기 제2 캐릭터 영상 스트림을 송신하는 단계; 상기 콘텐츠 시청 단말들 중에서 제2 콘텐츠 시청 단말로부터 제3 캐릭터 선택 입력을 수신하는 단계; 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제3 캐릭터로 대체한 제3 캐릭터 영상 스트림을 생성하는 단계; 상기 제2 콘텐츠 시청 단말로 상기 제3 캐릭터 영상 스트림을 송신하는 단계를 더 포함하고, 생성된 상기 제2 캐릭터 영상 스트림 및 상기 제3 캐릭터 영상 스트림의 상기 제2 캐릭터 및 상기 제3 캐릭터 각각의 표정, 동작 및 소리 정보는, 생성된 상기 제1 캐릭터 영상 스트림의 제1 캐릭터의 표정, 동작 및 소리 정보와 상이할 수 있다. According to an embodiment, receiving a second character selection input from a first content viewing terminal among the content viewing terminals; Generating a second character video stream in which the subject of the photographed video stream is replaced with the second character based on the expression, motion, and sound information of the subject of the photographed video stream; Transmitting the second character video stream to the first content viewing terminal; Receiving a third character selection input from a second content viewing terminal among the content viewing terminals; Generating a third character video stream in which the subject of the photographed video stream is replaced with the third character based on the expression, motion, and sound information of the subject of the photographed video stream; And transmitting the third character video stream to the second content viewing terminal, and facial expressions of each of the second character and the third character of the generated second character video stream and the third character video stream. , The motion and sound information may be different from the facial expression, motion, and sound information of the first character of the generated first character video stream.

일 실시예에 따르면, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계; 상기 콘텐츠 시청 단말들로부터 시청 영상 스트림을 수신하는 단계; 수신된 상기 시청 영상 스트림으로부터 응답 동작, 상기 응답 동작이 아닌 동작, 및 무응답 중 하나 이상을 인식하는 단계 - 상기 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 및 상기 제1 캐릭터가 제1 동작을 수행하는 영상 스트림, 제2 동작을 수행하는 영상 스트림 및 제3 동작을 수행하는 영상 스트림 중 하나 이상을 생성하는 단계를 포함하고, 생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하는 단계는, 생성된 하나 이상의 상기 제1 캐릭터가 제1 동작을 수행하는 영상 스트림, 제2 동작을 수행하는 영상 스트림, 제3 동작을 수행하는 영상 스트림 각각을 상기 응답 동작, 상기 응답 동작이 아닌 동작, 및 상기 무응답이 인식된 상기 시청 영상 스트림을 송신한 상기 콘텐츠 시청 단말들 각각으로 송신하는 단계를 포함하고, 상기 제1 동작을 수행하는 영상 스트림은, 상기 응답 동작이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제1 동작을 수행하는 영상 스트림이고, 상기 제2 동작을 수행하는 영상 스트림은, 상기 응답 동작이 아닌 동작이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제2 동작을 수행하는 영상 스트림이고, 상기 제3 동작을 수행하는 영상 스트림은, 상기 무응답이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제3 동작을 수행하는 영상 스트림일 수 있다. According to an embodiment, generating the first character video stream may include: recognizing a preset operation of a subject of the captured video stream; Receiving a viewing video stream from the content viewing terminals; Recognizing at least one of a response operation, a non-response operation, and a non-response from the received viewing video stream, wherein the response operation is an operation performed in response to the preset operation; And generating at least one of an image stream in which the first character performs a first operation, an image stream in which a second operation is performed, and an image stream in which a third operation is performed, and the generated first character image. The step of transmitting the streams to the content viewing terminals may include one or more of the generated video streams in which the first character performs a first operation, a video stream in a second operation, and a video stream in a third operation. And transmitting the viewing video stream in which the response action, the non-response action, and the non-response are recognized, to each of the content viewing terminals, and wherein the video stream performing the first action comprises: When a response operation is recognized, the first character of the first character image stream is an image stream performing the first operation, and the second operation is performed. The video stream to be performed is an image stream in which the first character of the first character video stream performs a second operation when an operation other than the response is recognized, and the video stream performing the third operation is the When no response is recognized, the first character of the first character image stream may be an image stream performing a third operation.

일 실시예에 따르면, 상기 콘텐츠 시청 단말들 각각에 콘텐츠 채팅방들을 개설하는 단계; 상기 콘텐츠 시청 단말들로부터 채팅 입력을 수신하여 상기 콘텐츠 채팅방을 통해 표시하는 단계를 더 포함하고, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계; 상기 채팅 입력에 포함된 제1 키워드에 기초하여, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계 - 상기 제1 키워드는 상기 촬영 영상 스트림의 주체의 미리 설정된 동작에 대응하는 키워드임 -; 및 상기 채팅 입력에 포함된 제2 키워드에 기초하여, 상기 제1 캐릭터가 제2 동작을 수행하는 영상 효과를 추가하는 단계 - 상기 제2 키워드는 상기 촬영 영상 스트림의 주체의 미리 설정된 동작에 대응하지 않는 키워드임 -;를 포함할 수 있다. According to one embodiment, the step of opening content chat rooms in each of the content viewing terminals; The method further includes receiving a chat input from the content viewing terminals and displaying it through the content chat room, and generating the first character video stream comprises: recognizing a preset operation of a subject of the captured video stream. ; Adding a video effect in which the first character performs a first operation based on a first keyword included in the chat input-the first keyword is a keyword corresponding to a preset operation of a subject of the captured video stream Im-; And adding a video effect in which the first character performs a second operation based on the second keyword included in the chat input.-The second keyword does not correspond to a preset operation of the subject of the captured video stream. This keyword can contain-;

일 실시예에 따르면, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계; 상기 콘텐츠 시청 단말들로부터 시청 영상 스트림을 수신하는 단계; 수신된 상기 시청 영상 스트림으로부터 응답 동작을 인식하는 단계 - 상기 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 및 상기 응답 동작이 인식된 상기 콘텐츠 시청 단말들의 수와 상기 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to an embodiment, generating the first character video stream may include: recognizing a preset operation of a subject of the captured video stream; Receiving a viewing video stream from the content viewing terminals; Recognizing a response operation from the received viewing video stream, wherein the response operation is an operation performed in response to the preset operation; And a video effect in which the first character performs the first operation when the ratio of the number of the content viewing terminals recognized by the response operation and the total number of content viewing terminals accessed through the content viewing channel is equal to or greater than a predetermined ratio. It may include the step of adding.

일 실시예에 따르면, 상기 콘텐츠 시청 단말들 각각에 콘텐츠 채팅방들을 개설하는 단계; 상기 콘텐츠 시청 단말들로부터 채팅 입력을 수신하여 상기 콘텐츠 채팅방을 통해 표시하는 단계를 더 포함하고, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 채팅 입력을 통해 제1 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to one embodiment, the step of opening content chat rooms in each of the content viewing terminals; The method further includes receiving a chat input from the content viewing terminals and displaying it through the content chat room, and generating the first character video stream comprises viewing the content inputting a first keyword through the chat input. When the ratio of the number of terminals and the number of total content watching terminals connected through the content viewing channel is equal to or greater than a predetermined ratio, the method may include adding a video effect in which the first character performs a first operation.

일 실시예에 따르면, 상기 콘텐츠 시청 채널을 통해 접속된 상기 콘텐츠 시청 단말들의 각각의 접속 시간을 수집하는 단계를 더 포함하고, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 콘텐츠 시청 단말들의 각각의 접속 시간에 기초하여, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to an embodiment, further comprising collecting each access time of the content viewing terminals connected through the content viewing channel, and generating the first character video stream comprises: each of the content viewing terminals The method may include adding a video effect in which the first character performs the first operation based on the access time of.

일 실시예에 따르면, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 제1 콘텐츠 시청 단말들에 의해 균등하게 지불되는 비용들을 합산하는 단계; 및 상기 합산 결과에 기초하여, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to an embodiment, the step of generating the first character video stream may include summing costs equally paid by the first content viewing terminals; And adding a video effect in which the first character performs a first operation based on the summation result.

일 실시예에 따르면, 상기 콘텐츠 시청자들은 제1 콘텐츠 시청자 그룹 및 제2 콘텐츠 시청자 그룹을 포함하고, 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들을 통해 제2 캐릭터 선택 입력을 수신하는 단계; 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들을 통해 제3 캐릭터 선택 입력을 수신하는 단계를 더 포함하고, 상기 제1 캐릭터 영상 스트림을 생성하는 단계는 상기 제2 캐릭터 및 상기 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계를 포함할 수 있다.According to an embodiment, the content viewers include a first content viewer group and a second content viewer group, and receiving a second character selection input through content viewing terminals of the first content viewer group; And receiving a third character selection input through the content viewing terminals of the second content viewer group, and generating the first character video stream comprises the second character and the third character. It may include the step of generating a character video stream.

일 실시예에 따르면, 상기 제2 캐릭터 및 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계; 상기 제1 콘텐츠 시청자 그룹 및 상기 제2 콘텐츠 시청자 그룹 각각의 시청 단말들로부터 시청 영상 스트림을 수신하는 단계; 수신된 상기 제1 콘텐츠 시청자 그룹의 시청 영상 스트림으로부터 제1 응답 동작을 인식하는 단계 - 상기 제1 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 수신된 상기 제2 콘텐츠 시청자 그룹의 시청 영상 스트림으로부터 제2 응답 동작을 인식하는 단계 - 상기 제2 응답 동작은 상기 미리 설정된 동작에 대응하지 않는 응답 동작임 -; 상기 제1 응답 동작을 수행한 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 수와 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제1 미리 정해진 비율 이상인 경우, 상기 제2 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계; 및 상기 제2 응답 동작을 수행한 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 수와 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제2 미리 정해진 비율 이상인 경우, 상기 제3 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to an embodiment, generating a first character image stream including the second character and the third character may include: recognizing a preset operation of a subject of the captured image stream; Receiving a viewing video stream from viewing terminals of each of the first content viewer group and the second content viewer group; Recognizing a first response operation from the received viewing video stream of the first group of content viewers, wherein the first response operation is an operation performed in response to the preset operation; Recognizing a second response operation from the received viewing video stream of the second group of content viewers, wherein the second response operation is a response operation that does not correspond to the preset operation; When the ratio of the total number of content viewing terminals of the first content viewer group and the total number of content viewing terminals of the first content viewer group performing the first response operation is greater than or equal to a first predetermined rate, the second character is Adding a video effect to perform the first operation; And when the ratio of the total number of content viewing terminals of the second content viewer group and the total number of content viewing terminals of the second content viewer group performing the second response operation is greater than or equal to a second predetermined rate, the third character. It may include adding a video effect to perform the first operation.

일 실시예에 따르면, 상기 제1 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말 각각에 제1 콘텐츠 채팅방들을 개설하는 단계; 상기 제2 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말 각각에 제2 콘텐츠 채팅방들을 개설하는 단계; 상기 제1 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말로부터 제1 채팅 입력을 수신하여 상기 제1 콘텐츠 채팅방을 통해 표시하는 단계; 상기 제2 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말로부터 제2 채팅 입력을 수신하여 상기 제2 콘텐츠 채팅방을 통해 표시하는 단계를 더 포함하고, 상기 제2 캐릭터 및 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계는, 상기 제1 채팅 입력에 포함된 제1 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제1 미리 정해진 비율 이상인 경우, 상기 제2 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계; 및 상기 제2 채팅 입력에 포함된 제2 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제2 미리 정해진 비율 이상인 경우, 상기 제3 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계를 포함할 수 있다. According to an embodiment, the step of establishing first content chat rooms in each of the content viewing terminal of the first content viewer group; Establishing second content chat rooms in each of the content viewing terminals of the second content viewer group; Receiving a first chat input from the content viewing terminal of the first content viewer group and displaying it through the first content chat room; And receiving a second chat input from the content viewing terminal of the second content viewer group and displaying it through the second content chat room, the first character video stream including the second character and the third character. In the generating, when the ratio of the total number of the content viewing terminals of the first content viewer group and the number of the content viewing terminals input the first keyword included in the first chat input is greater than or equal to the first predetermined rate , Adding a video effect in which the second character performs a first operation; And when the ratio of the total number of content viewing terminals and the total number of content viewing terminals of the second content viewer group inputting the second keyword included in the second chat input is greater than or equal to a second predetermined rate, the third character. It may include adding a video effect to perform the first operation.

일 실시예에 따르면, 상기 제1 캐릭터 선택 입력을 수신하는 단계는, 사용자 제작 캐릭터, 라이선스를 받은 캐릭터(licensed character), 및 기본 캐릭터(default character) 중에서 상기 제1 캐릭터를 선택하는 입력을 수신하는 단계; 및 상기 제1 캐릭터에 대응하는 캐릭터 제작자에게 비용을 지불하는 단계를 포함할 수 있다. According to an embodiment, the step of receiving the first character selection input may include receiving an input for selecting the first character from a user-created character, a licensed character, and a default character. step; And it may include the step of paying the cost to the character creator corresponding to the first character.

일 실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The apparatus according to an embodiment may be controlled by a computer program stored in a medium in order to execute the method of any one of the above-described methods in combination with hardware.

일 실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 장치는, 실시간 캐릭터 스트리밍 콘텐츠의 제공을 위한 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성하고; 콘텐츠 제공자의 콘텐츠 제공 단말로부터 상기 콘텐츠 제공 채널을 통한 접속들을 인식하고; 상기 콘텐츠 제공 단말로부터 제1 캐릭터를 선택하는 제1 캐릭터 선택 입력을 수신하고; 콘텐츠 시청자들의 콘텐츠 시청 단말들로부터 상기 콘텐츠 시청 채널을 통한 접속들을 인식하고; 상기 콘텐츠 제공자의 촬영 영상 스트림을 상기 콘텐츠 제공 단말로부터 수신하고; 상기 콘텐츠 제공자로부터 수신한 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제1 캐릭터로 대체한 제1 캐릭터 영상 스트림을 생성하고, 생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하는 프로세서를 포함할 수 있다.A real-time character streaming content processing apparatus according to an embodiment generates a content providing channel and a content viewing channel for providing real-time character streaming content; Recognize connections through the content providing channel from the content providing terminal of the content provider; Receiving a first character selection input for selecting a first character from the content providing terminal; Recognize connections through the content viewing channel from content viewing terminals of content viewers; Receiving a video stream of the content provider from the content providing terminal; The first character video stream is generated by replacing the subject of the photographed video stream with the first character based on the expression, motion, and sound information of the subject of the photographed video stream received from the content provider, and the generated first And a processor that transmits a character video stream to the content viewing terminals.

실시예들은 실시간 캐릭터 스트리밍 콘텐츠를 시청자들에게 제공할 수 있다.Embodiments may provide real-time character streaming content to viewers.

실시예들은 촬영 영상 스트림의 주체가 선택된 캐릭터로 대체된 영상 스트리밍 콘텐츠를 생성하여, 시청자들 별로 차별화된 콘텐츠를 제공할 수 있다.Embodiments may provide differentiated content for each viewer by generating video streaming content in which the subject of the captured video stream is replaced with a selected character.

실시예들은 선택한 캐릭터의 종류에 따라 상이한 캐릭터 영상 스트림을 생성함으로써 시청자가 원하는 캐릭터에 대한 실시간 체험감을 제공할 수 있다.Embodiments may provide a real-time experience for a character desired by the viewer by generating a different character video stream according to the type of the selected character.

실시예들은 선택된 캐릭터에 대한 시청자의 동작에 기초하여 실시간으로 스트리밍 콘텐츠를 생성하여, 시청자에게 캐릭터와의 상호작용할 수 있는 체험감을 제공할 수 있다. Embodiments may generate streaming content in real time based on the viewer's action on the selected character, thereby providing the viewer with a sense of experience to interact with the character.

실시예들은 선택된 캐릭터에 대해 상호작용하는 시청자의 수에 기초하여 실시간으로 스트리밍 콘텐츠를 생성하여, 시청자와 캐릭터의 적극적인 상호작용을 이끌어 낼 수 있다.The embodiments may generate streaming content in real time based on the number of viewers interacting with the selected character, leading to active interaction between the viewer and the character.

실시예들은 선택한 캐릭터 별로 콘텐츠 시청자들의 그룹을 분류하여, 시청자의 그룹들과 콘텐츠 제공자의 캐릭터가 상호작용할 수 있다. Embodiments classify a group of content viewers for each selected character, so that the viewers' groups and the content provider's character can interact.

도 1은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠를 제공하는 시스템을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 순서도이다.
도 3 내지 도 8은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 장치의 구성의 예시도이다.
1 is a view for explaining a system for providing real-time character streaming content according to an embodiment.
2 is a flowchart illustrating a method for processing real-time character streaming content according to an embodiment.
3 to 8 are diagrams for describing a real-time character streaming content processing method according to an embodiment.
9 is an exemplary view of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments, and the scope of the patent application right is not limited or limited by these embodiments. It should be understood that all modifications, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes modifications, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is said to be "connected" to another element, it should be understood that other elements may be present, either directly connected to or connected to the other element.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "include" or "have" are intended to indicate the presence of features, numbers, steps, actions, components, parts or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the embodiments, detailed descriptions thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. Embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, and wearable devices.

도 1은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠를 제공하는 시스템을 설명하기 위한 도면이다.1 is a view for explaining a system for providing real-time character streaming content according to an embodiment.

도 1을 참조하면, 실시간 캐릭터 스트리밍 콘텐츠를 제공하는 시스템은 실시간으로 캐릭터를 이용한 동영상 콘텐츠를 제공하는 시스템으로서, 서버(101), 네트워크(102), 콘텐츠 제공자 그룹(103) 및 콘텐츠 시청자 그룹(104)을 포함한다. 콘텐츠 제공자 그룹(103)은 콘텐츠 시청자들(141, 142 및 143)의 콘텐츠 시청 단말들(151, 152 및 153)로 실시간 캐릭터 스트리밍 콘텐츠를 제공하기 위한 주체로 구성된다. 실시간 캐릭터 스트리밍 콘텐츠는 콘텐츠 제공자(111)에 의해 생성된 촬영 영상 스트림들의 각각의 주체가 미리 정해진 캐릭터로 대체되어 생성된 콘텐츠일 수 있다. 실시간 캐릭터 스트리밍 콘텐츠는 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 캐릭터의 표정, 동작 및 소리 정보가 생성된 영상 스트림을 포함하는 콘텐츠일 수 있다. 예를 들어, 콘텐츠 제공자들은 각자의 스마트폰들로 각각 본인의 모습을 촬영하여 동영상 콘텐츠를 생성할 수 있는데, 촬영된 영상들은 콘텐츠 제공자의 이미지 영상 대신 캐릭터 이미지 영상으로 대체되어 시청자들에게 스트리밍 형태로 제공되는 동영상 콘텐츠일 수 있다. 콘텐츠 제공자 그룹(103)은 콘텐츠를 제공하는 주체로서, 예를 들어 콘텐츠를 생성하기 위한 촬영 영상을 전송하는 단말 및 그 촬영 영상의 대상이 되는 주체를 포함할 수 있다. 콘텐츠 시청자 그룹(104)은 콘텐츠를 시청하는 주체와 연관된 그룹으로서, 예를 들어 실시간 캐릭터 스트리밍 콘텐츠를 재생하거나 표시하는 단말들 및 그 단말들을 통해 콘텐츠를 시청하거나 소통하는 주체들을 포함할 수 있다. 여기서, 편의상 콘텐츠 제공자 그룹(103) 내의 콘텐츠 제공 주체는 단일한 것으로 도시되었으나, 이에 한정되는 것은 아니며 복수의 주체를 포함할 수 있다. Referring to FIG. 1, a system for providing real-time character streaming content is a system for providing video content using characters in real time, including a server 101, a network 102, a content provider group 103, and a content viewer group 104 ). The content provider group 103 is composed of subjects for providing real-time character streaming content to the content viewing terminals 151, 152, and 153 of the content viewers 141, 142, and 143. The real-time character streaming content may be content generated by replacing each subject of the captured video streams generated by the content provider 111 with a predetermined character. The real-time character streaming content may be content including a video stream in which the facial expression, motion, and sound information of the character is generated based on the subject's facial expression, motion, and sound information. For example, content providers can create video content by taking a picture of themselves with their respective smartphones, and the captured videos are replaced with character image video instead of the content provider's image video and provided in streaming form to viewers Video content. The content provider group 103 is a subject providing content, and may include, for example, a terminal transmitting a captured image for generating content and a subject that is a target of the captured image. The content viewer group 104 is a group associated with a subject who views content, and may include, for example, terminals that play or display real-time character streaming content and subjects who view or communicate content through the terminals. Here, for convenience, the content providing subject in the content provider group 103 is shown as a single one, but is not limited thereto, and may include a plurality of subjects.

일실시예에 따른 시스템의 주체는 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.The subject of the system according to an embodiment may be an electronic device including a communication function. For example, the electronic device includes a smart phone, a tablet personal computer (PC), a mobile phone, a video phone, an e-book reader, a desktop personal computer (PC), and a laptop. Laptop personal computer (PC), netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, camera, or wearable device (e.g. It may include at least one of a head-mounted-device (HMD) such as electronic glasses, an electronic garment, an electronic bracelet, an electronic necklace, an electronic appcessory, an electronic tattoo, a smart car, or a smart watch. Can be.

일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to one embodiment, the electronic device may be a smart home appliance with a communication function. For smart home appliances, for example, electronic devices are televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, cleaners, ovens, microwaves, washing machines, air cleaners, set-top boxes, TVs. It may include at least one of a box (eg, Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game consoles, electronic dictionaries, electronic keys, camcorders, or electronic picture frames.

일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device includes various medical devices (eg, magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), photographing device, ultrasound device, etc.), navigation device, GPS receiver ( Global positioning system receiver (EDR), event data recorder (EDR), flight data recorder (FDR), automotive infotainment devices, marine electronic equipment (e.g. marine navigation devices and gyro compasses, etc.), avionics, security It may include at least one of a device, a head unit for a vehicle, an industrial or household robot, an automatic teller's machine (ATM) of a financial institution, or a point of sales (POS) of a store.

일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 유저라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.According to one embodiment, the electronic device is a furniture or part of a building / structure including a communication function, an electronic board, an electronic signature receiving device, a projector, or various measurement devices. It may include at least one of a device (for example, water, electricity, gas, or radio wave measurement devices). The electronic device according to an embodiment may be a combination of one or more of the various devices described above. Also, the electronic device according to an embodiment may be a flexible device. Also, it is apparent to those skilled in the art that the electronic device according to an embodiment is not limited to the above-described devices. The term user used in various embodiments may refer to a person using an electronic device or a device using an electronic device (eg, an artificial intelligence electronic device).

일실시예에 따른 전자 장치는 프로세서, 메모리, 유저 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크(102)를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크(102)는 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 제공 시스템 내 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 시스템 내 주체들은 네트워크(102)를 통해 서로 통신할 수 있고, 네트워크(102)는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(102)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), WCDMA(Wideband Code Division Multiple Access), WiBro(Wireless Broadband), 3G(3rd Generation), LTE(Long-Term Evolution), WiMAX(Worldwide Interoperability for Microwave Acces) 및 5G(5th generation)등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다. An electronic device according to an embodiment includes a processor, a memory, a user interface, and a communication interface, and may be connected to another electronic device through the network 102. The communication interface may transmit and receive data to and from other electronic devices within a predetermined distance through a wired, wireless network, or wired serial communication. The network 102 enables wired and wireless communication between various entities in a real-time character streaming content providing system according to an embodiment. The subjects in the system can communicate with each other through the network 102, and the network 102 can use standard communication technologies and / or protocols. At this time, the network 102 is the Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), WCDMA (Wideband Code Division Multiple Access) , WiBro (Wireless Broadband), 3G (3rd Generation), LTE (Long-Term Evolution), WiMAX (Worldwide Interoperability for Microwave Acces) and 5G (5th generation). Anyone with ordinary knowledge in the field of telecommunications technology knows that it can be any other kind of network.

일실시예에 따른 네트워크(102)에는 5G 규격이 채용되어, 시스템 내 주체들은 360도 웨어러블 카메라, 드론과 같은 다양한 장비를 이용한 고화질 영상을 방송할 수 있고, 5G 통신 규격은 초고속 대용량 네트워크를 통해 대용량 데이터 전송과 고 해상도 영상 서비스를 지원할 수 있다. 5G의 특성은 초고속(Enhanced Mobile Broadband), 초저지연(Ultra-Reliable and Low Latency Communication), 초연결(Massive Machine Type Communication)로 요약된다. 5G는 데이터 전송량이 큰 고주파 대역을 사용하여 더 많은 데이터를 빠르게 전송할 수 있고, 4G(LTE)와 비교해 체감 속도가 10배 더 빠를 수 있다. 시스템 내 주체들은 초고화질 영상이나 VR/AR 같은 대용량 콘텐츠를 빠르게 송수신할 수 있고, 즉각적인 응답과 반응을 통해 실시간 서비스를 구현할 수 있으며, 인터넷에 연결될 수 있는 단말과 센서 수를 크게 늘려 대규모 IoT 환경을 구현할 수 있다.The network 102 according to an embodiment adopts a 5G standard, so that subjects in the system can broadcast a high-definition image using various equipment such as a 360-degree wearable camera and a drone, and the 5G communication standard has a large capacity through an ultra-high-speed large-capacity network. It can support data transmission and high resolution video service. The characteristics of 5G are summarized into ultra-high-speed (enhanced mobile broadband), ultra-reliable and low latency communication, and massive machine type communication. 5G can transmit more data faster by using a high-frequency band with a large amount of data transmission, and can experience 10 times faster sensation speed compared to 4G (LTE). Subjects in the system can transmit and receive large-scale content such as ultra-high-definition video or VR / AR quickly, implement real-time services through instant response and response, and greatly increase the number of terminals and sensors that can be connected to the Internet to create a large-scale IoT environment. Can be implemented.

일실시예에 따르면, 콘텐츠 제공자 그룹(103)은 콘텐츠 제공자(111)를 포함한다. 콘텐츠 제공자(111)는 촬영의 대상이 될 수 있는데, 예를 들어 캐릭터의 이미지를 이용하여 시청자들과 소통하고자 하는 크리에이터, 캐릭터를 홍보하기 위한 캐릭터 창작자, 또는 익멱성을 위해 캐릭터를 이용하는 콘텐츠 제작자일 수 있다. 콘텐츠 제공자(111)는 콘텐츠 촬영 장치(131)를 통해 영상을 촬영하고, 콘텐츠 제공 단말(121)을 통해 서버(101)에 접속하여, 자신의 촬영 영상을 시청자들에게 스트리밍으로 제공할 수 있다. 또는, 콘텐츠 제공자(111)는 시간과 장소에 관계없이 콘텐츠 제공 단말(121) 만을 이용하여 자신의 영상을 촬영하고, 촬영 영상들을 네트워크(102)를 통해 시청자들에게 제공할 수 있다. According to one embodiment, the content provider group 103 includes a content provider 111. The content provider 111 may be an object of shooting, for example, a creator who wants to communicate with viewers using an image of a character, a character creator for promoting a character, or a content creator using a character for excellence have. The content provider 111 photographs an image through the content photographing device 131 and connects to the server 101 through the content providing terminal 121 to provide its own photographed image as streaming to viewers. Alternatively, the content provider 111 may take an image of itself using only the content providing terminal 121 regardless of time and place, and provide the captured images to viewers through the network 102.

일실시예에 따르면, 콘텐츠 시청자 그룹(104)은 콘텐츠 시청자들(141, 142 및 143)을 포함한다. 콘텐츠 시청자들(141, 142 및 143)은 콘텐츠 제공 단말(121)로부터 전송되는 영상 스트림을 선택하고, 촬영 영상 스트림의 주체가 캐릭터로 대체되어 생성된 캐릭터 영상 스트림을 콘텐츠 시청 단말들(151, 152 및 153)을 통해 시청할 수 있다. 예를 들어, 콘텐츠 시청자들(141, 142 및 143)은 촬영 주체 대신 자신이 좋아하는 캐릭터가 주체가 되어 생성된 영상 스트림을 시청하고자 하는 캐릭터의 팬들일 수 있다. 콘텐츠 시청자들(141, 142 및 143)은 콘텐츠 시청 단말들(151, 152 및 153)을 통해 서버(101)로 접속하고, 콘텐츠 제공자(111)가 촬영하여 생성된 영상 스트림을 콘텐츠 시청 단말들(151, 152 및 153)로 송신받아 시청할 수 있다. 예를 들어, 콘텐츠 시청자들(141, 142 및 143)은 콘텐츠 제공자(111)를 포함하는 다수의 콘텐츠 제공자들(미도시)에 각각 대응하는 촬영 영상 스트림들 중 자신이 선호하는 캐릭터로 대체된 영상 스트림을 선택하여 시청할 수 있다. According to one embodiment, content viewer group 104 includes content viewers 141, 142 and 143. The content viewers 141, 142, and 143 select the video stream transmitted from the content providing terminal 121, and the subject video stream generated by replacing the subject of the captured video stream with a character is the content viewing terminals 151, 152, and 153). For example, the content viewers 141, 142, and 143 may be fans of a character who wants to watch the video stream generated by the character of his or her favorite character instead of the subject. Content viewers 141, 142, and 143 connect to the server 101 through the content viewing terminals 151, 152, and 153, and view the video stream generated by the content provider 111 by the content viewing terminals 151 , 152 and 153). For example, the content viewers 141, 142, and 143 are video streams replaced by their favorite characters among the video streams respectively corresponding to a plurality of content providers (not shown) including the content provider 111. You can watch by selecting.

일실시예에 따르면, 콘텐츠 제공자(111)는 촬영 영상 스트림의 주체의 키워드, 표정 및 동작에 따라 스트리밍 되는 캐릭터의 표정 및 동작이 변화되는 동영상 콘텐츠를 제공하기 위한 촬영 영상 스트림을 제공할 수 있으며, 콘텐츠 시청자들(141, 142 및 143)은 촬영 영상 스트림의 주체의 역량에 따라 실시간으로 변화되는 캐릭터를 체험할 수 있다. 본 개시에 따른 동영상 콘텐츠를 제공하는 시스템은 콘텐츠 제공자가 제공한 촬영 영상 스트림의 주체의 표정, 동작 및 소리 등을 캐릭터의 표정, 동작 및 소리 등으로 대체한 영상 스트림을 생성할 수 있으며, 이 때 대체된 영상 스트림의 주체는 캐릭터가 될 수 있다. According to an embodiment, the content provider 111 may provide a captured video stream for providing video content in which the facial expression and motion of a character streamed according to the keyword, facial expression, and motion of the subject of the captured video stream are changed. Content viewers 141, 142, and 143 can experience characters that change in real time according to the capabilities of the subject of the captured video stream. The system for providing video content according to the present disclosure can generate a video stream in which the expression, motion, and sound of the subject of the photographed video stream provided by the content provider are replaced with the facial expression, motion, and sound of the character. The subject of the replaced video stream can be a character.

일 실시예에 따르면, 콘텐츠 제공자(111)는 모션 캡쳐(motion capture) 기능을 수행하는 프로세서, 메모리 및 통신부가 포함된 하드웨어 장비(이하 '모션 캡쳐 장비')를 신체의 일부에 착용하여 캐릭터 영상 스트림을 촬영할 수 있다. 모션 캡쳐 장비의 메모리에는 실시간 동영상 촬영 어플리케이션(application)이 저장되어, 프로세서에 의해 어플리케이션이 실행될 수 있고, 실행된 실시간 동영상 촬영 어플리케이션은 face rigging 기술을 이용하여, 캐릭터 영상 스트림을 생성할 수 있다. 실시간 동영상 촬영 어플리케이션은 모션 캡쳐 장비에 포함된 이미지 센서를 이용하여 이미지 데이터들을 획득할 수 있고, 획득한 이미지 데이터들에 기초하여 캐릭터 영상 스트림을 생성할 수 있는 캐릭터 영상 스트림 생성 모듈, 앱 안에서 구매 활동을 가능하게 하는 인앱 모듈을 포함할 수 있다. 생성된 캐릭터 영상 스트림은 통신부에 의해 통신 채널이 확립된 콘텐츠 시청자들(141, 142 및 143)의 콘텐츠 시청 단말들(151, 152 및 153)로 생성된 캐릭터 영상 스트림을 송신할 수 있다. According to an embodiment, the content provider 111 wears hardware equipment (hereinafter referred to as 'motion capture equipment') including a processor, a memory, and a communication unit that performs a motion capture function to a part of the body to stream a character image Can shoot. A real-time video shooting application is stored in the memory of the motion capture device, and the application can be executed by a processor, and the executed real-time video shooting application can generate a character video stream using face rigging technology. The real-time video shooting application can acquire image data using the image sensor included in the motion capture device, and generate a character video stream based on the acquired image data. It may include an in-app module that enables. The generated character video stream may transmit the generated character video stream to the content viewing terminals 151, 152, and 153 of the content viewers 141, 142, and 143 whose communication channel is established by the communication unit.

일 실시예에 따르면, 콘텐츠 제공자(111)는 자신의 방, 자신의 차량, 영상 제작 전문 스튜디오 등 물리적으로 서로 동떨어진 공간에서 실시간 동영상 촬영 어플리케이션이 구비된 모션 캡쳐 장비를 자신의 신체의 일부(예를 들어, 머리)에 착용하여, 캐릭터 영상 스트림을 콘텐츠 시청자들(41, 142 및 143)에게 제공할 수 있다. 이처럼, 콘텐츠 제공자(111)는 모션 캡쳐 장비를 이용함으로써 시간과 정소에 구애 받지 않고 손쉽게 캐릭터 영상 스트림을 생성할 수 있으며, 콘텐츠 시청자들(141, 142 및 143)과 실시간으로 상호작용할 수 있다. 또한, 실시간 동영상 촬영 어플리케이션이 구비된 모션 캡쳐 장비는 콘텐츠 제공자들의 캐릭터 콘텐츠 제작에 대한 접근성을 높일 수 있다.According to an embodiment, the content provider 111 may provide a motion capture device equipped with a real-time video recording application in a space physically separated from each other, such as his room, his vehicle, and a studio specialized in video production (for example, a part of his body). For example, it can be worn on the head) to provide a character video stream to content viewers 41, 142, and 143. As described above, the content provider 111 can easily generate a character video stream regardless of time and stop by using the motion capture equipment, and can interact with the content viewers 141, 142, and 143 in real time. In addition, a motion capture device equipped with a real-time video shooting application can increase the accessibility of content providers to character content production.

일 실시예에 따르면, 촬영 영상 스트림의 주체의 특정 동작 또는 키워드에 따라 캐릭터가 삽입, 변경, 제거, 또는 재삽입될 수 있다. 예를 들어, 콘텐츠 제공자(111)의 O 표시 손동작에 의해 콘텐츠 제공자의 이미지에 캐릭터 이미지가 삽입되어 스트리밍 콘텐츠의 주체가 캐릭터로 대체될 수 있고, 콘텐츠 제공자(111)의 박수 한 번 치는 동작에 의해 캐릭터가 변경될 수 있고, 콘텐츠 제공자(111)의 X 표시 손동작에 의해 캐릭터가 제거될 수 있으며, 콘텐츠 제공자(111)의 박수 두 번 치는 동작에 의해 제거된 캐릭터가 재삽입될 수 있다. According to an embodiment, a character may be inserted, changed, removed, or reinserted according to a specific operation or keyword of the subject of the captured video stream. For example, a character image may be inserted into the image of the content provider by the O display hand gesture of the content provider 111, and the subject of the streaming content may be replaced with the character, and the content provider 111 may clap once. The character may be changed, the character may be removed by the X display hand gesture of the content provider 111, and the removed character may be reinserted by the applause twice clapping action of the content provider 111.

일 실시예에 따르면, 콘텐츠 시청자들(141, 142 및 143)은 캐릭터 선택 모드에 따라 선호하는 캐릭터를 선택할 수 있고, 각각의 콘텐츠 시청자들이 선택한 캐릭터들이 영상 스트림의 주체가 되는 동영상 콘텐츠를 시청할 수 있다. 즉, 콘텐츠 제공자(111)가 촬영하는 동일한 동영상 콘텐츠에 대해, 콘텐츠 시청자들(141, 142 및 143)의 시청 단말(151, 152 및 153)에 스트리밍 되는 동영상 콘텐츠는 선택한 캐릭터의 종류에 따라 각각 서로 상이할 수 있다. 이렇듯, 촬영된 영상 스트림 주체의 표정, 동작 및 소리가 동일하더라도 콘텐츠 시청자(141, 142 및 143)가 선택한 캐릭터에 따라 상이한 콘텐츠가 생성될 수 있어, 시청자들 각각의 캐릭터 선호도에 맞는 개별적인 체험감을 제공할 수 있다. According to an embodiment, the content viewers 141, 142, and 143 may select a preferred character according to the character selection mode, and the characters selected by each content viewer may watch video content that is the subject of the video stream. That is, for the same video content shot by the content provider 111, the video content streamed to the viewing terminals 151, 152, and 153 of the content viewers 141, 142, and 143 are different from each other according to the type of the selected character can do. As such, even if the expression, motion, and sound of the subject of the recorded video stream are the same, different contents may be generated according to the characters selected by the content viewers 141, 142, and 143, thereby providing an individual experience that suits each character preference of the viewers. Can be.

일 실시예에 따르면, 콘텐츠 시청자들(141, 142 및 143)은 콘텐츠 제공자(111)에 의해 생성된 촬영 영상을 기반으로 생성된 캐릭터 동영상 콘텐츠를 일률적 및 일방향적으로 시청하는데 그치지 않고, 스트리밍되고 있는 캐릭터와 상호 작용하여 새로운 콘텐츠를 생성할 수 있다. 예를 들어, 콘텐츠 시청자들(141, 142 및 143)은 자신이 선호하는 캐릭터에 관한 영상을 스트리밍하는 콘텐츠 제공자(111)의 영상을 선택하여 시청하고, 시청하고 있는 캐릭터의 미리 정해진 동작에 대응하여 미리 정해진 응답 동작을 수행할 수 있다. 콘텐츠 처리 장치는 시청 단말(151, 152 및 153)의 이미지 센서 또는 모션 캡쳐 장비에 의해 미리 정해진 응답 동작을 인식하고, 콘텐츠 시청자들(141, 142 및 143)이 수행한 미리 정해진 응답 동작의 각각의 내용에 따라 상이한 영상 스트림을 생성하여, 시청자들의 상호작용 여부에 따라 캐릭터 스트리밍 콘텐츠가 달라질 수 있다. 이렇듯, 실시예들은 캐릭터의 표정, 동작 및 소리에 상호작용할 수 있는 콘텐츠를 제공하여, 콘텐츠 시청자들(141, 142 및 143) 별로 차별화된 콘텐츠를 제공하고, 콘텐츠 제공자와 개별적으로 소통하는 체험감을 제공할 수 있다.According to one embodiment, the content viewers 141, 142, and 143 are not just watching the character video content generated based on the captured image generated by the content provider 111, but are being streamed, and the character being streamed. You can interact with and create new content. For example, the content viewers 141, 142, and 143 select and watch the video of the content provider 111 that streams the video related to their favorite character, and previews the video in response to a predetermined operation of the character being watched. It is possible to perform a predetermined response operation. The content processing apparatus recognizes a predetermined response operation by the image sensor or motion capture equipment of the viewing terminals 151, 152 and 153, and each content of the predetermined response operation performed by the content viewers 141, 142 and 143 Depending on whether or not viewers interact with each other, character streaming content can be generated by generating different video streams. As such, the embodiments provide content that can interact with the character's facial expressions, movements, and sounds to provide differentiated content for each content viewer (141, 142, and 143), and provide an experience of individually communicating with the content provider. Can be.

일 실시예에 따르면, 콘텐츠 시청자들(141, 142 및 143)의 그룹(104)은 스트리밍되고 있는 캐릭터와 상호 작용하여 새로운 콘텐츠를 생성할 수 있다. 예를 들어, 콘텐츠 시청자들의 그룹(104)은 동일한 캐릭터를 선택한 시청자들의 그룹일 수 있고, 시청하고 있는 캐릭터의 미리 정해진 동작에 대응하여 미리 정해진 응답 동작을 수행할 수 있다. 이 때, 캐릭터의 소정에 동작에 대응하여 응답 동작을 수행한 시청자의 수와 콘텐츠 시청자들의 그룹(104)에 속하는 총 콘텐츠 시청자들 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 경우, 응답 동작에 대응하여 새로운 캐릭터 콘텐츠를 생성할 수 있다. 이렇듯, 실시예들은 캐릭터에 관한 새로운 콘텐츠를 소비하기 위해, 시청자들의 과반수 이상의 참여를 유도할 수 있다. According to one embodiment, a group 104 of content viewers 141, 142, and 143 may interact with the character being streamed to generate new content. For example, the group of content viewers 104 may be a group of viewers who have selected the same character, and may perform a predetermined response action in response to a predetermined action of the character being watched. At this time, when the ratio of the number of viewers who have performed a response action corresponding to a predetermined action of the character and the total number of content viewers belonging to the group 104 of content viewers is greater than or equal to a predetermined ratio (for example, a majority) In response to the operation, new character content can be generated. As such, embodiments may induce more than a majority of viewers to participate in order to consume new content about the character.

일 실시예에 따르면, 콘텐츠 시청자들(141, 142 및 143)은 캐릭터 선택 모드에 의해 콘텐츠 제공자(111)가 선택한 캐릭터와 상호작용 할 수 있는 미리 정해진 캐릭터들 중 일 캐릭터를 선택할 수 있다. 콘텐츠 시청자들(141, 142 및 143)은 선택한 캐릭터에 기초하여 그룹화될 수 있고, 그룹화된 콘텐츠 시청자들 각각은 캐릭터의 미리 정해진 동작에 응답하는 응답 동작을 수행할 수 있다. 그룹화된 콘텐츠 시청자들 총 수 중 응답 동작을 수행한 시청자들의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 경우, 응답 동작에 대응하는 새로운 캐릭터 스트리밍 콘텐츠가 생성될 수 있다. 이렇듯, 실시예들은 캐릭터에 관한 새로운 콘텐츠를 소비하기 위해, 시청자들을 선택한 캐릭터로 그룹화하고, 그룹화된 시청자들의 과반수 이상의 참여를 유도할 수 있다.According to an embodiment, the content viewers 141, 142, and 143 may select a character from among predetermined characters capable of interacting with a character selected by the content provider 111 by a character selection mode. Content viewers 141, 142, and 143 may be grouped based on a selected character, and each grouped content viewer may perform a response action in response to a predetermined action of the character. When the ratio of the number of viewers performing the response operation among the total number of grouped content viewers is equal to or greater than a predetermined ratio (eg, a majority or more), new character streaming content corresponding to the response operation may be generated. As such, embodiments may group viewers into selected characters and induce more than a majority of the grouped viewers to consume new content related to the character.

일실시예에 따르면, 콘텐츠 제공 단말(121)과 콘텐츠 시청 단말들(151, 152 및 153)에는 실시간 캐릭터 스트리밍 콘텐츠를 제공하기 위한 프로그램이 설치될 수 있다. 설치된 프로그램에 따라 실시간 캐릭터 스트리밍 콘텐츠 서비스가 제공되기 위한 정보의 송수신, 명령의 처리, 정보의 기록이 수행될 수 있다. 실시간 캐릭터 스트리밍 콘텐츠 처리 장치는 실시간 캐릭터 스트리밍 콘텐츠를 제공하기 위한 동작들을 수행하는 장치로서, 서버(101), 콘텐츠 제공 단말(121)과 콘텐츠 시청 단말들(151, 152 및 153) 중 적어도 하나 또는 이들의 조합으로 구현될 수 있다. 서버(101)의 동작은 앞서 상술한 모션 캡쳐 장비의 동작을 포함할 수 있다. 실시간 캐릭터 스트리밍 콘텐츠 처리 장치가 수행하는 동작은 서버(101)의 동작일 수 있지만, 상술한 바와 같이 서버(101), 콘텐츠 제공 단말(121)과 콘텐츠 시청 단말들(151, 152 및 153) 중 적어도 하나에 의한 연계 동작일 수도 있다. 이하, 도 2 내지 도 15를 참조하여 실시간 캐릭터 스트리밍 콘텐츠가 제공되는 실시예가 설명된다. According to an embodiment, a program for providing real-time character streaming content may be installed in the content providing terminal 121 and the content viewing terminals 151, 152 and 153. Depending on the installed program, real-time character streaming content service transmission and reception of information, processing of commands, and recording of information may be performed. The real-time character streaming content processing device is a device that performs operations for providing real-time character streaming content, and includes at least one of the server 101, the content providing terminal 121, and the content viewing terminals 151, 152, and 153, or It can be implemented in combination. The operation of the server 101 may include the operation of the motion capture device described above. The operation performed by the real-time character streaming content processing device may be the operation of the server 101, but as described above, at least one of the server 101, the content providing terminal 121, and the content viewing terminals 151, 152, and 153. It may be a linked operation by one. Hereinafter, an embodiment in which real-time character streaming content is provided will be described with reference to FIGS. 2 to 15.

도 2는 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method for processing real-time character streaming content according to an embodiment.

일실시예에 따르면, 실시간 캐릭터 스트리밍 콘텐츠 처리 장치는 실시간 캐릭터 스트리밍 콘텐츠의 제공을 위한 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성할 수 있다(201). 실시간 캐릭터 스트리밍 콘텐츠 처리 장치(이하, 콘텐츠 처리 장치라 함)는 실시간으로 캐릭터 영상 스트림을 제공하는 장치로서, 예를 들어 소프트웨어 모듈, 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다. 캐릭터 스트리밍 콘텐츠는 촬영 영상 스트림의 주체를 캐릭터로 대체하여 생성된 영상 스트림일 수 있다. 상술한 바와 같이, 콘텐츠 처리 장치는 네트워크를 통해 접속이 가능한 서버로 구현될 수 있으나, 서버와 통신이 가능한 단말과 서버의 조합으로 구현될 수도 있다. 콘텐츠 처리 장치는 서버 및 단말에 설치된 프로그램에 의해 실행되는 명령들을 수행할 수 있다.According to an embodiment, the real-time character streaming content processing apparatus may generate a content providing channel and a content viewing channel for providing real-time character streaming content (201). A real-time character streaming content processing device (hereinafter referred to as a content processing device) is a device that provides a character video stream in real time, and may be implemented by, for example, a software module, a hardware module, or a combination thereof. The character streaming content may be a video stream generated by replacing the subject of the captured video stream with a character. As described above, the content processing apparatus may be implemented as a server that can be accessed through a network, but may also be implemented as a combination of a terminal and a server capable of communicating with a server. The content processing apparatus may execute instructions executed by programs installed on the server and the terminal.

일실시예에 따르면, 콘텐츠 제공 채널은 콘텐츠 제공자들이 콘텐츠 제공 단말들을 통해 서버에 접속하기 위한 채널로서, 콘텐츠 제공자의 촬영 영상 스트림은 콘텐츠 제공 채널을 통해 콘텐츠 제공 단말로부터 전송될 수 있다. 콘텐츠 시청 채널은 콘텐츠 시청자들이 콘텐츠 시청 단말들을 통해 서버에 접속하기 위한 채널로서, 콘텐츠 제공자의 촬영 영상 스트림은 콘텐츠 시청 채널을 통해 콘텐츠 시청 단말로 전송될 수 있다. 콘텐츠 처리 장치는 네트워크를 통해 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성하고, 단말들의 접속을 위해 세션을 유지할 수 있다. 콘텐츠 제공 단말과 콘텐츠 시청 단말은 생성된 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 통해 정보를 송수신할 수 있다.According to an embodiment, the content providing channel is a channel for content providers to access the server through the content providing terminals, and the captured video stream of the content provider may be transmitted from the content providing terminal through the content providing channel. The content viewing channel is a channel for content viewers to access the server through the content viewing terminals, and the captured video stream of the content provider may be transmitted to the content viewing terminal through the content viewing channel. The content processing device may create a content providing channel and a content viewing channel through a network, and maintain a session for access of terminals. The content providing terminal and the content viewing terminal can transmit and receive information through the generated content providing channel and the content viewing channel.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자들의 콘텐츠 제공 단말들로부터 콘텐츠 제공 채널을 통한 접속들을 인식할 수 있다(202). 콘텐츠 처리 장치는 세션 수립을 위한 채널을 유지할 수 있고, 해당 채널은 특정 캐릭터에 대응할 수 있다. 콘텐츠 처리 장치는 특정 캐릭터로 분류되는 콘텐츠 제공자의 콘텐츠 제공 단말이 대응하는 채널을 통해 접속하는지 여부를 인식하고, 인식된 콘텐츠 제공 단말을 식별할 수 있다.According to an embodiment, the content processing apparatus may recognize connections through content providing channels from content providing terminals of content providers (202). The content processing device may maintain a channel for establishing a session, and the channel may correspond to a specific character. The content processing apparatus may recognize whether a content providing terminal of a content provider classified as a specific character accesses through a corresponding channel, and identify the recognized content providing terminal.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자로부터 콘텐츠 제공 단말을 통해 미리 정해진 캐릭터 제작자들이 제공한 캐릭터들 중 하나에 대한 선택 입력을 수신할 수 있다(203). 콘텐츠 제공 단말로부터 콘텐츠 제공 채널을 통한 접속을 인식한 후, 콘텐츠 제공자는 콘텐츠 처리 장치 또는 콘텐츠 제공 단말에 설치된 실시간 캐릭터 스트리밍 콘텐츠를 제공하기 위한 프로그램(이하 '실시간 캐릭터 스트리밍 프로그램')으로부터 캐릭터 제작자들에 의해 제작된 캐릭터들 중 하나에 대한 선택 또는 우선 순위 선택을 요청받을 수 있다. 요컨대, 이는 캐릭터 선택 모드로 지칭될 수 있으며, 콘텐츠 제공자는 캐릭터 선택 모드에 따라 캐릭터를 선택하거나 캐릭터에 대한 우선 순위를 선택할 수 있고, 콘텐츠 처리 장치는 해당 캐릭터에 대한 선택 입력을 수신할 수 있다.According to an embodiment, the content processing apparatus may receive a selection input for one of characters provided by predetermined character producers through a content providing terminal from a content provider (203). After recognizing the connection through the content providing channel from the content providing terminal, the content provider provides the character producers with a content processing device or a program for providing real-time character streaming content installed in the content providing terminal (hereinafter referred to as 'real-time character streaming program'). It may be asked to select or select a priority for one of the characters produced by. In short, this may be referred to as a character selection mode, and a content provider may select a character according to the character selection mode or select a priority for the character, and the content processing device may receive a selection input for the character.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 시청자들의 콘텐츠 시청 단말들로부터 콘텐츠 시청 채널을 통한 접속들을 인식할 수 있다(204). 콘텐츠 처리 장치는 세션 수립을 위한 채널을 유지할 수 있고, 해당 채널은 콘텐츠 제공자들이 선택한 캐릭터에 대응할 수 있다. 콘텐츠 처리 장치는 콘텐츠 제공자들이 선택한 캐릭터에 대응하는 그룹으로 분류되는 콘텐츠 시청자들의 시청 단말들이 그 캐릭터와 대응하는 채널을 통해 접속하는지 여부를 인식하고, 인식된 콘텐츠 시청 단말들을 식별할 수 있다. 콘텐츠 제공 채널과 콘텐츠 시청 채널은 서로 매칭될 수 있고, 콘텐츠 처리 장치는 서로 매칭된 콘텐츠 제공 채널과 콘텐츠 시청 채널을 통해 콘텐츠 제공 단말과 콘텐츠 시청 단말들을 연결할 수 있다.According to an embodiment, the content processing apparatus may recognize connections through content viewing channels from content viewing terminals of content viewers (204). The content processing device may maintain a channel for establishing a session, and the channel may correspond to a character selected by content providers. The content processing apparatus may recognize whether the viewing terminals of content viewers classified into groups corresponding to the characters selected by the content providers access through the channel corresponding to the character, and identify the recognized content viewing terminals. The content providing channel and the content viewing channel may be matched with each other, and the content processing device may connect the content providing terminal and the content viewing terminals through the matched content providing channel and the content viewing channel.

일 실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자의 촬영 영상 스트림을 콘텐츠 제공 단말로부터 수신할 수 있다(205). 콘텐츠 제공자는 이미지 센서를 활용하여 영상을 촬영하고, 콘텐츠 제공 단말은 실시간으로 촬영된 영상 스트림을 콘텐츠 제공 채널을 통해 전송하고, 콘텐츠 처리 장치는 콘텐츠 제공자로부터 송신된 촬영 영상 스트림들을 수신할 수 있다. According to an embodiment, the content processing apparatus may receive a captured video stream of the content provider from the content providing terminal (205). The content provider may take an image using an image sensor, the content providing terminal transmits the video stream shot in real time through the content providing channel, and the content processing apparatus may receive the captured video streams transmitted from the content provider.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자로부터 수신한 촬영 영상 스트림의 주체를 콘텐츠 제공자가 선택한 캐릭터로 대체하여 생성된 영상 스트림을 콘텐츠 시청 단말로 송신할 수 있다(206). 콘텐츠 시청 단말은 콘텐츠 제공자와 매칭된 채널을 통해 실시간으로 캐릭터에 대한 영상 스트림을 수신하여 재생할 수 있다. 예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자가 선택한 캐릭터 A를 영상 스트림의 촬영 주체(예컨대, 콘텐츠 제공자가 본인을 촬영한 경우 콘텐츠 제공자)의 이미지를 대체하여, 캐릭터 A가 영상 스트림의 촬영 주체가 된 캐릭터 영상 스트림을 생성할 수 있으며, 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 캐릭터의 표정, 동작 및 소리 정보가 생성될 수 있다. 콘텐츠 시청자들은 실제 촬영 주체가 아닌 캐릭터 A가 촬영 주체가 된 영상 스트림을 시청할 수 있다. 캐릭터 영상 스트림의 생성은 face rigging 기술을 활용한 캐릭터 영상 스트림 생성 프로그램에 의해 수행될 수 있으며, 캐릭터 영상 스트림 생성 프로그램은 콘텐츠 처리 장치의 메모리에 저장되어 있거나 콘텐츠 처리 장치의 외부 서버에 저장되어 콘텐츠 처리 장치의 통신부(미도시)와 통신적으로 결합되어 캐릭터 영상 스트림을 생성할 수 있다. According to an embodiment, the content processing apparatus may transmit the generated video stream to the content viewing terminal by replacing the subject of the captured video stream received from the content provider with a character selected by the content provider (206). The content viewing terminal may receive and play a video stream for a character in real time through a channel matched with a content provider. For example, the content processing apparatus replaces the image of the subject A selected by the content provider with the subject of the video stream (e.g., the content provider if the content provider photographed himself), so that the character A becomes the subject of the video stream. A character image stream may be generated, and the facial expression, operation, and sound information of the character may be generated based on the subject's facial expression, motion, and sound information. Content viewers can watch the video stream where the character A is not the actual shooting subject but the shooting subject. The generation of the character image stream may be performed by a character image stream generation program utilizing face rigging technology, and the character image stream generation program may be stored in the memory of the content processing device or stored in an external server of the content processing device to process the content. A character image stream may be generated by being communicatively coupled with a communication unit (not shown) of the device.

한편, 캐릭터 제작자들은 실시간 캐릭터 스트리밍 프로그램에 캐릭터를 공급하는 주체로서, 실사용자들에 의해 직접 제작된 캐릭터, 라이선스를 받은 캐릭터(licensed character), 및 기본으로 제공되는 캐릭터(default character) 중 하나를 제공할 수 있다. 콘텐츠 제공자들은 캐릭터 선택에 따라 해당 캐릭터를 제작한 캐릭터 제작자에게 비용을 지불하도록 과금될 수 있다. 예를 들어, 라이선스를 받은 캐릭터를 사용함에 있어, 콘텐츠 제공자들이 선택한 캐릭터에 대해 사용에 대한 정당한 권한이 없을 경우 해당 캐릭터에 대한 사용료를 제작자에게 지급할 수 있고, 기본으로 제공되는 캐릭터를 사용할 경우, 콘텐츠 제공자들은 무료로 해당 캐릭터를 콘텐츠 제작에 사용할 수 있다. 한편, 콘텐츠 제공자들은 촬영 주체의 이미지에 부합하는 새로운 캐릭터를 직접 제작하여 콘텐츠 제작에 사용할 수도 있다. On the other hand, character producers provide characters to real-time character streaming programs, and provide characters created directly by real users, licensed characters, and default characters. can do. Content providers may be charged to pay the character creator who produced the character according to the character selection. For example, in the case of using the licensed character, if the content providers do not have a legitimate right to use the selected character, the usage fee for the character can be paid to the producer, and when using the basically provided character, Content providers can use the character for content creation for free. On the other hand, content providers can directly create new characters that match the subject's image and use them for content creation.

도 3은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다.3 is a view for explaining a method of processing real-time character streaming content according to an embodiment.

일실시예에 따르면, 콘텐츠 처리 장치는 실시간 캐릭터 스트리밍 콘텐츠 서비스를 제공하기 위해, 콘텐츠 제공 채널들 및 콘텐츠 시청 채널들을 생성할 수 있다. 콘텐츠 제공 채널들 및 콘텐츠 시청 채널들은 네트워크(307)를 통해 연결될 수 있다. 콘텐츠 제공 채널들 및 콘텐츠 시청 채널들은 서로 각각 매칭되어 연결될 수 있다.According to an embodiment, the content processing apparatus may generate content providing channels and content viewing channels in order to provide a real-time character streaming content service. The content providing channels and the content viewing channels can be connected through the network 307. The content providing channels and the content viewing channels may be matched to each other and connected.

일실시예에 따르면, 콘텐츠 처리 장치는 제1 콘텐츠 제공자(301)의 제1 콘텐츠 제공 단말로부터 제1 콘텐츠 제공 채널을 통한 접속들을 인식할 수 있다. According to an embodiment, the content processing apparatus may recognize connections through the first content providing channel from the first content providing terminal of the first content provider 301.

일실시예에 따르면, 콘텐츠 처리 장치는 제1 콘텐츠 시청자들(304)의 제1 콘텐츠 시청 단말들로부터 제1 콘텐츠 시청 채널을 통한 접속들을 인식할 수 있다. 제1 콘텐츠 시청자들(304)은 그룹화되어 캐릭터 스트리밍 콘텐츠를 시청하는 주체로 분류될 수 있다. 콘텐츠 처리 장치는 제1 콘텐츠 제공자(301)의 촬영 영상 스트림들에 기초하여 생성된 캐릭터 영상 스트림을 제1 콘텐츠 시청 채널을 통해 제1 콘텐츠 시청자들(304)의 제1 콘텐츠 시청 단말들로 제공할 수 있다. 예를 들어, 제1 콘텐츠 제공자(301)는 캐릭터 A를 홍보하기 위한 주체일 수 있고, 제1 콘텐츠 시청자들(304)은 캐릭터 A를 선호하는 팬들의 그룹일 수 있으며, 콘텐츠 처리 장치는 제1 콘텐츠 제공 채널과 제1 콘텐츠 시청 채널을 연결하여 콘텐츠 제공자와 시청자 사이의 상호작용을 가능하게 할 수 있다.According to an embodiment, the content processing apparatus may recognize connections through the first content viewing channel from the first content viewing terminals of the first content viewers 304. The first content viewers 304 may be grouped and classified as subjects who watch character streaming content. The content processing device may provide the character video stream generated based on the captured video streams of the first content provider 301 to the first content viewing terminals of the first content viewers 304 through the first content viewing channel. have. For example, the first content provider 301 may be a subject for promoting the character A, the first content viewers 304 may be a group of fans who prefer the character A, and the content processing device may include the first content. The provision channel and the first content viewing channel may be connected to enable interaction between the content provider and the viewer.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공 채널들 및 콘텐츠 시청 채널들 간을 서로 연결하여, 실시간 캐릭터 영상 스트림을 콘텐츠 시청 채널들을 통해 제공할 수 있다. 콘텐츠 처리 장치는 제2 콘텐츠 제공 채널 및 제2 콘텐츠 시청 채널을 통해 제2 콘텐츠 제공자(302)의 제2 콘텐츠 제공 단말과 제2 콘텐츠 시청자들(305)의 제2 콘텐츠 시청 단말들을 서로 연결할 수 있다. 콘텐츠 처리 장치는 제3 콘텐츠 제공 채널 및 제3 콘텐츠 시청 채널을 통해 제3 콘텐츠 제공자(303)의 제3 콘텐츠 제공 단말과 제3 콘텐츠 시청자들(306)의 제3 콘텐츠 시청 단말들을 서로 연결할 수 있다. According to an embodiment, the content processing apparatus may provide a real-time character video stream through content viewing channels by connecting content providing channels and content viewing channels to each other. The content processing apparatus may connect the second content providing terminal of the second content provider 302 and the second content viewing terminals of the second content viewers 305 to each other through the second content providing channel and the second content viewing channel. The content processing apparatus may connect the third content providing terminal of the third content provider 303 and the third content viewing terminals of the third content viewers 306 to each other through the third content providing channel and the third content viewing channel.

예를 들어, 제2 콘텐츠 제공자(302) 및 제3 콘텐츠 제공자(303)는 각각 캐릭터 B와 캐릭터 C를 선택하여 캐릭터 관련 스트리밍 콘텐츠를 제공하는 주체이고, 제2 콘텐츠 시청자들(305) 및 제3 콘텐츠 시청자들(306)은 각각 캐릭터 B 및 캐릭터 C를 좋아하는 팬들의 그룹일 수 있다. 콘텐츠 처리 장치는 콘텐츠 제공자들과 콘텐츠 시청자들을 각각 그룹화하고 서로 매칭시켜 차별화된 요구에 부응하고, 다양한 유형의 콘텐츠를 생성 및 시청하는데 참여시키기 위한 콘텐츠 플랫폼을 제공할 수 있다.For example, the second content provider 302 and the third content provider 303 are the subjects that provide character-related streaming content by selecting characters B and C, respectively, and the second content viewers 305 and the third content Viewers 306 may be a group of fans who like character B and character C, respectively. The content processing device may provide a content platform for grouping content providers and content viewers and matching each other to meet differentiated needs, and to participate in generating and viewing various types of content.

도 4는 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다.4 is a view for explaining a method of processing real-time character streaming content according to an embodiment.

일실시예에 따르면, 콘텐츠 처리 장치는 캐릭터 스트리밍 콘텐츠를 생성하고자 하는 콘텐츠 제공자들(401 및 402) 의 콘텐츠 제공 단말들(421 및 422)로부터 네트워크(403)를 통해 각각의 촬영 영상 스트림들을 수신할 수 있다. 콘텐츠 처리 장치는 제1 콘텐츠 시청자 그룹(404) 내지 제2 콘텐츠 시청자 그룹(405)의 네트워크(403)를 통한 접속을 인식할 수 있다. 콘텐츠 시청자 그룹들은 콘텐츠 제공자들 별로 분류되어 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 통해 연결될 수 있다. 예를 들어, 제1 콘텐츠 시청자 그룹(404)은 콘텐츠 제공자(401)에 대응하고, 제2 콘텐츠 시청자 그룹(405)은 콘텐츠 제공자(402)에 대응할 수 있다.According to one embodiment, the content processing device receives respective captured image streams through the network 403 from the content providing terminals 421 and 422 of the content providers 401 and 402 who want to generate character streaming content. Can be. The content processing apparatus may recognize a connection through the network 403 of the first content viewer group 404 to the second content viewer group 405. Content viewer groups may be classified by content providers and connected through a content providing channel and a content viewing channel. For example, the first content viewer group 404 may correspond to the content provider 401 and the second content viewer group 405 may correspond to the content provider 402.

일실시예에 따르면, 콘텐츠 처리 장치는 제1 콘텐츠 제공자(401)에 의한 콘텐츠 제공 채널을 통한 접속을 인식하고, 제1 콘텐츠 제공자(401)로부터 촬영된 영상 스트림을 수신할 수 있다. 콘텐츠 처리 장치는 제1 콘텐츠 제공자(401)의 제1 콘텐츠 제공 단말(421)의 유저 인터페이스(432)를 통해, 캐릭터 선택 모드들 중 제1 캐릭터에 대한 제1 선택 입력 또는 캐릭터에 대한 우선 순위 입력을 수신할 수 있다. 제1 캐릭터 선택 모드는 콘텐츠 제공자들이 제공하는 영상 스트림의 주체가 제1 캐릭터로 대체된 영상이 표시되는 모드일 수 있다.According to an embodiment, the content processing apparatus may recognize a connection through a content providing channel by the first content provider 401 and receive an image stream photographed from the first content provider 401. The content processing device may input a first selection input for a first character or a priority for a character through the user interface 432 of the first content providing terminal 421 of the first content provider 401. Can receive. The first character selection mode may be a mode in which an image in which a subject of an image stream provided by content providers is replaced with a first character is displayed.

일실시예에 따르면, 콘텐츠 처리 장치는 제1 콘텐츠 시청자 그룹(404)에 속한 제1 콘텐츠 시청자들(411 내지 413)의 제1 콘텐츠 시청 단말들로부터, 캐릭터 선택 모드들 중 제1 캐릭터에 대한 제1 선택 입력 또는 디폴트 캐릭터 선택 입력을 수신할 수 있다. 제1 캐릭터 선택 모드는 콘텐츠 제공자들이 제공하는 영상 스트림의 주체가 제1 캐릭터로 대체된 영상이 표시되는 모드일 수 있다. 디폴트 캐릭터 선택 모드는 캐릭터 선택 모드에서 캐릭터를 선택하지 않은 경우 콘텐츠 제공자가 선택한 제1 캐릭터의 영상 스트림이 제공될 수 있는 선택 모드이다.According to one embodiment, the content processing apparatus is the first for the first character among the character selection modes from the first content viewing terminals of the first content viewers 411 to 413 belonging to the first content viewer group 404. A selection input or a default character selection input can be received. The first character selection mode may be a mode in which an image in which a subject of an image stream provided by content providers is replaced with a first character is displayed. The default character selection mode is a selection mode in which a video stream of a first character selected by a content provider can be provided when no character is selected in the character selection mode.

일실시예에 따르면, 제1 콘텐츠 시청자들(411 내지 413)을 포함한 제1 콘텐츠 시청자 그룹(404)은 제1 캐릭터 선택 모드에 대한 제1 선택 입력에 의해 분류된 그룹일 수 있다. 예를 들어, 제1 콘텐츠 시청자(411)는 제1 콘텐츠 시청 단말(423)의 유저 인터페이스(435)를 통해 강아지 캐릭터를 중심으로 영상이 표시되는 제1 캐릭터 선택 모드를 입력할 수 있다. 제1 콘텐츠 시청자들(411 내지 413)은 제1 캐릭터 선택 모드를 선택한 유저들일 수 있다.According to an embodiment, the first content viewer group 404 including the first content viewers 411 to 413 may be a group classified by the first selection input for the first character selection mode. For example, the first content viewer 411 may input a first character selection mode in which an image is displayed around a puppy character through the user interface 435 of the first content viewing terminal 423. The first content viewers 411 to 413 may be users who have selected the first character selection mode.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자(401)의 제1 촬영 영상 스트림을 식별하고, 제1 캐릭터 선택 모드에 대한 제1 선택 입력에 응답하여 제1 캐릭터 영상 스트림을 생성할 수 있다. 구체적으로, 콘텐츠 처리 장치는 식별된 제1 촬영 영상 스트림에 기초하여, 제1 촬영 영상 스트림의 촬영 주체를 제1 캐릭터로 대체하여 제1 캐릭터 영상 스트림을 생성할 수 있다. 예를 들어, 콘텐츠 제공자 A(401)가 촬영한 영상 스트림의 주체는 A이지만, 콘텐츠 제공자 A(401)의 제1 캐릭터 선택 모드에 대한 제1 선택 입력(즉, 강아지 캐릭터)에 응답하여, 콘텐츠 처리 장치에 의해 영상 스트림의 주체를 A에서 강아지 캐릭터로 변환할 수 있다. 여기서, 제1 캐릭터 영상 스트림은, 제1 촬영 영상 스트림의 촬영 주체의 표정, 동작 및 소리 정보가 제1 캐릭터의 표정, 동작 및 소리 정보로 변환되어 재생되는 영상 스트림으로서, 앞서 상술한 바와 같이 face rigging 기술을 이용할 수 있으며, 제1 캐릭터 영상 스트림의 촬영(진행) 주체는 제1 캐릭터(예를 들어, 강아지)가 될 수 있다. According to an embodiment, the content processing apparatus may identify the first captured video stream of the content provider 401 and generate a first character video stream in response to the first selection input for the first character selection mode. Specifically, the content processing apparatus may generate a first character image stream by replacing the subject of the first captured image stream with the first character based on the identified first captured image stream. For example, the subject of the video stream captured by the content provider A 401 is A, but in response to the first selection input (ie, the puppy character) for the first character selection mode of the content provider A 401, the content The subject of the video stream can be converted from A to a puppy character by a processing device. Here, the first character video stream is a video stream in which facial expression, motion, and sound information of a subject photographed in the first captured video stream is converted into facial expression, motion, and sound information of the first character and played back, as described above. The rigging technique may be used, and the subject of shooting (progress) of the first character image stream may be the first character (eg, a puppy).

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자의 영상 스트림을 제1 캐릭터 영상 스트림으로 변환하여 제1 콘텐츠 시청자 그룹(404) 내 제1 콘텐츠 시청자들(411 내지 413)의 제1 콘텐츠 시청 단말들로 전송할 수 있다. 제1 콘텐츠 시청 단말들은 제1 캐릭터 영상 스트림을 재생하여 표시할 수 있다. 예를 들어, 제1 콘텐츠 시청자(411)의 제1 콘텐츠 시청 단말(423)은 유저 인터페이스(435)를 통한 제1 캐릭터 선택 모드에 대응하는 제1 캐릭터 영상 스트림(436)을 표시할 수 있다. According to one embodiment, the content processing apparatus converts the video stream of the content provider into a first character video stream to the first content viewing terminals of the first content viewers 411 to 413 in the first content viewer group 404 Can transmit. The first content viewing terminals may reproduce and display the first character video stream. For example, the first content viewing terminal 423 of the first content viewer 411 may display the first character video stream 436 corresponding to the first character selection mode through the user interface 435.

일실시예에 따르면, 콘텐츠 처리 장치는 제2 콘텐츠 제공자(402)의 제2 콘텐츠 시청 단말(422)로부터, 캐릭터 선택 모드들 중 제2 캐릭터 선택 모드에 대한 제2 선택 입력을 수신할 수 있다. 제2 캐릭터 선택 모드는 제2 콘텐츠 제공자(402)가 촬영한 영상 스트림의 촬영 주체가 제2 캐릭터로 대체된 영상이 표시되는 모드일 수 있다.According to an embodiment, the content processing apparatus may receive a second selection input for the second character selection mode among the character selection modes from the second content viewing terminal 422 of the second content provider 402. The second character selection mode may be a mode in which an image in which the subject of the video stream photographed by the second content provider 402 is replaced with the second character is displayed.

일실시예에 따르면, 콘텐츠 처리 장치는 제2 콘텐츠 시청자 그룹(405)에 속한 제2 콘텐츠 시청자들(414 내지 417)의 제2 콘텐츠 시청 단말들로부터, 캐릭터 선택 모드들 중 제2 캐릭터 선택 모드에 대한 제2 선택 입력을 수신할 수 있다. 제2 캐릭터 선택 모드는 제2 캐릭터가 촬영 주체로서 영상이 표시되는 모드일 수 있다. According to an embodiment, the content processing apparatus may select a second character selection mode among the character selection modes from the second content viewing terminals of the second content viewers 414 to 417 belonging to the second content viewer group 405. A second selection input may be received. The second character selection mode may be a mode in which an image is displayed as a second character as a photographing subject.

일실시예에 따르면, 제2 콘텐츠 시청자들(414 내지 417)을 포함한 제2 콘텐츠 시청자 그룹(405)은 제2 캐릭터 선택 모드에 대한 제2 선택 입력에 의해 분류된 그룹일 수 있다. 예를 들어, 제2 콘텐츠 시청자(417)는 제2 콘텐츠 시청 단말(424)의 유저 인터페이스(437)를 통해 아기 캐릭터를 중심으로 영상이 표시되는 제2 캐릭터 선택 모드를 입력할 수 있다. 제2 콘텐츠 시청자들(414 내지 417)은 제2 캐릭터 선택 모드를 선택한 유저들일 수 있다.According to an embodiment, the second content viewer group 405 including the second content viewers 414 to 417 may be a group classified by a second selection input for the second character selection mode. For example, the second content viewer 417 may input a second character selection mode in which an image is displayed around a baby character through the user interface 437 of the second content viewing terminal 424. The second content viewers 414 to 417 may be users who have selected the second character selection mode.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자들(401 및 402)중 제2 선택 입력에 대응하는 콘텐츠 제공자(402)의 제2 촬영 영상 스트림을 식별할 수 있다. 콘텐츠 처리 장치는 식별된 제2 촬영 영상 스트림의 촬영 주체인 콘텐츠 제공자 B를 제2 캐릭터(예를 들어, 아기 캐릭터)로 변환한 제2 캐릭터 영상 스트림을 생성할 수 있다. According to an embodiment, the content processing apparatus may identify a second captured video stream of the content provider 402 corresponding to the second selection input among the content providers 401 and 402. The content processing device may generate a second character video stream that converts the content provider B, which is a photographing subject of the identified second photographed video stream, into a second character (eg, a baby character).

일실시예에 따르면, 콘텐츠 제공 단말들(421 및 422)은 촬영 영상 스트림들을 인코딩하여 콘텐츠 처리 장치로 전송할 수 있다. 콘텐츠 처리 장치는 캐릭터 영상 생성을 위해 촬영 영상 스트림들을 디코딩할 수 있다. 콘텐츠 처리 장치는 디코딩된 촬영 영상 스트림들의 촬영 주체를 특정 캐릭터로 변환하여, 캐릭터 중심의 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 캐릭터 중심 영상 스트림을 인코딩하고, 인코딩된 캐릭터 중심 영상 스트림을 콘텐츠 시청 단말로 전송할 수 있다. 콘텐츠 시청 단말은 수신된 캐릭터 중심 영상 스트림을 디코딩하여 재생하고 표시할 수 있다.According to an embodiment, the content providing terminals 421 and 422 may encode the captured video streams and transmit them to the content processing device. The content processing device may decode the captured image streams to generate a character image. The content processing apparatus may convert a photographing subject of the decoded photographed image streams to a specific character to generate a character-oriented image stream. The content processing apparatus may encode the character-centric video stream and transmit the encoded character-centric video stream to the content viewing terminal. The content viewing terminal may decode, play, and display the received character-centric video stream.

일 실시예에 따르면, 콘텐츠 제공자(401)는 제1 촬영 영상 스트림의 촬영 주체일 수 있으며, 콘텐츠 제공자(401)의 제1 동작에 따라 캐릭터가 삽입, 변경, 제거, 및 재삽입되는 것 중 하나가 실행될 수 있다. 예를 들어, 촬영 주체인 콘텐츠 제공자 A(401)의 O 표시 손동작에 의해 콘텐츠 제공자 A의 이미지를 대신하여, 콘텐츠 제공자 A(401)의 제1 선택 입력에 따른 강아지 캐릭터가 삽입될 수 있다. 또한, 콘텐츠 제공자 A(401)의 박수 한 번 치는 동작에 의해 콘텐츠 시청자(411)의 시청 단말(423)의 화면에 표시되는 강아지 캐릭터가 캐릭터 우선 순위 선택 입력에 따른 고양이 캐릭터로 변경될 수 있고, 콘텐츠 제공자 A(401)의 X 표시 손동작에 의해 강아지 캐릭터가 제거될 수 있으며, 콘텐츠 제공자 A(401)의 박수 두 번 치는 동작에 의해 제거된 강아지 캐릭터가 재삽입 될 수 있다. 또한, 콘텐츠 제공자(402)는 제2 촬영 영상 스트림의 촬영 주체일 수 있으며, 콘텐츠 제공자(402)의 제2 동작에 따라 캐릭터가 삽입, 변경, 제거, 및 재삽입되는 것 중 하나가 실행될 수 있다. 이렇듯, 콘텐츠 제공자는 특정 캐릭터 선택 또는 캐릭터 선택 입력의 우선순위에 따라, 매번 캐릭터 선택 입력을 수행하지 않아도 미리 정해진 동작을 통해 시청자들에게 다양한 캐릭터를 체험할 수 있는 경험을 선사할 수 있다. According to an embodiment, the content provider 401 may be a shooting subject of the first captured video stream, and one of characters being inserted, changed, removed, and reinserted according to the first operation of the content provider 401 Can be executed. For example, a puppy character according to the first selection input of the content provider A 401 may be inserted in place of the image of the content provider A by the O display hand gesture of the content provider A 401 as a shooting subject. In addition, the puppy character displayed on the screen of the viewing terminal 423 of the content viewer 411 may be changed to a cat character according to the character priority selection input by the clapping action of the content provider A 401, The puppy character may be removed by the X display hand gesture of the content provider A 401, and the puppy character removed by the clapping twice action of the content provider A 401 may be reinserted. Also, the content provider 402 may be a subject of the second captured video stream, and one of characters inserted, changed, removed, and reinserted according to the second operation of the content provider 402 may be executed. . As such, the content provider may provide viewers with an experience to experience various characters through predetermined actions without performing character selection input each time according to a specific character selection or priority of character selection input.

한편, 또 다른 실시예에 따르면, 콘텐츠 제공자(401)는 제1 촬영 영상 스트림의 촬영 주체일 수 있으며, 콘텐츠 제공자(401)의 미리 정해진 키워드를 채팅방에 입력함에 따라 캐릭터가 삽입, 변경, 제거, 및 재삽입되는 것 중 하나가 실행될 수도 있다. 예를 들어, 촬영 주체인 콘텐츠 제공자 A(401)가 '캐릭터 삽입'이라는 키워드를 입력함에 따라 콘텐츠 제공자 A의 이미지를 대신하여, 콘텐츠 제공자 A(401)의 제1 선택 입력에 따른 강아지 캐릭터가 삽입될 수 있다. 또한, 콘텐츠 제공자 A(401)가 '캐릭터 변경'이라는 키워드를 입력함에 따라 콘텐츠 시청자(411)의 시청 단말(423)의 화면에 표시되는 강아지 캐릭터가 캐릭터 우선 순위 선택 입력에 따른 고양이 캐릭터로 변경될 수 있고, 콘텐츠 제공자 A(401)가 '캐릭터 제거'라는 키워드를 입력함에 따라 강아지 캐릭터가 제거될 수 있으며, 콘텐츠 제공자 A(401)가 '캐릭터 재삽입'이라는 키워드를 입력함에 따라 제거된 강아지 캐릭터가 재삽입 될 수 있다. On the other hand, according to another embodiment, the content provider 401 may be a subject of the first captured video stream, and a character may be inserted, changed, or removed as a predetermined keyword of the content provider 401 is entered into the chat room. And re-insertion may be performed. For example, as the content provider A (401), which is a shooting subject, inputs the keyword 'character insertion', a puppy character according to the first selection input of the content provider A (401) is inserted in place of the image of the content provider A. Can be. In addition, as the content provider A 401 inputs the keyword 'character change', the puppy character displayed on the screen of the viewing terminal 423 of the content viewer 411 is changed to a cat character according to the character priority selection input. The puppy character may be removed as the content provider A 401 enters the keyword 'remove character', and the puppy character removed as the content provider A 401 enters the keyword 'reinsert character' Can be reinserted.

도 5는 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다.5 is a view for explaining a method of processing real-time character streaming content according to an embodiment.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 시청자의 캐릭터 선택 입력에 따라 시청자 맞춤형 캐릭터 스트리밍 콘텐츠를 제공할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자의 추가적인 캐릭터 선택 입력을 수신할 수 있으며, 콘텐츠 시청자의 추가적인 캐릭터 선택 입력에 따라, 시청 단말의 화면에 표시되는 캐릭터를 변경할 수 있다. According to an embodiment, the content processing apparatus may provide a character streaming content customized for the viewer according to the character selection input of the content viewer. The content processing apparatus may receive an additional character selection input of the content viewer, and may change the character displayed on the screen of the viewing terminal according to the additional character selection input of the content viewer.

일 실시예에 따르면, 콘텐츠 제공자(501)는 제1 캐릭터 선택 입력에 따라 제1 캐릭터 스트리밍 콘텐츠를 콘텐츠 시청자 그룹(504)에 제공하는 주체일 수 있다. 콘텐츠 시청자 그룹(504)은 제1 캐릭터를 선택한 그룹으로서, 콘텐츠 제공자(501)의 제1 캐릭터 스트리밍 콘텐츠를 시청할 수 있다. 또한, 콘텐츠 시청자 그룹(504)의 콘텐츠 시청자들(511 내지 514)은 추가적으로 제2 캐릭터를 선택하도록, 콘텐츠 시청 단말의 유저 인터페이스로부터 캐릭터 선택 입력 모드로부터 제2 캐릭터를 선택할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자들(511 내지 514)로부터 추가적인 제2 캐릭터 선택 입력을 수신한 경우, 제2 캐릭터를 선택한 콘텐츠 시청자의 시청 단말로 제2 캐릭터 스트리밍 콘텐츠를 송신할 수 있다. According to an embodiment, the content provider 501 may be a subject that provides the first character streaming content to the content viewer group 504 according to the first character selection input. The content viewer group 504 is a group that selects the first character and can watch the first character streaming content of the content provider 501. In addition, the content viewers 511 to 514 of the content viewer group 504 can additionally select the second character from the character selection input mode from the user interface of the content viewing terminal to select the second character. When the content processing apparatus receives the additional second character selection input from the content viewers 511 to 514, the content processing device may transmit the second character streaming content to the viewing terminal of the content viewer who has selected the second character.

예를 들어, 강아지 캐릭터를 선택함에 따라 매칭된 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 통해, 콘텐츠 제공자(501)의 강아지 캐릭터 영상 스트림이 콘텐츠 시청자 그룹(504)의 시청 단말들(522 내지 523)의 영상 스트림(531 내지 532)으로 재생될 수 있다. 콘텐츠 시청자 그룹(504)의 콘텐츠 시청자(514)는 콘텐츠 시청 단말(523)의 유저 인터페이스로부터 추가적인 제2 캐릭터 선택 모드를 통해 아기 캐릭터(즉, 제2 캐릭터)를 선택할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청 단말(523)의 아기 캐릭터에 대한 선택 입력을 기초로, 콘텐츠 제공자(501)가 촬영한 영상 스트림의 주체를 강아지 캐릭터에서 아기 캐릭터로 변경하여 콘텐츠 시청자(514)의 시청 단말(523)로 송신할 수 있다. For example, the puppy character video stream of the content provider 501 is the video of the viewing terminals 522 to 523 of the content viewer group 504 through the matched content providing channel and the content viewing channel as the puppy character is selected. It can be played back as streams 531 to 532. The content viewer 514 of the content viewer group 504 can select the baby character (ie, the second character) through the additional second character selection mode from the user interface of the content viewing terminal 523. The content processing apparatus changes the subject of the video stream photographed by the content provider 501 from the puppy character to the baby character based on the selection input to the baby character of the content viewing terminal 523 to view the terminal of the content viewer 514 (523).

일 실시예에 따르면, 콘텐츠 처리 장치는 선택된 캐릭터의 종류에 따라 콘텐츠 제공자(501)가 촬영한 영상 스트림 주체의 표정, 동작 및 소리를 상이하게 변경할 수 있다. 예를 들어, 콘텐츠 시청자(514)가 추가적인 캐릭터 선택 모드에 따라 제2 캐릭터로서 아기 캐릭터를 선택한 경우 시청 단말(523)에 표시되는 영상 스트림은 아기 캐릭터 스트리밍 콘텐츠일 수 있다. 한편, 추가적인 캐릭터 선택을 하지 않은 콘텐츠 시청자(512)는 여전히 처음 선택한 강아지 캐릭터 스트리밍 콘텐츠를 시청할 수 있다. 일 실시예로서, 콘텐츠 제공자(501)의 특정 동작에 따라 생성된 영상 스트림은 콘텐츠 처리 장치로 송신되며, 콘텐츠 처리 장치는 캐릭터 별로 상이한 동작으로 생성된 영상 스트림을 생성할 수 있다. 예를 들어, 콘텐츠 제공자(501)의 윙크 동작 영상 스트림은, 콘텐츠 시청자(512)의 시청 단말(522)에서 강아지의 윙크 동작 영상 스트림으로 생성될 수 있지만, 콘텐츠 시청자(514)의 시청 단말(523)에서는 아기 캐릭터의 메롱 동작 영상 스트림으로 생성될 수 있다. 이렇듯, 콘텐츠 제공자가 촬영한 영상 스트림 주체의 표정, 동작 및 소리가 동일하더라도 콘텐츠 시청자가 선택한 캐릭터에 따라 상이한 콘텐츠가 생성될 수 있어, 시청자들 각각의 캐릭터 선호도에 맞는 개별적인 체험감을 제공할 수 있다.According to an embodiment, the content processing apparatus may differently change the expression, motion, and sound of the image stream subject photographed by the content provider 501 according to the selected character type. For example, when the content viewer 514 selects the baby character as the second character according to the additional character selection mode, the video stream displayed on the viewing terminal 523 may be baby character streaming content. Meanwhile, the content viewer 512 without additional character selection can still watch the first selected puppy character streaming content. As an embodiment, the video stream generated according to the specific operation of the content provider 501 is transmitted to the content processing device, and the content processing device may generate the video stream generated by different actions for each character. For example, the wink action video stream of the content provider 501 may be generated as a puppy wink action video stream in the viewing terminal 522 of the content viewer 512, but the viewing terminal 523 of the content viewer 514 ) May be generated as a stream of motion images of a baby character. As such, even if the expression, motion, and sound of the video stream subject photographed by the content provider are the same, different content may be generated according to the character selected by the content viewer, thereby providing an individual sense of experience suitable for each character preference of the viewer.

도 6은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다. 6 is a view for explaining a method of processing real-time character streaming content according to an embodiment.

일 실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 시청자와 캐릭터와의 상호작용에 기초하여, 캐릭터 영상 스트림을 동적으로 변경하여 영상 스트림을 생성하고, 콘텐츠 시청자들에게 전송할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자의 표정, 음성 및 동작, 콘텐츠 시청자들의 피드백 및 통계값, 상황, 콘텐츠 제공 환경, 시간 구간 등 다양한 변수들에 기초하여 시청자에게 제공하기 위한 영상 스트림을 생성할 수 있다. According to an embodiment, the content processing apparatus may dynamically change the character video stream based on the interaction between the content viewer and the character to generate the video stream and transmit it to the content viewers. The content processing apparatus may generate an image stream for providing to the viewer based on various variables such as the expression, voice and motion of the content viewer, feedback and statistics of the content viewer, the situation, the content providing environment, and the time interval.

일 실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 제공자가 수행한 미리 정해진 동작 또는 콘텐츠 제공 단말의 채팅방에 입력된 미리 정해진 키워드를 인식하여, 캐릭터가 미리 정해진 동작을 수행하는 영상 스트림을 제공할 수 있다. According to an embodiment, the content processing apparatus may recognize a predetermined operation performed by a content provider or a predetermined keyword input into a chat room of the content providing terminal, and provide a video stream in which the character performs a predetermined operation.

일 실시예에 따르면, 콘텐츠 시청자들은 시청하고 있는 캐릭터의 미리 정해진 동작에 대응하여 시청 단말 또는 모션 캡쳐 장비에 대해 미리 정해진 응답 동작을 수행할 수 있다. 콘텐츠 시청자들이 수행한 미리 정해진 응답 동작의 각각의 내용에 따라 시청 단말에 표시되는 캐릭터 콘텐츠 내용이 시청자들마다 달라질 수 있다.According to one embodiment, content viewers may perform a predetermined response action to the viewing terminal or the motion capture device in response to a predetermined action of the character being watched. Character content content displayed on the viewing terminal may vary for each viewer according to each content of a predetermined response action performed by the content viewers.

예를 들어, 콘텐츠 제공자(601)는 콘텐츠 제공 단말(622)로 본인의 모습을 촬영하면서 하이파이브 동작(621)을 수행할 수 있다. 콘텐츠 처리 장치는 콘텐츠 제공자(601)의 하이파이브 동작(621)이 캐릭터의 하이파이브 동작(621)으로 대체된 영상 스트림을 콘텐츠 시청자 그룹(603)에 전송할 수 있다. 콘텐츠 시청자 그룹(603)에 속한 콘텐츠 시청자들(611 내지 613)은 콘텐츠 시청 단말(632 및 642)을 향해 캐릭터의 하이파이브 동작(621)에 대응하는 미리 정해진 동작(631 및 641)을 수행할 수 있다. 구체적으로, 콘텐츠 시청자들(611 내지 613)은 콘텐츠 시청 단말(632 및 642, 콘텐츠 시청자(612)의 시청 단말은 미도시)의 이미지 센서를 통해 표시된 본인의 표정 및 동작을 촬영할 수 있고, 콘텐츠 처리 장치는 콘텐츠 시청 단말(632 및 642)에 의해 촬영된 영상 스트림을 기초로 콘텐츠 시청자들(611 내지 613)의 표정 및 동작을 인식할 수 있다. 예를 들어, 콘텐츠 시청자(611)는 콘텐츠 시청 단말(632)을 향해 하이파이브 동작(631)을 수행할 수 있고, 콘텐츠 시청자(613)는 콘텐츠 시청 단말(642)을 향해 엄지손가락을 세우는 동작(641)을 수행할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청 단말들(632 및 642)로부터 콘텐츠 시청자들(611 및 613)의 동작이 포함된 영상 스트림을 수신하고, 콘텐츠 시청자(611) 및 콘텐츠 시청자(613)의 응답 동작 별로 캐릭터가 상이한 동작을 수행하는 영상 스트림를 생성할 수 있다. For example, the content provider 601 may perform the high-five operation 621 while photographing the person's appearance with the content providing terminal 622. The content processing apparatus may transmit a video stream in which the high five action 621 of the content provider 601 is replaced by the high five action 621 of the character to the content viewer group 603. The content viewers 611 to 613 belonging to the content viewer group 603 may perform predetermined actions 631 and 641 corresponding to the high-five action 621 of the character toward the content viewing terminals 632 and 642. . Specifically, the content viewers 611 to 613 can capture the facial expressions and motions of the person displayed through the image sensors of the content viewing terminals 632 and 642 (the viewing terminal of the content viewer 612 is not shown), and the content processing device May recognize the facial expressions and actions of the content viewers 611 to 613 based on the video stream captured by the content viewing terminals 632 and 642. For example, the content viewer 611 may perform a high five operation 631 toward the content viewing terminal 632, and the content viewer 613 may raise an thumb toward the content viewing terminal 642 ( 641). The content processing apparatus receives video streams including the actions of the content viewers 611 and 613 from the content viewing terminals 632 and 642, and the characters are different for each response action of the content viewer 611 and the content viewer 613 An image stream performing an operation may be generated.

일 실시예에 있어서, 생성되는 캐릭터 영상 스트림은 콘텐츠 제공자와 콘텐츠 시청자가 수행하는 동작에 따라 미리 정해질 수 있으며, 콘텐츠 시청자들의 적극적인 참여에 대한 보상을 유도하기 위한 표정, 음성 및 동작, 캐릭터 속성 변경 등을 포함할 수 있다. 콘텐츠 시청자의 미리 정해진 응답 동작에 대응하지 않는 응답 동작이 인식될 경우 디폴트 캐릭터 영상 스트림이 생성될 수 있다. 디폴트 캐릭터 콘텐츠는 콘텐츠 제공자가 수행한 표정, 음성 및 동작 등과 매칭되지 않는 표정, 음성 및 동작 등을 콘텐츠 시청자가 수행한 경우에 생성될 수 있는 영상 스트림으로서, 시청자에게 캐릭터와의 상호 작용을 유도하기 위한 표정, 음성 및 동작 등을 포함할 수 있다. In one embodiment, the generated character video stream may be determined in advance according to an operation performed by a content provider and a content viewer, and facial expression, voice and motion, and character property changes to induce reward for active participation of content viewers And the like. When a response action that does not correspond to a predetermined response action of the content viewer is recognized, a default character image stream may be generated. The default character content is an image stream that can be generated when a content viewer performs facial expressions, voices, and gestures that are not matched with facial expressions, voices, and gestures performed by a content provider, and induces viewers to interact with characters It may include facial expressions, voice and gestures.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자(601)의 하이파이브 동작(621)에 대해, 미리 정해진 응답 동작인 하이파이브 동작(631)을 수행한 콘텐츠 시청자(611)의 시청 단말(632)로 강아지 캐릭터가 기뻐하는 표정의 영상 스트림(633)을 송신할 수 있다. 한편, 콘텐츠 제공자(601)의 하이파이브 동작(621)에 대해 미리 정해진 응답 동작이 아닌 엄지 손가락을 세우는 동작(641)을 수행한 콘텐츠 시청자(613)의 시청 단말(642)에는 강아지 캐릭터가 슬퍼하는 표정의 영상 스트림(643)을 송신할 수 있다. For example, the content processing device is a puppy to the viewing terminal 632 of the content viewer 611 that has performed the high-five operation 631, which is a predetermined response operation, to the high-five operation 621 of the content provider 601. The video stream 633 of a character's delighted expression can be transmitted. On the other hand, a puppy character grieves at the viewing terminal 642 of the content viewer 613 who performs an operation 641 for raising a thumb rather than a predetermined response operation for the high five operation 621 of the content provider 601. The video stream 643 of the facial expression can be transmitted.

또 다른 실시예로서, 콘텐츠 처리 장치는 콘텐츠 시청자의 시청 단말의 채팅방에 포함된 키워드에 기초하여 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자들의 콘텐츠 시청 단말 각각에 콘텐츠 채팅방들을 개설할 수 있고, 콘텐츠 시청 단말들로부터 채팅입력을 수신하고, 채팅 입력들은 콘텐츠 시청 단말에 표시될 수 있다. 콘텐츠 처리 장치는 콘텐츠 제공자(601)가 제공한 촬영 스트림의 주체의 미리 설정된 동작을 인식할 수 있고, 콘텐츠 시청자들(611 내지 613)은 미리 설정된 동작에 대응하는 키워드를 콘텐츠 시청 단말의 콘텐츠 채팅방에 입력할 수 있다. 콘텐츠 처리 장치는 채팅 입력들 중 제1 키워드를 인식한 경우, 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하여 캐릭터 영상 스트림을 생성할 수 있다. 또한, 콘텐츠 처리 장치는 채팅 입력들 중 제2 키워드를 인식한 경우, 캐릭터가 제2 동작을 수행하는 영상효과를 추가하여 캐릭터 영상 스트림을 생성할 수 있다. 여기서, 제1 키워드는 촬영 영상 스트림의 주체의 미리 설정된 동작에 대응하는 키워드일 수 있고, 제2 키워드는 스트림의 주체의 미리 설정된 동작에 대응하지 않는 키워드일 수 있다.As another embodiment, the content processing apparatus may generate a character video stream based on keywords included in a chat room of a content viewer's viewing terminal. The content processing apparatus may open content chat rooms in each of the content viewing terminals of the content viewers, receive chat input from the content viewing terminals, and the chat inputs may be displayed on the content viewing terminal. The content processing device may recognize a preset operation of the subject of the shooting stream provided by the content provider 601, and the content viewers 611 to 613 input keywords corresponding to the preset operation into the content chat room of the content viewing terminal can do. When the first keyword is recognized among the chat inputs, the content processing device may generate a character video stream by adding a video effect in which the character performs the first operation. In addition, when the second keyword is recognized among the chat inputs, the content processing device may generate a character video stream by adding a video effect in which the character performs a second operation. Here, the first keyword may be a keyword corresponding to a preset operation of the subject of the captured video stream, and the second keyword may be a keyword that does not correspond to a preset operation of the subject of the stream.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자(601)의 하이파이브 동작(621)을 인식할 수 있다. 이에 대응하여, 콘텐츠 시청자(611)는 콘텐츠 시청 단말(632)의 채팅방에 '하이파이브'라는 키워드를 입력할 수 있고, 콘텐츠 처리 장치는 하이파이브 동작(621)에 대응하는 '하이파이브' 키워드를 수신함에 따라, 강아지 캐릭터가 기뻐하는 영상 효과를 추가한 영상 스트림을 생성할 수 있다. 또한, 콘텐츠 시청자(613)는 콘텐츠 시청 단말(642)의 채팅방에 '메롱'이라는 키워드를 입력할 수 있고, 콘텐츠 처리 장치는 하이파이브 동작(621)에 대응하지 않는 '메롱' 키워드를 수신함에 따라, 강아지 캐릭터가 슬퍼하는 영상 효과를 추가한 영상 스트림을 생성할 수 있다.For example, the content processing device may recognize the high five operation 621 of the content provider 601. In response to this, the content viewer 611 may input the keyword 'high five' into the chat room of the content viewing terminal 632, and the content processing device may input the keyword 'high five' corresponding to the high five operation 621. Upon reception, a video stream to which a puppy character is pleased can be added. In addition, the content viewer 613 may input the keyword 'merong' into the chat room of the content viewing terminal 642, and the content processing device receives the keyword 'merong' that does not correspond to the high five operation 621. , You can create a video stream that adds a video effect that a dog character grieves.

이렇듯, 콘텐츠 시청자들은 콘텐츠 제공자에 의해 제공된 캐릭터 동영상 콘텐츠를 일률적 및 일방향적으로 시청하는데 그치지 않고, 스트리밍되고 있는 캐릭터와 동작 및 채팅 키워드 등으로 상호 작용함에 따른 새로운 영상 스트림을 생성할 수 있어, 콘텐츠 시청자들별로 차별화된 콘텐츠를 제공하고, 콘텐츠 제공자와 개별적으로 소통하는 체험감을 제공할 수 있다.As such, content viewers can not only watch the character video content provided by the content provider in a uniform and unidirectional manner, but also create a new video stream as they interact with characters being streamed, actions, and chat keywords, etc. It can provide differentiated content for each and provide an experience of individually communicating with content providers.

도 7은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다. 7 is a view for explaining a real-time character streaming content processing method according to an embodiment.

일실시예에 따르면, 콘텐츠 처리 장치는 콘텐츠 시청자들의 그룹에 속한 콘텐츠 시청자들의 총 수 중 미리 정해진 비율 이상의 콘텐츠 시청자들이 캐릭터와 상호 작용하는 표정, 음성 및 동작, 콘텐츠 시청자들의 피드백 및 통계값, 상황, 콘텐츠 제공 환경, 시간 구간 등 다양한 변수 등을 인식하여 새로운 캐릭터 콘텐츠를 생성할 수 있다. 일 실시예에 따르면, 그룹화된 콘텐츠 시청자들은 시청하고 있는 캐릭터의 미리 정해진 동작에 대응하여 시청 단말 또는 모션 캡쳐 장비에 대해 미리 정해진 응답 동작을 수행할 수 있으며, 콘텐츠 처리 장치는 응답 동작을 수행하는 콘텐츠 시청자들의 수가 콘텐츠 시청자 그룹 내 콘텐츠 시청자들의 총 수의 비율이 미리 정해진 비율 이상인 경우, 응답 동작에 대응하는 캐릭터 영상 스트림을 생성하고, 시청자 단말로 송신할 수 있다. According to an embodiment, the content processing apparatus includes facial expressions, voices and gestures, content feedback and statistics of content viewers, content viewers interacting with characters over a predetermined percentage of the total number of content viewers belonging to the group of content viewers, It is possible to create new character content by recognizing various variables such as the content providing environment and time intervals. According to an embodiment, the grouped content viewers may perform a predetermined response action to the viewing terminal or the motion capture device in response to a predetermined action of the character being watched, and the content processing device may perform a content response action. When the ratio of the total number of content viewers in the content viewer group to the number of viewers is greater than or equal to a predetermined rate, a character video stream corresponding to the response operation may be generated and transmitted to the viewer terminal.

예를 들어, 콘텐츠 제공자(701)는 콘텐츠 제공 단말(722)에 대해 하이파이브 동작(721)을 수행할 수 있고, 콘텐츠 처리 장치는 콘텐츠 제공자(701)로부터 수신한 하이파이브 동작(721)의 영상 스트림을 캐릭터의 하이파이브 동작으로 대체하여 콘텐츠 시청 단말(741 내지 745)로 송신할 수 있다. 콘텐츠 시청자 그룹(703) 중 콘텐츠 시청자들(711 내지 714)은 시청 단말(741 내지 734)에 대해 콘텐츠 제공자의 하이파이브 동작(721)에 대응하는 하이파이브 동작(731 내지 734)을 수행할 수 있고, 콘텐츠 처리 장치는 콘텐츠 시청자들(711 내지 714)의 하이파이브 동작(731 내지 734)의 시청 영상 스트림을 수신할 수 있다. 콘텐츠 처리 장치는 하이파이브 동작(731 내지 734)이 인식된 콘텐츠 시청 단말의 수와 콘텐츠 시청자 그룹의 총 콘텐츠 시청 단말의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 경우, 하이파이브 응답 동작에 따른 영상 효과가 추가된 캐릭터 영상 스트림을 생성할 수 있다. For example, the content provider 701 may perform a high-five operation 721 on the content providing terminal 722, and the content processing apparatus may image the high-five operation 721 received from the content provider 701. The stream can be replaced with a high-five action of the character and transmitted to the content viewing terminals 741 to 745. The content viewers 711 to 714 of the content viewer group 703 may perform the high five operations 731 to 734 corresponding to the high five operation 721 of the content provider to the viewing terminals 741 to 734, The content processing apparatus may receive the viewing video stream of the high five operations 731 to 734 of the content viewers 711 to 714. When the ratio of the number of content viewing terminals and the total number of content viewing terminals of the content viewer group in which the high-five operations 731 to 734 are recognized is higher than a predetermined ratio (for example, a majority or more), the content processing apparatus responds to the high five A character image stream to which an image effect according to an operation is added may be generated.

일 실시예에 있어서, 생성되는 캐릭터 콘텐츠는 콘텐츠 제공자와 콘텐츠 시청자 그룹이 수행하는 동작에 따라 미리 정해질 수 있으며, 콘텐츠 시청자 그룹의 적극적인 참여에 대한 보상을 유도하기 위한 표정, 음성 및 동작, 캐릭터 속성 변경 등을 포함할 수 있다. 콘텐츠 시청자 그룹의 적극적인 참여에 대한 보상을 유도하기 위한 표정, 음성 및 동작, 캐릭터 속성 변경 등을 포함하는 영상 스트림은 시청자가 비용을 지불하여 구매할 수 있는 아이템, 캐릭터의 업그레이드, 캐릭터 능력치의 변화 등을 포함할 수 있다. 한편, 콘텐츠 시청자 그룹의 미리 정해진 동작 외의 동작이 인식될 경우 디폴트 캐릭터 콘텐츠가 생성될 수 있다. 디폴트 캐릭터 콘텐츠는 콘텐츠 제공자가 수행한 표정, 음성 및 동작 등과 매칭되지 않는 표정, 음성, 동작 및 키워드 등을 콘텐츠 시청자 그룹이 수행한 경우에 생성될 수 있는 영상 스트림으로서, 시청자들에게 캐릭터와의 상호 작용을 유도하기 위한 표정, 음성 및 동작 등을 포함할 수 있다. In one embodiment, the generated character content may be predetermined according to an operation performed by the content provider and the content viewer group, and facial expressions, voice and motion, and character attributes to induce compensation for active participation of the content viewer group And the like. Video streams that include facial expressions, voice and gestures, and character attribute changes to induce rewards for active participation of a group of content viewers include items that viewers can purchase at cost, character upgrades, and changes in character abilities. It can contain. Meanwhile, if an operation other than a predetermined operation of the content viewer group is recognized, default character content may be generated. The default character content is a video stream that can be generated when a content viewer group performs facial expressions, voices, gestures, and keywords that are not matched with facial expressions, voice, and gestures performed by a content provider, and interacts with characters to viewers It may include facial expressions, voice and motion to induce.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자(701)의 하이파이브 동작(721)에 대한 미리 정해진 응답 동작인 하이파이브 동작(731 내지 734)을 수행한 콘텐츠 시청자들(711 내지 714)의 수와 콘텐츠 시청자 그룹의 내 콘텐츠 시청자들의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 경우, 캐릭터가 입고 있는 의상이 변경된 영상 효과가 추가된 영상 스트림(752)을 생성할 수 있다. 또한, 콘텐츠 제공자(701)의 하이파이브 동작(721)에 대해 미리 정해진 응답 동작이 인식된 콘텐츠 시청자들의 수가 상기 미리 정해진 비율이 이상을 만족하지 못하는 경우, 캐릭터가 슬퍼하는 표정의 영상 효과가 추가된 영상 스트림을 송신할 수 있다. 또한, 콘텐츠 제공자(701)의 하이파이브 동작(721)에 대해 미리 정해진 응답 동작에 대응하지 않는 응답 동작이 인식된 콘텐츠 시청자들의 수와 콘텐츠 시청자 그룹 내 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 캐릭터가 슬퍼하는 표정의 영상 효과가 추가된 영상 스트림을 송신할 수 있다. For example, the content processing apparatus may include the number of content viewers 711 to 714 and the content viewers performing the high five actions 731 to 734, which are predetermined response actions to the high five action 721 of the content provider 701. When the ratio of the number of content viewers in the group is equal to or greater than a predetermined ratio (for example, a majority or more), a video stream 752 to which a video effect changed by a character wearing a character is added may be generated. In addition, when the number of content viewers in which a predetermined response action is recognized for the high-five action 721 of the content provider 701 does not satisfy the above-described ratio, an image effect of a character's sad expression is added. The video stream can be transmitted. In addition, the ratio of the number of content viewers and the number of content viewing terminals in the content viewer group that the response action that does not correspond to the predetermined response action to the high-five action 721 of the content provider 701 is greater than or equal to a predetermined rate In this case, a video stream to which a video effect of a character's sad expression is added may be transmitted.

또 다른 실시예로서, 콘텐츠 처리 장치는 콘텐츠 시청 단말의 채팅방에 입력된 키워드를 인식하고, 해당 키워드를 입력한 콘텐츠 시청 단말들의 수와 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 것에 기초하여 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자들의 콘텐츠 시청 단말 각각에 콘텐츠 채팅방들을 개설하고, 콘텐츠 시청 단말들로부터 채팅 입력을 수신하여 콘텐츠 채팅방을 통해 표시할 수 있다. 콘텐츠 시청 단말의 콘텐츠 채팅방을 통해 제1 키워드를 입력한 콘텐츠 시청 단말들의 수와 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하여 영상 스트림을 생성할 수 있다.As another embodiment, the content processing apparatus recognizes a keyword input into a chat room of the content viewing terminal, and based on the ratio of the number of content viewing terminals and the total number of content viewing terminals that input the keyword is greater than or equal to a predetermined rate A character video stream can be generated. The content processing device may open content chat rooms in each of the content viewing terminals of the content viewers, receive chat input from the content viewing terminals, and display the content chat rooms. When the ratio of the number of content viewing terminals inputting the first keyword through the content chat room of the content viewing terminal and the total number of content viewing terminals accessed through the content viewing channel is greater than or equal to a predetermined ratio, the first character performs the first operation. A video stream can be generated by adding a video effect to be performed.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자(701)의 하이파이브 동작(721)을 인식할 수 있다. 이에 대응하여, 콘텐츠 시청자들(711 내지 714)은 콘텐츠 시청 단말(741 내지 744)의 채팅방에 '하이파이브'라는 키워드를 입력할 수 있고, 콘텐츠 처리 장치는 하이파이브 동작(721)에 대응하는 '하이파이브' 키워드를 입력한 콘텐츠 시청 단말들(741 내지 744)의 수와 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)임에 따라, 강아지 캐릭터가 기뻐하는 영상 효과를 추가한 영상 스트림을 생성할 수 있다. For example, the content processing device may recognize the high five operation 721 of the content provider 701. Correspondingly, the content viewers 711 to 714 can input the keyword 'high five' into the chat room of the content viewing terminals 741 to 744, and the content processing device corresponds to the 'high' operation corresponding to the high five operation 721. As the ratio of the number of content viewing terminals 741 to 744 input the keyword 'five' and the number of total content viewing terminals connected through the content viewing channel is greater than or equal to a predetermined ratio (for example, a majority or more), a puppy character It is possible to create a video stream with video effects that are pleasing.

또 다른 실시예로서, 콘텐츠 처리 장치는 콘텐츠 시청 단말들 각각의 접속 시간에 따라 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청 채널을 통해 접속된 콘텐츠 시청 단말들의 각각의 접속 시간을 수집할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청 단말들의 각각의 접속 시간에 기초하여, 캐릭터가 특정 동작을 수행하는 영상 효과를 추가하여 캐릭터 영상 스트림을 생성할 수 있다.As another embodiment, the content processing apparatus may generate a character video stream according to the connection time of each of the content viewing terminals. The content processing apparatus may collect each access time of content viewing terminals connected through the content viewing channel. The content processing apparatus may generate a character video stream by adding a video effect in which the character performs a specific operation based on each access time of the content viewing terminals.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 시청 단말들(741 내지 744) 각각의 접속시간을 수집하고, 각각의 접속시간이 미리 정해진 시간 이상(예컨대, 20분 이상)인 것에 기초하여 캐릭터가 기뻐하는 표정의 영상 효과가 추가된 캐릭터 영상 스트림을 생성할 수 있다. 이렇듯, 실시예들은 캐릭터에 관한 새로운 콘텐츠를 제공할 수 있도록, 시청자들의 과반수 이상의 참여를 유도할 수 있다.For example, the content processing apparatus collects the access time of each of the content viewing terminals 741 to 744 and the facial expression of the character rejoicing on the basis that each access time is greater than or equal to a predetermined time (eg, 20 minutes or more). A character video stream to which a video effect of is added may be generated. As such, embodiments may induce more than a majority of viewers to participate, so as to provide new content about the character.

또 다른 실시예로서, 콘텐츠 처리 장치는 콘텐츠 시청 단말들에 의해 균등하게 지불되는 비용을 합산하여 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청 단말들로부터 균등하게 지불되는 비용들의 정보를 합산할 수 있다. 합산된 비용 정보에 따라 콘텐츠 처리 장치는 캐릭터가 특정 동작을 수행하는 영상 효과가 추가된 캐릭터 영상 스트림을 생성할 수 있다. 단순히 특정 소비자 또는 시청자에 의해 지불되는 과금 방식이 아니라, 콘텐츠 처리 장치는 캐릭터를 선호하는 콘텐츠 시청자들이 균등하게 비용을 지불하여 캐릭터의 추가적인 영상 효과를 생성하는데 참여하는 체험감을 제공할 수 있다.As another embodiment, the content processing apparatus may generate a character video stream by summing the costs equally paid by the content viewing terminals. The content processing device may sum the information of costs that are evenly paid from the content viewing terminals. According to the summed cost information, the content processing device may generate a character video stream to which a video effect in which a character performs a specific operation is added. Rather than simply a charging method paid by a specific consumer or viewer, the content processing device may provide a sense of experience in which content viewers who prefer characters participate in generating additional image effects of the characters by paying equally.

도 8은 일실시예에 따른 실시간 캐릭터 스트리밍 콘텐츠 처리 방법을 설명하기 위한 도면이다. 8 is a view for explaining a method of processing real-time character streaming content according to an embodiment.

일 실시예에 따르면, 콘텐츠 처리 장치는 캐릭터 선택 입력에 따라 콘텐츠 시청자들을 그룹화하고, 콘텐츠 제공자의 캐릭터와 콘텐츠 시청자들의 그룹들의 캐릭터들의 상호작용에 의해 새로운 캐릭터 영상 스트림을 생성할 수 있다. 구체적으로, 콘텐츠 시청자들은 콘텐츠 시청 단말로부터 캐릭터 선택 모드를 통해 캐릭터를 선택할 수 있고, 콘텐츠 처리 장치는 콘텐츠 시청자들의 캐릭터 선택 입력을 수신할 수 있다. 콘텐츠 처리 장치는 콘텐츠 시청자들의 캐릭터 선택 모드에 따라 콘텐츠 시청자들을 동일한 캐릭터를 선택한 시청자들끼리 그룹화하여, 선택한 캐릭터와 상호작용할 수 있는 영상 스트림을 생성한다. According to an embodiment, the content processing apparatus may group content viewers according to a character selection input, and generate a new character video stream by interaction of characters of a content provider character with groups of content viewers. Specifically, the content viewers can select a character through the character selection mode from the content viewing terminal, and the content processing device can receive the character selection input of the content viewers. The content processing apparatus groups content viewers among viewers who select the same character according to the character selection mode of the content viewers, thereby generating an image stream capable of interacting with the selected character.

예를 들어, 콘텐츠 제공자(811)는 캐릭터 선택 모드(812)에서 강아지 캐릭터를 선택할 수 있고, 콘텐츠 처리 장치는 콘텐츠 제공자(811)의 촬영 영상 스트림에 기초하여 강아지 캐릭터 영상 스트림을 생성하고, 콘텐츠 시청자들의 시청 단말로 송신할 수 있다. 콘텐츠 제공자(811)의 영상 스트림을 시청하는 콘텐츠 시청자들은 캐릭터 선택 모드(841 및 851)에 따라 캐릭터를 선택할 수 있고, 콘텐츠 처리 장치는 각각의 캐릭터 선택 입력에 따라 고양이 캐릭터를 선택한 콘텐츠 시청자들은 콘텐츠 시청자 그룹(803)으로, 유령 캐릭터를 선택한 콘텐츠 시청자들은 콘텐츠 시청자 그룹(804)으로 분류할 수 있다. 콘텐츠 제공자(811)가 선택한 강아지 캐릭터, 콘텐츠 시청자 그룹(803)이 선택한 고양이 캐릭터, 콘텐츠 시청자 그룹(804)이 선택한 유령 캐릭터는 콘텐츠 제공 단말 및 콘텐츠 시청 단말들에 동시에 표현될 수 있고, 각각의 캐릭터들은 선택 주체의 미리 정해진 표정, 동작, 소리 및 키워드 등에 의해 상호작용할 수 있다. For example, the content provider 811 may select a puppy character in the character selection mode 812, and the content processing device generates a puppy character image stream based on the captured image stream of the content provider 811, and content viewers It can be transmitted to the viewing terminal. Content viewers watching the video stream of the content provider 811 can select a character according to the character selection modes 841 and 851, and the content processing device selects a cat character according to each character selection input. As a group 803, content viewers who have selected a ghost character may be classified into a content viewer group 804. The puppy character selected by the content provider 811, the cat character selected by the content viewer group 803, and the ghost character selected by the content viewer group 804 can be simultaneously expressed on the content providing terminal and the content viewing terminals, and each character They can interact with the selected subject's predefined expressions, actions, sounds, and keywords.

일 실시예에 따르면, 그룹화된 콘텐츠 시청자들은 콘텐츠 제공자의 캐릭터의 미리 정해진 동작에 대응하는 응답 동작을 수행할 수 있다. 콘텐츠 처리 장치는 응답 동작을 수행한 콘텐츠 시청자 수와 콘텐츠 시청자 그룹에 속하는 시청자들 총 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 경우, 콘텐츠 시청자 그룹이 선택한 캐릭터에 대한 새로운 영상 스트림을 생성할 수 있다. According to an embodiment, grouped content viewers may perform a response operation corresponding to a predetermined operation of a character of a content provider. The content processing device generates a new video stream for the character selected by the content viewer group when the ratio of the number of content viewers performing the response operation to the total number of viewers belonging to the content viewer group is equal to or greater than a predetermined ratio (for example, a majority). can do.

예를 들어, 콘텐츠 제공자(811)는 콘텐츠 제공 단말(814)에 대해 하이파이브 동작(813)을 수행할 수 있고, 콘텐츠 처리 장치는 콘텐츠 제공자(811)로부터 수신한 하이파이브 동작(813)의 영상 스트림을 강아지 캐릭터의 하이파이브 동작으로 대체하여 콘텐츠 시청 단말(822b 및 833b)로 송신할 수 있다. 콘텐츠 시청자 그룹(803) 중 콘텐츠 시청자들(821 내지 824)은 시청 단말(822b)에 대해 하이파이브 동작(821a 내지 824a)을 수행할 수 있다. 콘텐츠 처리 장치는 하이파이브 동작(821a 내지 824a)이 인식된 콘텐츠 시청자들의 수와 콘텐츠 시청자 그룹의 총 콘텐츠 시청자들의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 것을 인식하고, 하이파이브 응답 동작에 따라 강아지 캐릭터와 고양이 캐릭터가 상호작용하는 영상 스트림을 생성할 수 있다. For example, the content provider 811 may perform the high-five operation 813 on the content providing terminal 814, and the content processing apparatus may image the high-five operation 813 received from the content provider 811. The stream can be replaced with the high-five action of the puppy character and transmitted to the content viewing terminals 822b and 833b. The content viewers 821 to 824 among the content viewer group 803 may perform high-five operations 821a to 824a on the viewing terminal 822b. The content processing apparatus recognizes that the ratio of the number of the content viewers recognized by the high-five operations 821a to 824a and the total number of content viewers in the content viewer group is equal to or greater than a predetermined ratio (for example, a majority), and the high-five response Depending on the operation, a video stream in which a puppy character and a cat character interact can be generated.

또한, 콘텐츠 제공자(811)의 하이파이브 동작(813)에 대응하여, 콘텐츠 시청자 그룹(804) 중 콘텐츠 시청자들(831 내지 834)은 시청 단말(833b)에 대해 콘텐츠 제공자(811)의 하이파이브 동작(813)에 대응하지 않는 엄지 손가락을 세우는 동작(831a 내지 834a)을 수행할 수 있다. 콘텐츠 처리 장치는 엄지 손가락을 세우는 동작(831a 내지 834a)이 인식된 콘텐츠 시청자들의 수와 콘텐츠 시청자 그룹의 총 콘텐츠 시청자들의 수의 비율이 미리 정해진 비율 이상(예컨대, 과반수 이상)인 것을 인식하고, 강아지 캐릭터와 유령 캐릭터가 상호작용하는 영상 스트림을 생성할 수 있다. 생성된 강아지 캐릭터, 고양이 캐릭터, 유령 캐릭터가 상호작용하는 영상 스트림은 콘텐츠 시청 단말(822b 및 833b)에서 동일한 영상 스트림 내에 표시될 수 있으며, 콘텐츠 처리 장치는 콘텐츠 시청자들의 응답 동작들의 조합에 따라 다양한 영상 스트림을 생성할 수 있다. In addition, in response to the high-five operation 813 of the content provider 811, the content viewers 831 to 834 of the content viewer group 804, the high-five operation of the content provider 811 to the viewing terminal 833b ( It is possible to perform the operation 831a to 834a of raising the thumb that does not correspond to 813). The content processing device recognizes that the ratio of the number of content viewers and the total number of content viewers in the content viewer group in which the gestures for raising the thumbs 831a to 834a are recognized is greater than or equal to a predetermined ratio (for example, a majority) You can create a video stream in which the character and the ghost character interact. The generated puppy character, cat character, and ghost character interact with the video streams can be displayed in the same video stream in the content viewing terminals 822b and 833b, and the content processing device can display various videos according to the combination of response actions of the content viewers. You can create a stream.

일 실시예에 있어서, 생성되는 캐릭터 콘텐츠는 콘텐츠 제공자와 콘텐츠 시청자 그룹이 수행하는 동작에 따라 미리 정해질 수 있으며, 콘텐츠 시청자 그룹의 적극적인 참여에 대한 보상을 유도하기 위한 표정, 음성 및 동작, 캐릭터 속성 변경 등을 포함할 수 있다. 콘텐츠 시청자 그룹의 적극적인 참여에 대한 보상을 유도하기 위한 표정, 음성 및 동작, 캐릭터 속성 변경 등을 포함하는 영상 스트림은 시청자가 비용을 지불하여 구매할 수 있는 아이템, 캐릭터의 업그레이드, 캐릭터 능력치의 변화 등을 포함할 수 있다. 한편, 콘텐츠 시청자 그룹의 미리 정해진 동작 외의 동작이 인식될 경우 디폴트 캐릭터 콘텐츠가 생성될 수 있다. 디폴트 캐릭터 콘텐츠는 콘텐츠 제공자가 수행한 표정, 음성 및 동작 등과 매칭되지 않는 표정, 음성, 동작 및 키워드 등을 콘텐츠 시청자 그룹이 수행한 경우에 생성될 수 있는 영상 스트림으로서, 시청자들에게 캐릭터와의 상호 작용을 유도하기 위한 표정, 음성 및 동작 등을 포함할 수 있다. In one embodiment, the generated character content may be predetermined according to an operation performed by the content provider and the content viewer group, and facial expressions, voice and motion, and character attributes to induce compensation for active participation of the content viewer group And the like. Video streams that include facial expressions, voice and gestures, and character attribute changes to induce rewards for active participation of a group of content viewers include items that viewers can purchase at cost, character upgrades, and changes in character abilities. It can contain. Meanwhile, if an operation other than a predetermined operation of the content viewer group is recognized, default character content may be generated. The default character content is a video stream that can be generated when a content viewer group performs facial expressions, voices, gestures, and keywords that are not matched with facial expressions, voice, and gestures performed by a content provider, and interacts with characters to viewers It may include facial expressions, voice and motion to induce.

예를 들어, 콘텐츠 처리 장치는 콘텐츠 제공자(811)의 하이파이브 동작에 응답하여, 콘텐츠 시청자 그룹(803) 내 콘텐츠 시청자들의 과반수 이상이 콘텐츠 제공자(811)의 하이파이브 동작에 대응하는 하이파이브 동작을 수행한 경우, 강아지 캐릭터와 고양이 캐릭터가 하이파이브 동작을 수행하는 영상 스트림을 생성할 수 있다. 또한, 콘텐츠 제공자(811)의 하이파이브 동작에 응답하여, 콘텐츠 시청자 그룹(804) 내 콘텐츠 시청자들의 과반수 이상이 콘텐츠 제공자(811)의 하이파이브 동작에 대응하지 않는 엄지 손가락을 세우는 동작을 수행한 경우, 강아지 캐릭터와 유령 캐릭터가 슬퍼하는 동작을 수행하는 영상 스트림을 생성할 수 있다. 즉, 콘텐츠 처리 장치는 콘텐츠 시청자들의 응답 동작들의 조합에 따라 다양한 영상 스트림을 생성할 수 있다. 이렇듯, 실시예들은 캐릭터에 관한 새로운 콘텐츠를 제공할 수 있도록, 시청자들을 선택한 캐릭터 별로 그룹화하고, 그룹화된 시청자들의 과반수 이상의 참여를 유도할 수 있다.For example, in response to the high-five operation of the content provider 811, the content processing apparatus performs a high-five operation in which a majority of the content viewers in the content viewer group 803 corresponds to the high-five operation of the content provider 811. When performed, an image stream in which a high-five action is performed by a dog character and a cat character may be generated. In addition, in response to a high five operation of the content provider 811, when a majority of the content viewers in the content viewer group 804 perform an operation of raising a thumb that does not correspond to the high five operation of the content provider 811 , It is possible to generate a video stream that performs a grieving action between a dog character and a ghost character. That is, the content processing apparatus may generate various video streams according to a combination of response actions of content viewers. As such, embodiments may group viewers by selected characters so as to provide new content about the character, and induce more than a majority of the grouped viewers to participate.

다른 실시예에 있어서, 콘텐츠 처리 장치는 캐릭터 선택 입력에 따라 콘텐츠 시청자들을 그룹화하고, 콘텐츠 시청자들의 키워드 입력에 기초하여 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 캐릭터 선택 입력에 따라 제1 콘텐츠 시청자 그룹 및 제2 콘텐츠 시청자 그룹을 포함할 수 있으며, 각각의 콘텐츠 시청자 그룹이 선택한 캐릭터에 대응하는 제2 캐릭터 및 제3 캐릭터를 포함하는 캐릭터 영상 스트림을 생성할 수 있다. 콘텐츠 처리 장치는 제1 및 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말 각각에 제1 및 제2 콘텐츠 채팅방들을 개설할 수 있고, 제1 및 제2 콘텐츠 채팅방에 입력된 제1 및 제2 채팅 입력을 수신하여, 채팅방들에 표시할 수 있다. 콘텐츠 처리 장치는 제1 채팅 입력을 통해 제1 키워드를 입력한 콘텐츠 시청 단말들의 수와 제1 콘텐츠 시청자 그룹 내 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 제1 콘텐츠 시청자 그룹이 선택한 제2 캐릭터가 특정 동작을 수행하는 영상 효과를 추가하여 영상 스트림을 생성할 수 있다. 또한, 콘텐츠 처리 장치는 제2 채팅 입력을 통해 제2 키워드를 입력한 콘텐츠 시청 단말들의 수와 제2 콘텐츠 시청자 그룹 내 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 제2 콘텐츠 시청자 그룹이 선택한 제3 캐릭터가 특정 동작을 수행하는 영상 효과를 추가하여 영상 스트림을 생성할 수 있다. In another embodiment, the content processing apparatus may group content viewers according to the character selection input and generate a character video stream based on keyword input of the content viewers. The content processing apparatus may include a first content viewer group and a second content viewer group according to the character selection input, and a character video stream including a second character and a third character corresponding to the character selected by each content viewer group Can generate The content processing apparatus may open the first and second content chat rooms in each of the content viewing terminals of the first and second content viewer groups, and receive first and second chat inputs input to the first and second content chat rooms Thus, it can be displayed in chat rooms. When the ratio of the number of content viewing terminals input the first keyword through the first chat input and the total number of content viewing terminals in the first content viewer group is equal to or greater than a predetermined ratio, the content processing device selects the first content viewer group A video stream may be generated by adding a video effect in which the second character performs a specific operation. In addition, the content processing apparatus, if the ratio of the number of content viewing terminals input the second keyword through the second chat input and the total number of content viewing terminals in the second content viewer group is more than a predetermined ratio, the second content viewer group A video stream may be generated by adding a video effect in which the selected third character performs a specific operation.

예를 들어, 콘텐츠 제공자(811)의 하이파이브 동작(813)에 응답하여 콘텐츠 시청자 그룹(803) 내 콘텐츠 시청자들의 과반수 이상이 콘텐츠 시청 단말의 채팅방에 콘텐츠 제공자(811)의 하이파이브 동작에 대응하는 '하이파이브' 키워드를 입력한 경우, 콘텐츠 처리 장치는 강아지 캐릭터와 고양이 캐릭터가 하이파이브 동작을 수행하는 영상 스트림을 생성할 수 있다. 또한, 콘텐츠 제공자(811)의 하이파이브 동작에 응답하여, 콘텐츠 시청자 그룹(804)의 과반수 이상이 콘텐츠 시청 단말의 채팅방에 콘텐츠 제공자(811)의 하이파이브 동작에 대응하지 않는 메롱' 키워드를 입력한 경우, 콘텐츠 처리 장치는 강아지 캐릭터와 유령 캐릭터가 슬퍼하는 동작을 수행하는 영상 스트림을 생성할 수 있다. 이렇듯, 실시예들은 캐릭터에 관한 새로운 콘텐츠를 제공할 수 있도록, 시청자들을 선택한 캐릭터 별로 그룹화하고, 그룹화된 시청자들의 과반수 이상의 참여를 유도할 수 있다.For example, in response to the high five action 813 of the content provider 811, more than half of the content viewers in the content viewer group 803 correspond to the high five action of the content provider 811 in the chat room of the content viewing terminal. When the keyword 'high five' is input, the content processing device may generate a video stream in which the dog character and the cat character perform a high five operation. In addition, in response to the high-five operation of the content provider 811, more than half of the content viewer group 804 inputs the keyword 'Meron' that does not correspond to the high-five operation of the content provider 811 in the chat room of the content viewing terminal. In this case, the content processing device may generate a video stream that performs an operation of grieving between the puppy character and the ghost character. As such, embodiments may group viewers by selected characters so as to provide new content about the character, and induce participation of more than half of the grouped viewers.

도 9는 일실시예에 따른 장치의 구성의 예시도이다.9 is an exemplary view of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(901)는 프로세서(911) 및 메모리(912)를 포함한다. 일실시예에 따른 장치(901)는 상술한 서버 또는 단말일 수 있다. 프로세서(911)는 도 1 내지 도 8을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 8을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(912)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(9123)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. The device 901 according to an embodiment includes a processor 911 and a memory 912. The device 901 according to an embodiment may be the above-described server or terminal. The processor 911 may include at least one device described above with reference to FIGS. 1 to 8, or may perform at least one method described above with reference to FIGS. 1 to 8. The memory 912 may store information related to the above-described method or a program implemented with the above-described method. The memory 9123 may be a volatile memory or a nonvolatile memory.

프로세서(911)는 프로그램을 실행하고, 장치(901)를 제어할 수 있다. 프로세서(911)에 의하여 실행되는 프로그램의 코드는 메모리(912)에 저장될 수 있다. 장치(901)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 911 may execute a program and control the device 901. The code of the program executed by the processor 911 may be stored in the memory 912. The device 901 is connected to an external device (for example, a personal computer or a network) through an input / output device (not shown), and can exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by hardware components, software components, and / or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if substituted or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

실시간 캐릭터 스트리밍 콘텐츠 처리 장치에 의해 수행되는 실시간 캐릭터 스트리밍 콘텐츠 처리 방법으로서,
실시간 캐릭터 스트리밍 콘텐츠의 제공을 위한 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성하는 단계;
콘텐츠 제공자의 콘텐츠 제공 단말로부터 상기 콘텐츠 제공 채널을 통한 접속들을 인식하는 단계;
상기 콘텐츠 제공 단말로부터 제1 캐릭터를 선택하는 제1 캐릭터 선택 입력을 수신하는 단계;
콘텐츠 시청자들의 콘텐츠 시청 단말들로부터 상기 콘텐츠 시청 채널을 통한 접속들을 인식하는 단계;
상기 콘텐츠 제공자의 촬영 영상 스트림을 상기 콘텐츠 제공 단말로부터 수신하는 단계;
상기 콘텐츠 제공자로부터 수신한 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제1 캐릭터로 대체한 제1 캐릭터 영상 스트림을 생성하는 단계; 및
생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하는 단계
를 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계;
상기 콘텐츠 시청 단말들로부터 시청 영상 스트림을 수신하는 단계;
수신된 상기 시청 영상 스트림으로부터 응답 동작을 인식하는 단계 - 상기 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 및
상기 응답 동작이 인식된 상기 콘텐츠 시청 단말들의 수와 상기 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
A real-time character streaming content processing method performed by a real-time character streaming content processing device,
Generating a content providing channel and a content viewing channel for providing real-time character streaming content;
Recognizing connections through the content providing channel from a content providing terminal of a content provider;
Receiving a first character selection input for selecting a first character from the content providing terminal;
Recognizing connections through the content viewing channel from content viewing terminals of content viewers;
Receiving a video stream of the content provider from the content providing terminal;
Generating a first character video stream in which the subject of the photographed video stream is replaced with the first character based on the expression, motion, and sound information of the subject of the photographed video stream received from the content provider; And
Transmitting the generated first character video stream to the content viewing terminals
Including,
Generating the first character video stream,
Recognizing a preset operation of a subject of the captured video stream;
Receiving a viewing video stream from the content viewing terminals;
Recognizing a response operation from the received viewing video stream, wherein the response operation is an operation performed in response to the preset operation; And
When the ratio of the number of the content viewing terminals recognized by the response operation and the total number of content viewing terminals accessed through the content viewing channel is equal to or greater than a predetermined ratio, the first character performs a video effect of performing the first operation. Steps to add
Containing,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 제1 캐릭터 선택 입력을 수신하는 단계는,
복수의 캐릭터들에 대한 우선순위 선택 입력을 수신하는 단계를 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 촬영 영상 스트림의 주체의 미리 설정된 제1 동작을 인식할 경우 상기 제1 캐릭터를 상기 우선순위 선택 입력의 차순위 선택 입력에 대응하는 캐릭터로 변경하는 단계;
상기 촬영 영상 스트림의 주체의 미리 설정된 제2 동작을 인식할 경우 상기 제1 캐릭터를 제거하는 단계; 또는
상기 촬영 영상 스트림의 주체의 미리 설정된 제3 동작을 인식할 경우 제거된 상기 제1 캐릭터를 재삽입하는 단계
중 하나 이상을 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
The step of receiving the first character selection input,
And receiving a priority selection input for a plurality of characters,
Generating the first character video stream,
Changing the first character to a character corresponding to the next priority selection input of the priority selection input when recognizing a preset first operation of the subject of the captured video stream;
Removing the first character when recognizing a preset second operation of the subject of the captured video stream; or
Re-inserting the removed first character when recognizing a preset third motion of the subject of the captured video stream
Containing one or more of the
Real-time character streaming content processing method.
제1 항에 있어서,
상기 콘텐츠 시청 단말들 중에서 제1 콘텐츠 시청 단말로부터 제2 캐릭터 선택 입력을 수신하는 단계;
상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제2 캐릭터로 대체한 제2 캐릭터 영상 스트림을 생성하는 단계;
상기 제1 콘텐츠 시청 단말로 상기 제2 캐릭터 영상 스트림을 송신하는 단계;
상기 콘텐츠 시청 단말들 중에서 제2 콘텐츠 시청 단말로부터 제3 캐릭터 선택 입력을 수신하는 단계;
상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제3 캐릭터로 대체한 제3 캐릭터 영상 스트림을 생성하는 단계; 및
상기 제2 콘텐츠 시청 단말로 상기 제3 캐릭터 영상 스트림을 송신하는 단계;
를 더 포함하고,
생성된 상기 제2 캐릭터 영상 스트림 및 상기 제3 캐릭터 영상 스트림의 상기 제2 캐릭터 및 상기 제3 캐릭터 각각의 표정, 동작 및 소리 정보는, 생성된 상기 제1 캐릭터 영상 스트림의 제1 캐릭터의 표정, 동작 및 소리 정보와 상이한 것인,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Receiving a second character selection input from a first content viewing terminal among the content viewing terminals;
Generating a second character video stream in which the subject of the photographed video stream is replaced with the second character based on the expression, motion, and sound information of the subject of the photographed video stream;
Transmitting the second character video stream to the first content viewing terminal;
Receiving a third character selection input from a second content viewing terminal among the content viewing terminals;
Generating a third character video stream in which the subject of the photographed video stream is replaced with the third character based on the expression, motion, and sound information of the subject of the photographed video stream; And
Transmitting the third character video stream to the second content viewing terminal;
Further comprising,
Expressions, motions, and sound information of each of the second character and the third character of the generated second character image stream and the third character image stream include facial expressions of the first character of the generated first character image stream, Different from the motion and sound information,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계;
상기 콘텐츠 시청 단말들로부터 시청 영상 스트림을 수신하는 단계;
수신된 상기 시청 영상 스트림으로부터 응답 동작, 상기 응답 동작이 아닌 동작, 및 무응답 중 하나 이상을 인식하는 단계 - 상기 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 및
상기 제1 캐릭터가 제2 동작을 수행하는 영상 스트림, 제3 동작을 수행하는 영상 스트림 및 제4 동작을 수행하는 영상 스트림 중 하나 이상을 생성하는 단계
를 포함하고,
생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하는 단계는,
생성된 하나 이상의 상기 제1 캐릭터가 상기 제2 동작을 수행하는 영상 스트림, 상기 제3 동작을 수행하는 영상 스트림, 상기 제4 동작을 수행하는 영상 스트림 각각을 상기 응답 동작, 상기 응답 동작이 아닌 동작, 및 상기 무응답이 인식된 상기 시청 영상 스트림을 송신한 상기 콘텐츠 시청 단말들 각각으로 송신하는 단계
를 포함하고,
상기 제2 동작을 수행하는 영상 스트림은,
상기 응답 동작이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제2 동작을 수행하는 영상 스트림이고,
상기 제3 동작을 수행하는 영상 스트림은,
상기 응답 동작이 아닌 동작이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제3 동작을 수행하는 영상 스트림이고,
상기 제4 동작을 수행하는 영상 스트림은,
상기 무응답이 인식된 경우 상기 제1 캐릭터 영상 스트림의 상기 제1 캐릭터가 제4 동작을 수행하는 영상 스트림인 것인,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Generating the first character video stream,
Recognizing a preset operation of a subject of the captured video stream;
Receiving a viewing video stream from the content viewing terminals;
Recognizing at least one of a response operation, a non-response operation, and a non-response from the received viewing video stream, wherein the response operation is an operation performed in response to the preset operation; And
Generating at least one of a video stream in which the first character performs a second operation, a video stream in a third operation, and a video stream in a fourth operation;
Including,
Transmitting the generated first character video stream to the content viewing terminals,
Each of the generated one or more first character video streams performing the second operation, the video stream performing the third operation, and each of the video streams performing the fourth operation are the response operation and the operation other than the response operation And transmitting each of the content viewing terminals that have transmitted the viewing video stream in which the non-response was recognized.
Including,
The video stream performing the second operation,
When the response operation is recognized, the first character of the first character image stream is an image stream performing a second operation,
The video stream performing the third operation,
When an operation other than the response operation is recognized, the first character of the first character image stream is an image stream that performs a third operation,
The video stream performing the fourth operation,
When the non-response is recognized, the first character of the first character video stream is a video stream performing a fourth operation,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 콘텐츠 시청 단말들 각각에 콘텐츠 채팅방들을 개설하는 단계;
상기 콘텐츠 시청 단말들로부터 채팅 입력을 수신하여 상기 콘텐츠 채팅방을 통해 표시하는 단계
를 더 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계;
상기 채팅 입력에 포함된 제1 키워드에 기초하여, 상기 제1 캐릭터가 제2 동작을 수행하는 영상 효과를 추가하는 단계 - 상기 제1 키워드는 상기 촬영 영상 스트림의 주체의 미리 설정된 동작에 대응하는 키워드임 -; 및
상기 채팅 입력에 포함된 제2 키워드에 기초하여, 상기 제1 캐릭터가 제3 동작을 수행하는 영상 효과를 추가하는 단계 - 상기 제2 키워드는 상기 촬영 영상 스트림의 주체의 미리 설정된 동작에 대응하지 않는 키워드임 -;
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Establishing content chat rooms in each of the content viewing terminals;
Receiving a chat input from the content viewing terminals and displaying it through the content chat room
Further comprising,
Generating the first character video stream,
Recognizing a preset operation of a subject of the captured video stream;
Adding a video effect in which the first character performs a second operation based on the first keyword included in the chat input-the first keyword is a keyword corresponding to a preset operation of a subject of the captured video stream Im-; And
Adding a video effect in which the first character performs a third operation based on the second keyword included in the chat input-the second keyword does not correspond to a preset operation of the subject of the captured video stream Keywords-;
Containing,
Real-time character streaming content processing method.
삭제delete 제1 항에 있어서,
상기 콘텐츠 시청 단말들 각각에 콘텐츠 채팅방들을 개설하는 단계;
상기 콘텐츠 시청 단말들로부터 채팅 입력을 수신하여 상기 콘텐츠 채팅방을 통해 표시하는 단계
를 더 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 채팅 입력을 통해 제1 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 상기 제1 캐릭터가 제2 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Establishing content chat rooms in each of the content viewing terminals;
Receiving a chat input from the content viewing terminals and displaying it through the content chat room
Further comprising,
Generating the first character video stream,
When the ratio of the number of the content viewing terminals inputting the first keyword through the chat input and the total number of content viewing terminals accessed through the content viewing channel is equal to or greater than a predetermined ratio, the first character performs the second operation. Steps to add video effects to perform
Containing,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 콘텐츠 시청 채널을 통해 접속된 상기 콘텐츠 시청 단말들의 각각의 접속 시간을 수집하는 단계
를 더 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 콘텐츠 시청 단말들의 각각의 접속 시간에 기초하여, 상기 제1 캐릭터가 제2 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Collecting each access time of the content viewing terminals connected through the content viewing channel
Further comprising,
Generating the first character video stream,
Adding a video effect in which the first character performs a second operation based on each access time of the content viewing terminals
Containing,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 콘텐츠 시청 단말들에 의해 균등하게 지불되는 비용들을 합산하는 단계; 및
합산된 상기 비용들에 기초하여, 상기 제1 캐릭터가 제2 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
Generating the first character video stream,
Summing the costs equally paid by the content viewing terminals; And
Adding a video effect in which the first character performs a second operation based on the summed costs.
Containing,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 콘텐츠 시청자들은 제1 콘텐츠 시청자 그룹 및 제2 콘텐츠 시청자 그룹을 포함하고,
상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들을 통해 제2 캐릭터 선택 입력을 수신하는 단계;
상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들을 통해 제3 캐릭터 선택 입력을 수신하는 단계;
를 더 포함하고,
상기 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 제2 캐릭터 및 상기 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계를 포함하는
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
The content viewers include a first content viewer group and a second content viewer group,
Receiving a second character selection input through content viewing terminals of the first content viewer group;
Receiving a third character selection input through content viewing terminals of the second content viewer group;
Further comprising,
Generating the first character video stream,
And generating a first character video stream including the second character and the third character.
Real-time character streaming content processing method.
제10 항에 있어서,
상기 제2 캐릭터 및 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하는 단계;
상기 제1 콘텐츠 시청자 그룹 및 상기 제2 콘텐츠 시청자 그룹 각각의 시청 단말들로부터 시청 영상 스트림을 수신하는 단계;
수신된 상기 제1 콘텐츠 시청자 그룹의 시청 영상 스트림으로부터 제1 응답 동작을 인식하는 단계 - 상기 제1 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -;
수신된 상기 제2 콘텐츠 시청자 그룹의 시청 영상 스트림으로부터 제2 응답 동작을 인식하는 단계 - 상기 제2 응답 동작은 상기 미리 설정된 동작에 대응하지 않는 응답 동작임 -;
상기 제1 응답 동작이 인식된 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 수와 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제1 미리 정해진 비율 이상인 경우, 상기 제2 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계; 및
상기 제2 응답 동작이 인식된 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 수와 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제2 미리 정해진 비율 이상인 경우, 상기 제3 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
The method of claim 10,
Generating a first character video stream including the second character and the third character,
Recognizing a preset operation of a subject of the captured video stream;
Receiving a viewing video stream from viewing terminals of each of the first content viewer group and the second content viewer group;
Recognizing a first response operation from the received viewing video stream of the first group of content viewers, wherein the first response operation is an operation performed in response to the preset operation;
Recognizing a second response operation from the received video stream of the second group of content viewers, wherein the second response operation is a response operation that does not correspond to the preset operation;
When the ratio of the total number of content viewing terminals of the first content viewer group and the total number of content viewing terminals of the first content viewer group in which the first response action is recognized is greater than or equal to a first predetermined rate, the second character Adding a video effect to perform the first operation; And
If the ratio of the total number of content viewing terminals of the second content viewer group and the total number of content viewing terminals of the second content viewer group in which the second response operation is recognized is greater than or equal to a second predetermined rate, the third character Adding a video effect to perform the first operation
Containing,
Real-time character streaming content processing method.
제10 항에 있어서,
상기 제1 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말 각각에 제1 콘텐츠 채팅방들을 개설하는 단계;
상기 제2 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말 각각에 제2 콘텐츠 채팅방들을 개설하는 단계;
상기 제1 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말로부터 제1 채팅 입력을 수신하여 상기 제1 콘텐츠 채팅방을 통해 표시하는 단계; 및
상기 제2 콘텐츠 시청자 그룹의 상기 콘텐츠 시청 단말로부터 제2 채팅 입력을 수신하여 상기 제2 콘텐츠 채팅방을 통해 표시하는 단계
를 더 포함하고,
상기 제2 캐릭터 및 제3 캐릭터를 포함하는 제1 캐릭터 영상 스트림을 생성하는 단계는,
상기 제1 채팅 입력에 포함된 제1 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 제1 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제1 미리 정해진 비율 이상인 경우, 상기 제2 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계; 및
상기 제2 채팅 입력에 포함된 제2 키워드를 입력한 상기 콘텐츠 시청 단말들의 수와 상기 제2 콘텐츠 시청자 그룹의 콘텐츠 시청 단말들의 총 수의 비율이 제2 미리 정해진 비율 이상인 경우, 상기 제3 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
The method of claim 10,
Establishing first content chat rooms in each of the content viewing terminals of the first content viewer group;
Establishing second content chat rooms in each of the content viewing terminals of the second content viewer group;
Receiving a first chat input from the content viewing terminal of the first content viewer group and displaying it through the first content chat room; And
Receiving a second chat input from the content viewing terminal of the second content viewer group and displaying it through the second content chat room
Further comprising,
Generating a first character video stream including the second character and the third character,
When the ratio of the total number of the content viewing terminals and the content viewing terminals of the first content viewer group that input the first keyword included in the first chat input is greater than or equal to the first predetermined rate, the second character Adding a video effect to perform the first operation; And
If the ratio of the total number of content viewing terminals and the total number of content viewing terminals of the second content viewer group inputting the second keyword included in the second chat input is greater than or equal to a second predetermined rate, the third character Adding a video effect to perform the first operation
Containing,
Real-time character streaming content processing method.
제1 항에 있어서,
상기 제1 캐릭터 선택 입력을 수신하는 단계는,
사용자 제작 캐릭터, 라이선스를 받은 캐릭터(licensed character), 및 기본 캐릭터(default character) 중에서 상기 제1 캐릭터를 선택하는 입력을 수신하는 단계; 및
상기 제1 캐릭터에 대응하는 캐릭터 제작자에게 비용을 지불하는 단계
를 포함하는,
실시간 캐릭터 스트리밍 콘텐츠 처리 방법.
According to claim 1,
The step of receiving the first character selection input,
Receiving an input for selecting the first character from a user-made character, a licensed character, and a default character; And
Paying a cost to a character creator corresponding to the first character
Containing,
Real-time character streaming content processing method.
하드웨어와 결합되어 제1 항 내지 제5 항, 제7 항 내지 제13 항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium for executing the method of any one of claims 1 to 5, 7 to 13 in combination with hardware.
실시간 캐릭터 스트리밍 콘텐츠의 제공을 위한 콘텐츠 제공 채널 및 콘텐츠 시청 채널을 생성하고;
콘텐츠 제공자의 콘텐츠 제공 단말로부터 상기 콘텐츠 제공 채널을 통한 접속들을 인식하고;
상기 콘텐츠 제공 단말로부터 제1 캐릭터를 선택하는 제1 캐릭터 선택 입력을 수신하고;
콘텐츠 시청자들의 콘텐츠 시청 단말들로부터 상기 콘텐츠 시청 채널을 통한 접속들을 인식하고;
상기 콘텐츠 제공자의 촬영 영상 스트림을 상기 콘텐츠 제공 단말로부터 수신하고;
상기 콘텐츠 제공자로부터 수신한 상기 촬영 영상 스트림의 주체의 표정, 동작 및 소리 정보에 기초하여 상기 촬영 영상 스트림의 주체를 상기 제1 캐릭터로 대체한 제1 캐릭터 영상 스트림을 생성하고; 그리고
생성된 상기 제1 캐릭터 영상 스트림을 상기 콘텐츠 시청 단말들로 송신하고;
상기 제1 캐릭터 영상 스트림을 생성하는 것은,
상기 촬영 영상 스트림의 주체의 미리 설정된 동작을 인식하고;
상기 콘텐츠 시청 단말들로부터 시청 영상 스트림을 수신하고;
수신된 상기 시청 영상 스트림으로부터 응답 동작을 인식하고 - 상기 응답 동작은 상기 미리 설정된 동작에 대한 대응으로써 수행되는 동작임 -; 그리고
상기 응답 동작이 인식된 상기 콘텐츠 시청 단말들의 수와 상기 콘텐츠 시청 채널을 통해 접속된 총 콘텐츠 시청 단말들의 수의 비율이 미리 정해진 비율 이상인 경우, 상기 제1 캐릭터가 제1 동작을 수행하는 영상 효과를 추가하는
프로세서를 포함하는, 실시간 캐릭터 스트리밍 콘텐츠 처리 장치.
Create a content providing channel and a content viewing channel for providing real-time character streaming content;
Recognize connections through the content providing channel from the content providing terminal of the content provider;
Receiving a first character selection input for selecting a first character from the content providing terminal;
Recognize connections through the content viewing channel from content viewing terminals of content viewers;
Receiving a video stream of the content provider from the content providing terminal;
Generating a first character video stream in which the subject of the captured video stream is replaced with the first character based on the expression, motion, and sound information of the subject of the captured video stream received from the content provider; And
Transmitting the generated first character video stream to the content viewing terminals;
Generating the first character video stream,
Recognize a preset operation of a subject of the captured video stream;
Receiving a viewing video stream from the content viewing terminals;
Recognize a response operation from the received viewing video stream-the response operation is an operation performed in response to the preset operation-; And
When the ratio of the number of the content viewing terminals recognized by the response operation and the total number of content viewing terminals accessed through the content viewing channel is equal to or greater than a predetermined ratio, the first character performs a video effect of performing the first operation. To add
A real-time character streaming content processing device comprising a processor.
KR1020190130728A 2019-10-21 2019-10-21 Method and apparatus for processing real-time character streaming contents Expired - Fee Related KR102114457B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190130728A KR102114457B1 (en) 2019-10-21 2019-10-21 Method and apparatus for processing real-time character streaming contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190130728A KR102114457B1 (en) 2019-10-21 2019-10-21 Method and apparatus for processing real-time character streaming contents

Publications (1)

Publication Number Publication Date
KR102114457B1 true KR102114457B1 (en) 2020-05-22

Family

ID=70914133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190130728A Expired - Fee Related KR102114457B1 (en) 2019-10-21 2019-10-21 Method and apparatus for processing real-time character streaming contents

Country Status (1)

Country Link
KR (1) KR102114457B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7549062B2 (en) 2023-02-20 2024-09-10 Kddi株式会社 Information processing device, information processing method, and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000048053A (en) * 1998-12-11 2000-07-25 가나이 쓰토무 Television broadcast transmitter/receiver and method of transmitting/receiving a television broadcast
KR20000072128A (en) * 2000-08-02 2000-12-05 엄주천 Voice advertising system using character and advertising method thereof
KR20010028563A (en) * 1999-09-22 2001-04-06 김혜숙 System for chatting on a network
JP2002015217A (en) * 2000-06-30 2002-01-18 Fujitsu Ltd Digital content advertisement display system using auction
KR20020020299A (en) * 2000-09-08 2002-03-15 이상원 The system and method for manufacturing character products using Internet
KR20060092625A (en) 2005-02-18 2006-08-23 주식회사 야호커뮤니케이션 Method and system for providing contents whose character's movement changes by keyword
KR100881371B1 (en) 2007-05-04 2009-02-02 이동수 Real-time video transmission device by wireless multiple access, Real-time video reception device by wireless multiple access, Real-time video transmission and reception device by wireless multiple access, and Real-time video transmission and reception method by wireless multiple access
KR20110025721A (en) * 2009-09-05 2011-03-11 에스케이텔레콤 주식회사 System and method of emotion transmission during video call
KR101111172B1 (en) 2009-11-18 2012-02-16 전제봉 Method for producing moving picture of composite user image
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for emotion content service of communication terminal device, apparatus and method for emotion recognition therefor, apparatus and method for generating and matching emotion content using same
KR101987377B1 (en) 2018-06-28 2019-06-11 (주)에이알에스 System for providing contents streaming service

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000048053A (en) * 1998-12-11 2000-07-25 가나이 쓰토무 Television broadcast transmitter/receiver and method of transmitting/receiving a television broadcast
KR20010028563A (en) * 1999-09-22 2001-04-06 김혜숙 System for chatting on a network
JP2002015217A (en) * 2000-06-30 2002-01-18 Fujitsu Ltd Digital content advertisement display system using auction
KR20000072128A (en) * 2000-08-02 2000-12-05 엄주천 Voice advertising system using character and advertising method thereof
KR20020020299A (en) * 2000-09-08 2002-03-15 이상원 The system and method for manufacturing character products using Internet
KR20060092625A (en) 2005-02-18 2006-08-23 주식회사 야호커뮤니케이션 Method and system for providing contents whose character's movement changes by keyword
KR100881371B1 (en) 2007-05-04 2009-02-02 이동수 Real-time video transmission device by wireless multiple access, Real-time video reception device by wireless multiple access, Real-time video transmission and reception device by wireless multiple access, and Real-time video transmission and reception method by wireless multiple access
KR20110025721A (en) * 2009-09-05 2011-03-11 에스케이텔레콤 주식회사 System and method of emotion transmission during video call
KR101111172B1 (en) 2009-11-18 2012-02-16 전제봉 Method for producing moving picture of composite user image
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for emotion content service of communication terminal device, apparatus and method for emotion recognition therefor, apparatus and method for generating and matching emotion content using same
KR101987377B1 (en) 2018-06-28 2019-06-11 (주)에이알에스 System for providing contents streaming service

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7549062B2 (en) 2023-02-20 2024-09-10 Kddi株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US20210344991A1 (en) Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display
US20210019982A1 (en) Systems and methods for gesture recognition and interactive video assisted gambling
US11050810B2 (en) Method and apparatus for transmitting and receiving image data for virtual-reality streaming service
CN105430455B (en) information presentation method and system
US10499118B2 (en) Virtual and augmented reality system and headset display
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US20180316948A1 (en) Video processing systems, methods and a user profile for describing the combination and display of heterogeneous sources
US20180316947A1 (en) Video processing systems and methods for the combination, blending and display of heterogeneous sources
US11284137B2 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US8990842B2 (en) Presenting content and augmenting a broadcast
US20180316942A1 (en) Systems and methods and interfaces for video processing, combination and display of heterogeneous sources
US12236003B2 (en) Method and system of interactive storytelling with probability-based personalized views
US20180316944A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
CN107087224B (en) Content synchronization apparatus and method
US20180316943A1 (en) Fpga systems and methods for video processing, combination and display of heterogeneous sources
WO2019191082A2 (en) Systems, methods, apparatus and machine learning for the combination and display of heterogeneous sources
US20180316946A1 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
TW201227575A (en) Real-time interaction with entertainment content
CN115442658B (en) Live broadcast method, live broadcast device, storage medium, electronic equipment and product
WO2018071781A2 (en) Systems and methods for video processing and display
US20180316941A1 (en) Systems and methods for video processing and display of a combination of heterogeneous sources and advertising content
US20180316940A1 (en) Systems and methods for video processing and display with synchronization and blending of heterogeneous sources
US10638029B2 (en) Shared experiences in panoramic video
WO2017112520A9 (en) Video display system
KR102159816B1 (en) Apparatus and method for playing back tangible multimedia contents

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20230519

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20230519