KR102460595B1 - Method and apparatus for providing real-time chat service in game broadcasting - Google Patents
Method and apparatus for providing real-time chat service in game broadcasting Download PDFInfo
- Publication number
- KR102460595B1 KR102460595B1 KR1020220103245A KR20220103245A KR102460595B1 KR 102460595 B1 KR102460595 B1 KR 102460595B1 KR 1020220103245 A KR1020220103245 A KR 1020220103245A KR 20220103245 A KR20220103245 A KR 20220103245A KR 102460595 B1 KR102460595 B1 KR 102460595B1
- Authority
- KR
- South Korea
- Prior art keywords
- phrase
- phrases
- game
- output
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 230000004044 response Effects 0.000 claims description 20
- 230000036541 health Effects 0.000 claims description 11
- 230000005281 excited state Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007103 stamina Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4888—Data services, e.g. news ticker for displaying teletext characters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명의 일 실시예는 스트리머가 진행하는 게임 방송에서 실시간으로 채팅 서비스를 제공하는 방법으로서, 상기 게임 방송 내의 게임 영상을 획득하는 단계, 상기 게임 영상으로부터 게임 상태에 관한 정보를 추출하는 단계, 상기 게임 상태에 관한 정보를 기반으로 현재 게임 상태에 관한 제1 상황을 판단하는 단계, 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 단계, 상기 제1 상황 및 상기 제2 상황을 기반으로 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정하는 단계 및 상기 게임 방송 내의 채팅창에 상기 출력 문구를 출력하는 단계를 포함하는 것을 특징으로 한다.An embodiment of the present invention is a method of providing a chat service in real time in a game broadcast conducted by a streamer, comprising the steps of: obtaining a game image in the game broadcast; extracting information about a game state from the game image; Determining a first situation regarding the current game state based on information about the game state, determining a second situation regarding the streamer based on audio information in the game broadcast, the first situation and the first situation 2 Based on the situation, determining an output phrase from among a plurality of candidate phrases stored in the DB and outputting the output phrase to a chat window in the game broadcast.
Description
본 발명은 게임 방송(game broadcasting)에서의 실시간 채팅 서비스(chat service) 제공 방법 및 장치에 관한 것으로, 더욱 상세하게는 게임 방송 영상 및 스트리머(streamer)의 음성 등을 기반으로 게임 상황을 판단하고, 판단한 상황에 적합한 문구가 자동으로 채팅창에 입력되는 채팅 서비스를 제공하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for providing a real-time chat service in game broadcasting, and more particularly, to determine a game situation based on a game broadcasting image and a streamer's voice, etc. , relates to a method and apparatus for providing a chat service in which a phrase suitable for the determined situation is automatically entered into a chat window.
최근 인터넷을 통해 익명의 다른 사용자들에게 실시간으로 동영상 컨텐츠를 제공하는 인터넷 방송 서비스가 주목받고 있다. 이러한 인터넷 방송은 사람들의 다양한 관심사만큼 다양한 주제의 컨텐츠를 제공하고 있으며, 특히, 실시간 게임 플레이 영상을 제공하는 게임 방송이 큰 인기를 끌고 있다.Recently, an Internet broadcasting service that provides video content to other anonymous users through the Internet in real time has been attracting attention. These Internet broadcasts provide content on a variety of topics as much as people's various interests, and in particular, game broadcasts that provide real-time game play images are gaining popularity.
게임 방송이란 영상 스트리머가 온라인 게임을 플레이하며, 플레이하는 영상을 실시간 방송으로 송출하는 방송을 말하며, 게임 방송에서의 게임은 시청자들와 실시간으로 의견을 나누며 진행되기도 한다.Game broadcasting refers to broadcasting in which a video streamer plays an online game and transmits the playing video as a real-time broadcast.
이러한 게임 방송의 큰 인기로 인하여, 최근 게임 방송을 원활하게 제공하는 시스템 또는 시청자들과의 의견 나눔을 보조해주는 시스템들이 개발되는 등, 보다 효과적인 게임 방송에 관한 연구 및 논의가 계속되고 있는 실정이다.Due to the great popularity of game broadcasting, research and discussion on more effective game broadcasting are continuing, such as recently developed systems for smoothly providing game broadcasting or systems for assisting in sharing opinions with viewers.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 게임 방송에서의 실시간 채팅 서비스 제공 방법을 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method for providing a real-time chat service in game broadcasting.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은 게임 방송에서의 실시간 채팅 서비스 제공 장치를 제공하는데 있다.Another object of the present invention to solve the above problems is to provide an apparatus for providing a real-time chat service in game broadcasting.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 서버에 의해 수행되는 스트리머가 진행하는 게임 방송에서 실시간으로 채팅 서비스를 제공하는 방법은 상기 게임 방송 내의 게임 영상을 획득하는 단계, 상기 게임 영상으로부터 게임 상태에 관한 정보를 추출하는 단계, 상기 게임 상태에 관한 정보를 기반으로 현재 게임 상태에 관한 제1 상황을 판단하는 단계, 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 단계, 상기 제1 상황 및 상기 제2 상황을 기반으로 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정하는 단계 및 상기 게임 방송 내의 채팅창에 상기 출력 문구를 출력하는 단계를 포함할 수 있다.A method of providing a chat service in real time in a game broadcast conducted by a streamer performed by a server according to an embodiment of the present invention for achieving the above object includes: acquiring a game image in the game broadcast; extracting state information, determining a first situation regarding the current game state based on the information on the game state, determining a second situation regarding the streamer based on audio information in the game broadcast and determining an output phrase from among a plurality of candidate phrases stored in a DB based on the first situation and the second situation, and outputting the output phrase to a chat window in the game broadcast. .
여기서, 상기 게임 상태에 관한 정보는 상기 게임 영상으로부터 추출되는 헬스바 영역, 시스템 메세지 영역 및 캐릭터 간에 위치 정보를 포함하고, 상기 시스템 메시지 영역은 시스템 창 영역 및 시스템 알림 영역을 포함할 수 있다.Here, the information about the game state may include a health bar area extracted from the game image, a system message area, and location information between characters, and the system message area may include a system window area and a system notification area.
여기서, 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 단계는 상기 오디오 정보 및 미리 저장된 노이즈 제거용 클립을 이용하여 상기 오디오 정보에서 노이즈를 일부 제거한 개선된 오디오 정보를 도출하는 단계, 상기 개선된 오디오 정보 중 상기 게임 방송의 시작 시점부터 일정 시간까지의 개선된 초기 오디오 정보를 기반으로 상기 스트리머에 대응되는 주파수 상의 오디오 기준 세기를 결정하는 단계 및 상기 개선된 오디오 정보 중 상기 일정 시간 이후의 개선된 측정 대상 오디오 정보가 상기 오디오 기준 세기 이상의 주파수 상의 세기가 검출될 경우, 상기 스트리머의 상태를 흥분 상태로 결정하는 단계를 포함할 수 있다.Here, the step of determining the second situation regarding the streamer based on the audio information in the game broadcast is improved audio information in which noise is partially removed from the audio information by using the audio information and a pre-stored clip for removing noise. deriving, determining an audio reference intensity on a frequency corresponding to the streamer based on the improved initial audio information from the start time of the game broadcasting to a predetermined time among the improved audio information, and the improved audio information The method may include determining the state of the streamer as an excited state when an intensity on a frequency greater than or equal to the audio reference intensity is detected in the improved measurement target audio information after the predetermined time.
여기서, 상기 게임 방송과 동일한 게임의 이전 다른 게임 방송 내의 다른 게임 영상에 포함된 채팅 영역을 도출하는 단계, 상기 다른 게임 영상에서 채팅 영역 내에 미리 설정된 채팅 윈도우 사이즈 동안 발생된 문구의 수가 제1 임계치 이상인 채팅 윈도우에 대응되는 제1 시간 구간 내의 문구들을 도출하는 단계, 상기 제1 시간 구간 내의 문구들 중 가장 많이 공유되는 단어의 개수가 제2 임계치 이상인지 판단하는 단계 및 상기 단어의 개수가 상기 제2 임계치 이상인 경우, 상기 제1 시간 구간 내의 문구들 중 상기 단어에 대응되는 키워드가 공유되는 문구들을 상기 DB에 저장된 상기 복수의 후보 문구들에 포함시키는 단계를 더 포함할 수 있다.Here, deriving a chat area included in another game video in another game broadcast before the same game as the game broadcast, the number of phrases generated during a preset chat window size in the chat area in the other game video is equal to or greater than a first threshold Deriving phrases within a first time interval corresponding to the chatting window, determining whether the number of words most shared among the phrases within the first time interval is equal to or greater than a second threshold, and the number of words is the second The method may further include including, in the plurality of candidate phrases stored in the DB, phrases in which a keyword corresponding to the word is shared among the phrases within the first time interval, if the threshold is higher.
여기서, 상기 키워드가 공유되는 문구들 중 제1 문구로부터 미리 설정된 사이즈의 제2 시간 구간 내의 문구를 제1 문구에 대한 문맥에 맞는 문구로 결정하고, 상기 제2 시간 구간을 벗어난 문구를 제1 문구에 대한 문맥이 맞지 않은 문구로 결정하는 단계를 더 포함할 수 있다.Here, among the phrases in which the keyword is shared, a phrase within a second time interval of a preset size from the first phrase is determined as a phrase suitable for the context of the first phrase, and a phrase outside the second time interval is determined as the first phrase It may further include the step of determining that the context is out of context for the phrase.
여기서, 상기 키워드가 공유되는 문구들 중 제2 문구 내의 상기 키워드를 제외한 미리 설정된 긍정어 또는 부정어가 포함되었는지 판단하는 단계 및 상기 제2 문구 내에 상기 긍정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 긍정 문구들로 결정하고, 상기 제2 문구 내에 상기 부정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 부정 문구들로 결정하는 단계를 더 포함할 수 있다.Here, determining whether a preset positive word or negative word other than the keyword in the second phrase is included among the phrases in which the keyword is shared, and when the affirmative word is included in the second phrase, the phrases in which the keyword is shared The method may further include determining positive phrases, and when the negative word is included in the second phrase, determining phrases in which the keyword is shared as negative phrases.
여기서, 상기 DB에 저장된 상기 복수의 후보 문구들을 기반으로 상기 키워드가 공유되는 문구들 각각의 일반성 지수를 산출하는 단계 및 상기 키워드가 공유되는 문구들 중 상기 일반성 지수가 제3 임계치를 초과하는 문구를 상기 복수의 후보 문구들에서 제외하는 단계를 더 포함할 수 있다.Here, calculating a generality index of each of the phrases in which the keyword is shared based on the plurality of candidate phrases stored in the DB, and a phrase in which the generality index exceeds a third threshold among the phrases in which the keyword is shared The method may further include excluding from the plurality of candidate phrases.
여기서, 상기 출력 문구가 출력된 시점부터 미리 설정된 시간 동안 입력된 문구들을 기초로 상기 출력 문구의 영향력에 대응되는 응답률을 계산하는 단계를 더 포함하고, 상기 응답률은 단어 일치 여부에 관한 제1 방법, 유사도에 관한 제2 방법 및 질의응답에 관한 제3 방법 중 적어도 하나를 이용하여 계산될 수 있다.Here, the method further comprising the step of calculating a response rate corresponding to the influence of the output phrase based on the input phrases for a preset time from the time when the output phrase is output, wherein the response rate is a first method regarding whether a word matches; It may be calculated using at least one of the second method related to the similarity and the third method related to the question and answer.
본 발명에 따르면, 실시간 영상 스트리밍(Live video streaming)에서 다수 시청자들의 반응을 이끌어 낼 수 있는 대화를 자동으로 생성하여 실제 사람이 입력한 것과 같은 효과를 제공할 수 있다.According to the present invention, it is possible to automatically generate a dialogue that can elicit a response from a large number of viewers in live video streaming, thereby providing the same effect as input by a real person.
본 발명에 따르면, 방송 내의 헬스바 영역, 시스템 메세지 영역 및 캐릭터 간의 위치 정보를 고려하고, 더불어 스트리머의 음성도 함께 고려함으로써 현재 상태에 최적화된 문구를 선정하여 제공할 수 있다.According to the present invention, it is possible to select and provide a phrase optimized for the current state by considering the location information between the health bar area, the system message area and the character in the broadcast, and also the voice of the streamer.
본 발명에 따르면, 다양한 응답률 계산 방법을 통해 다양한 상황에서 복수의 후보 문구들 중 가장 효과적인 문구를 선정할 수 있다.According to the present invention, it is possible to select the most effective phrase from among a plurality of candidate phrases in various situations through various response rate calculation methods.
본 발명에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 게임 방송에서의 실시간 채팅 서비스 제공 방법을 수행하는 단말들의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 채팅 서비스 제공 서버의 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 게임 방송에서의 실시간 채팅 서비스 제공 방법의 순서도이다.
도 4는 본 발명의 일 실시예에 따른 게임 상태에 관한 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 오디오 정보를 도출하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 출력 문구에 대한 영향력에 대응되는 응답률을 계산하는 방법을 설명하기 위한 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the present invention, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a block diagram of terminals performing a method of providing a real-time chat service in a game broadcast according to an embodiment of the present invention.
2 is a block diagram of a chat service providing server according to an embodiment of the present invention.
3 is a flowchart of a method of providing a real-time chatting service in a game broadcast according to an embodiment of the present invention.
4 is a diagram for explaining a method of extracting information about a game state according to an embodiment of the present invention.
5 is a diagram for explaining a method of deriving audio information according to an embodiment of the present invention.
6 is a diagram for explaining a method of calculating a response rate corresponding to an influence on an output phrase according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that all modifications, equivalents and substitutes included in the spirit and scope of the present invention are included. In describing each figure, like reference numerals have been used for like elements.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term "and/or" includes a combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
도 1은 본 발명의 일 실시예에 따른 게임 방송에서의 실시간 채팅 서비스 제공 방법을 수행하는 단말들의 구성도이다.1 is a block diagram of terminals performing a method of providing a real-time chat service in a game broadcast according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 실시간 채팅 서비스 제공 방법은 채팅 서비스 제공 서버(이하, 서버(100)), 스트리머 단말(200), 방송 서버(300), 시청자 단말(400) 간의 정보의 송수신을 통해 수행될 수 있다.Referring to FIG. 1 , a method for providing a real-time chat service according to an embodiment of the present invention includes a chat service providing server (hereinafter, server 100), a
예를 들어, 스트리머 단말(200)은 방송 서버(300)에 접속하여 방송을 수행할 수 있으며, 시청자 단말(400)은 방송 서버(300)에 접속하여 스트리머 단말(200)의 방송을 시청할 수 있다. 또한, 일 실시예에 따른 채팅 서비스 제공 서버(100)는 시청자 단말(400)과 유사하게 방송 서버(300)에 접속하여 스트리머 단말(200)의 방송에 참여할 수 있다. 즉, 채팅 서비스 제공 서버(100)는 스트리머 단말(200)의 방송 내의 채팅에 참여하여 문구를 출력하기 위해 방송 서버(300)에 접속할 수 있다.For example, the
예를 들어, 스트리머 단말(200) 및 시청자 단말(400) 중 적어도 일부는 사용자 단말이라 지칭할 수도 있으며, 사용자 단말은 통신 가능하며 컴퓨팅 가능한 전자 기기를 나타낼 수 있으며, 예를 들어, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, at least a portion of the
예를 들어, 스트리머 단말(200)의 경우, 방송을 위한 영상을 촬영할 수 있는 촬영 장치를 탑재한 장치로 한정될 수 있으나, 네트워크를 통해 촬영 장치와 연동되어 방송을 위한 영상을 획득할 수 있는 장치도 포함될 수 있는 바, 이에 한정되는 것은 아니다.For example, in the case of the
도 2는 본 발명의 일 실시예에 따른 채팅 서비스 제공 서버의 블록 구성도이다.2 is a block diagram of a chat service providing server according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 채팅 서비스 제공 서버(100)는 채팅 서비스 제공 장치(100)라고 나타낼 수도 있다. 여기서, 채팅 서비스 제공 장치(100)는 적어도 하나의 프로세서(110) 및 메모리(120)를 포함할 수 있고, 송수신 장치(130), 입력 인터페이스 장치(140), 출력 인터페이스 장치(150) 및 저장 장치(160) 중 적어도 하나를 더 포함할 수 있다. 또한, 채팅 서비스 제공 장치(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.Referring to FIG. 2 , the chat
예를 들어, 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.For example, the at least one
예를 들어, 메모리(120) 또는 저장 장치(160)는 적어도 하나의 프로세서(110)에 의해 실행될 수 있는 적어도 하나의 명령을 저장하고 있을 수 있다. 예를 들어, 적어도 하나의 명령은 상기 게임 방송 내의 게임 영상을 획득하는 명령, 상기 게임 영상으로부터 게임 상태에 관한 정보를 추출하는 명령, 상기 게임 상태에 관한 정보를 기반으로 현재 게임 상태에 관한 제1 상황을 판단하는 명령, 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 명령, 상기 제1 상황 및 상기 제2 상황을 기반으로 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정하는 명령 및 상기 게임 방송 내의 채팅창에 상기 출력 문구를 출력하는 명령을 포함할 수 있다.For example, the
예를 들어, 상기 게임 상태에 관한 정보는, 상기 게임 영상으로부터 추출되는 헬스바 영역, 시스템 메세지 영역 및 캐릭터 간에 위치 정보를 포함하고, 상기 시스템 메시지 영역은 시스템 창 영역 및 시스템 알림 영역을 포함할 수 있다.For example, the information about the game state may include a health bar area extracted from the game image, a system message area, and location information between characters, and the system message area may include a system window area and a system notification area. have.
예를 들어, 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 명령은, 상기 오디오 정보 및 미리 저장된 노이즈 제거용 클립을 이용하여 상기 오디오 정보에서 노이즈를 일부 제거한 개선된 오디오 정보를 도출하는 명령, 상기 개선된 오디오 정보 중 상기 게임 방송의 시작 시점부터 일정 시간까지의 개선된 초기 오디오 정보를 기반으로 상기 스트리머에 대응되는 주파수 상의 오디오 기준 세기를 결정하는 명령 및 상기 개선된 오디오 정보 중 상기 일정 시간 이후의 개선된 측정 대상 오디오 정보가 상기 오디오 기준 세기 이상의 주파수 상의 세기가 검출될 경우, 상기 스트리머의 상태를 흥분 상태로 결정하는 명령을 포함할 수 있다.For example, the command for determining the second situation regarding the streamer based on the audio information in the game broadcast is an improved improved method in which noise is partially removed from the audio information using the audio information and a pre-stored clip for removing noise. A command for deriving audio information, a command for determining an audio reference intensity on a frequency corresponding to the streamer based on improved initial audio information from the start of the game broadcast to a predetermined time among the improved audio information, and the improvement The improved measurement target audio information after the predetermined time among the audio information may include a command for determining the state of the streamer as an excited state when an intensity on a frequency greater than or equal to the audio reference intensity is detected.
예를 들어, 상기 적어도 하나의 명령은 상기 게임 방송과 동일한 게임의 이전 다른 게임 방송 내의 다른 게임 영상에 포함된 채팅 영역을 도출하는 명령, 상기 다른 게임 영상에서 채팅 영역 내에 미리 설정된 채팅 윈도우 사이즈 동안 발생된 문구의 수가 제1 임계치 이상인 채팅 윈도우에 대응되는 제1 시간 구간 내의 문구들을 도출하는 명령, 상기 제1 시간 구간 내의 문구들 중 가장 많이 공유되는 단어의 개수가 제2 임계치 이상인지 판단하는 명령 및 상기 단어의 개수가 상기 제2 임계치 이상인 경우, 상기 제1 시간 구간 내의 문구들 중 상기 단어에 대응되는 키워드가 공유되는 문구들을 상기 DB에 저장된 상기 복수의 후보 문구들에 포함시키는 명령을 더 포함할 수 있다.For example, the at least one command is a command for deriving a chat area included in another game video in another game broadcast before another game broadcast of the same game as the game broadcast, and occurs during a chat window size preset in the chat area in the other game video A command for deriving phrases within a first time interval corresponding to the chat window in which the number of phrases is greater than or equal to a first threshold, a command for determining whether the number of words most shared among phrases within the first time interval is equal to or greater than a second threshold, and When the number of words is equal to or greater than the second threshold, a command for including, among the phrases within the first time period, a keyword corresponding to the word is shared, is included in the plurality of candidate phrases stored in the DB. can
예를 들어, 상기 적어도 하나의 명령은 상기 키워드가 공유되는 문구들 중 제1 문구로부터 미리 설정된 사이즈의 제2 시간 구간 내의 문구를 제1 문구에 대한 문맥에 맞는 문구로 결정하고, 상기 제2 시간 구간을 벗어난 문구를 제1 문구에 대한 문맥이 맞지 않은 문구로 결정하는 명령을 더 포함할 수 있다.For example, the at least one command determines a phrase within a second time interval of a preset size from a first phrase among phrases in which the keyword is shared as a phrase matching the context for the first phrase, and the second time The method may further include instructions for determining the out-of-interval phrase as a phrase out of context with respect to the first phrase.
예를 들어, 상기 적어도 하나의 명령은 상기 키워드가 공유되는 문구들 중 제2 문구 내의 상기 키워드를 제외한 미리 설정된 긍정어 또는 부정어가 포함되었는지 판단하는 명령 및 상기 제2 문구 내에 상기 긍정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 긍정 문구들로 결정하고, 상기 제2 문구 내에 상기 부정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 부정 문구들로 결정하는 명령을 더 포함할 수 있다.For example, the at least one command includes a command for determining whether a preset positive word or negative word excluding the keyword in the second phrase is included among the phrases in which the keyword is shared, and when the affirmative word is included in the second phrase , may further include a command for determining phrases in which the keyword is shared as positive phrases, and determining phrases in which the keyword is shared as negative phrases when the negative word is included in the second phrase.
예를 들어, 상기 적어도 하나의 명령은 상기 DB에 저장된 상기 복수의 후보 문구들을 기반으로 상기 키워드가 공유되는 문구들 각각의 일반성 지수를 산출하는 명령 및 상기 키워드가 공유되는 문구들 중 상기 일반성 지수가 제3 임계치를 초과하는 문구를 상기 복수의 후보 문구들에서 제외하는 명령을 더 포함할 수 있다.For example, the at least one command includes a command for calculating a generality index of each of the phrases in which the keyword is shared based on the plurality of candidate phrases stored in the DB and the generality index among the phrases in which the keyword is shared. The method may further include a command to exclude a phrase exceeding a third threshold from the plurality of candidate phrases.
예를 들어, 상기 적어도 하나의 명령은 상기 출력 문구가 출력된 시점부터 미리 설정된 시간 동안 입력된 문구들을 기초로 상기 출력 문구의 영향력에 대응되는 응답률을 계산하는 명령을 더 포함하고, 상기 응답률은 단어 일치 여부에 관한 제1 방법, 유사도에 관한 제2 방법 및 질의응답에 관한 제3 방법 중 적어도 하나를 이용하여 계산될 수 있다.For example, the at least one command further includes a command for calculating a response rate corresponding to the influence of the output phrase based on the inputted phrases for a preset time from the time when the output phrase is output, and the response rate is a word The calculation may be performed using at least one of a first method relating to whether or not matching, a second method relating to similarity, and a third method relating to question and answer.
도 3은 본 발명의 일 실시예에 따른 게임 방송에서의 실시간 채팅 서비스 제공 방법의 순서도이다.3 is a flowchart of a method of providing a real-time chatting service in a game broadcast according to an embodiment of the present invention.
도 3을 참조하면, S310 단계에서 일 실시예는 상기 게임 방송 내의 게임 영상을 획득할 수 있다. 즉, 일 실시예는 스트리머가 방송하는 게임 영상을 획득할 수 있다. Referring to FIG. 3 , in step S310, an embodiment may acquire a game image in the game broadcast. That is, according to an embodiment, a game image broadcast by a streamer may be obtained.
S320 단계에서 일 실시예는 상기 게임 영상으로부터 게임 상태에 관한 정보를 추출할 수 있다. 보다 상세하게는 도 4와 함께 설명하겠다.In step S320, an embodiment may extract information about the game state from the game image. In more detail, it will be described in conjunction with FIG. 4 .
도 4는 본 발명의 일 실시예에 따른 게임 상태에 관한 정보를 추출하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of extracting information about a game state according to an embodiment of the present invention.
도 4를 참조하면, 일 실시예는 게임 영상으로부터 헬스바 영역(410), 시스템 메세지 영역(421, 422, 423) 및 캐릭터 간에 위치 정보(431, 432)를 추출할 수 있고, 상기 시스템 메시지 영역은 시스템 창 영역(421) 및 시스템 알림 영역(422)을 포함할 수 있다. Referring to FIG. 4 , according to an embodiment, the
예를 들어, 캐릭터 간의 위치 정보(431, 432)는 캐릭터의 움직임들을 트래킹하여야 하며, 이 경우, 캐릭터의 움직임과 관계없이 일정한 모습을 유지하는 캐릭터의 상단에 위치된 미니 헬스바를 트래킹 대상으로 결정할 수 있다. 여기서, 미니 헬스바는 템플릿 매칭(template matching) 방법을 통해 영상 내에서 캐릭터 별로 특정될 수 있으며, 일 실시예는 미니 헬스바에 대응되는 영역으로부터 영상 내의 캐릭터들의 정보를 획득할 수 있다. 여기서, 캐릭터들의 정보는 캐릭터가 스트리머의 아군인지 적군인지에 관한 피아식별 정보, 레벨 정보, 닉네임 정보, 체력 정보 및 마력 정보 등을 포함할 수 있다. 예를 들어, 체력 정보 및 마력 정보는 잔존 체력 비율 및 잔존 마력 비율 등에 관한 정보로 획득될 수도 있다. 상기 템플릿 매칭 방법은 영상 내에서 미리 설정된 템플릿 영상과 일치하는 부분을 추출하는 방법을 나타낼 수 있으며, 해당 방법은 통상의 기술자에게 자명한 바, 상세한 동작 방법에 대한 설명은 생략하겠다.For example, the
예를 들어, 일 실시예는 게임 영상으로부터 채팅창 영역(441), 스트리머 영역(442)도 추출할 수 있다. 또한 예를 들어, 일 실시예는 영상이 게임 중인 영상인지 게임 중이 아닌 영상인지 판단하기 위해 상태창 영역(450)을 더 추출할 수 있다. 여기서, 상태창 영역(450)은 화면 내에 항상 표시되는 정보일 수 있으며, 이를 통해, 어떤 상황에서도 현재 게임 중인지 게임 중이 아닌지를 정확히 파악하여 게임 중인지 아닌지에 적합한 문구가 출력될 수 있다. 예를 들어, 상태창 영역(450)은 수치 값을 포함할 수 있으며, 수치 값은 상황에 따라 변화하는 특징을 가질 수 있으나, 일 실시예는 미리 학습한 분류 모델을 통해 상태창 영역(450) 내의 수치 값의 변화에 대응하여 게임 중인지 아닌지를 정확히 결정할 수 있다.For example, an embodiment may also extract the
일 실시예는 헬스바 영역(410), 시스템 창 영역(421), 시스템 알림 영역(422) 및 채팅 영역(441) 내의 문자들을 OCR(Optical Character Reader) 기법을 통해 획득할 수 있으며, 획득한 문자들을 기반으로 게임 상태에 관한 정보를 결정할 수 있다. 여기서, OCR 기법은 통상의 기술자에게 자명한 바, 상세한 설명은 생략하겠다.According to an embodiment, the characters in the
예를 들어, 시스템 창 영역(421) 내의 문자들은 게임 상황에 관한 정보를 획득하기 위해 사용될 수 있으며, 시스템 알림 영역(422) 내의 문자들은 게임 내에서 발생된 이벤트를 획득하기 위해 사용될 수 있다. 특히, 시스템 알림 영역(422) 내의 문자에 기반하여 결정되는 이벤트 정보는 게임 영상에서 보이지 않는 게임 상황에 관한 정보를 획득하기 위해 사용될 수 있다. 채팅 영역(441) 내의 문자들은 후술할 출력 문구를 획득하기 위한 문맥 파악에 사용될 수 있다. 헬스바 영역(410) 내의 문자들은 스트리머가 플레이하는 캐릭터의 정보를 획득하는데 사용될 수 있다. 예를 들어, 캐릭터의 정보는 캐릭터의 공격력, 생명력, 스탯(stat), 골드(gold) 및 스킬(skill)의 쿨타임 등이 포함될 수 있으며, 이러한 캐릭터의 정보는 각 정보에 대응되는 미리 설정된 이미지를 기반으로 헬스바 영역(410)에서 각 정보의 위치가 특정된 후, 특정된 위치에서 획득되는 문자를 기반으로 획득될 수 있다.For example, the characters in the
예를 들어, 시스템 이미지 알림 영역(423)은 문자가 아닌 이미지를 통해 발생된 이벤트에 관한 정보를 제공할 수 있다. 예를 들어, 시스템 이미지 알림 영역(423)은 복수의 이미지를 포함할 수 있으며, 복수의 이미지는 각각 특정 캐릭터에 관한 이미지를 나타낼 수 있다. 더불어, 복수의 이미지는 서로 크기가 다른 이미지를 포함할 수 있고, 색상 및 복수의 이미지 간의 상대적인 위치 관계를 기반으로 복수의 이미지에 표시된 캐릭터들 간에 발생된 이벤트 정보를 나타낼 수 있다. 즉, 일 실시예는 시스템 이미지 알림 영역(423) 내의 복수의 이미지를 기반으로 이벤트 발생에 관여한 캐릭터에 관한 정보를 획득할 수 있고, 복수의 이미지 간의 크기 및 상대적인 위치 관계를 통해 이벤트 발생에 관여한 캐릭터 간의 이벤트 정보를 획득할 수 있다. 즉, 일 실시예는 복수의 이미지 간의 크기 및 상대적인 위치 관계를 통해 어떠한 캐릭터가 어떠한 캐릭터를 사살하였는지, 사살에 어떠한 캐릭터가 도움을 주었는지 등에 관한 정보를 획득할 수 있다.For example, the system
일 실시예는 영상의 색채 변화를 기반으로 스트리머의 캐릭터의 사망 정보를 획득할 수 있다. 즉, 일 실시예는 영상의 색체가 없어지는 경우, 스트리머의 캐릭터가 사망했다는 사망 정보를 획득할 수 있다. 예를 들어, 일 실시예는 영상의 HSV(hue saturation value) 값 중 채도를 나타내는 S(saturation)만이 감소되는 경우, 스트리머의 캐릭터가 사망했다고 판단할 수 있다.According to an embodiment, death information of the character of the streamer may be acquired based on the color change of the image. That is, according to an embodiment, when the color of the image disappears, death information indicating that the character of the streamer has died may be acquired. For example, in one embodiment, when only S (saturation) representing saturation among HSV (hue saturation value) values of an image is decreased, it may be determined that the character of the streamer is dead.
상기 획득된 정보들은 모두 게임 상태에 관한 정보에 포함될 수 있으며, 상기 획득된 정보들을 기반으로 현재 게임 상태에 관한 제1 상황이 도출될 수 있다.All of the obtained information may be included in the information about the game state, and a first situation regarding the current game state may be derived based on the obtained information.
위와 같이, 게임 영상으로부터 특정 영역 도출 또는 특정 영역에 대응되는 객체 검출을 위해 일 실시예는 다양한 미리 학습된 모델을 이용할 수 있으며, 학습된 모델은 학습 데이터셋을 통해 다양한 알고리즘으로 미리 학습될 수 있다. 학습데이터 셋은 학습용 영상 및 학습용 영상 내의 학습용 영역을 지시하는 정보를 포함할 수 있다. 예를 들어, 학습에는 합성곱 신경망(convolutional neural networks, CNN), 심층 신경망(artificial neural network, ANN), 순환신경망(recurrent neural networks, RNN) 등 다양한 신경망 또는 알고리즘이 이용될 수 있으나, 이에 한정되는 것은 아니며, 통상의 학습 신경망 또는 알고리즘이 다양하게 이용될 수 있다.As described above, for deriving a specific area from a game image or detecting an object corresponding to a specific area, an embodiment may use various pre-trained models, and the learned model may be pre-trained with various algorithms through a learning dataset. . The training data set may include a training image and information indicating a learning area in the training image. For example, various neural networks or algorithms such as convolutional neural networks (CNN), artificial neural networks (ANN), recurrent neural networks (RNN), etc. may be used for learning, but are limited thereto It is not, and a conventional learning neural network or algorithm may be used in various ways.
다시 도 3을 참조하면, S330 단계에서 일 실시예는 상기 게임 상태에 관한 정보를 기반으로 현재 게임 상태에 관한 제1 상황을 판단할 수 있다.Referring back to FIG. 3 , in step S330, an embodiment may determine a first situation regarding the current game state based on the information on the game state.
S340 단계에서 일 실시예는 상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단할 수 있다. 보다 상세하게는 도 5와 함께 설명하겠다.In step S340, an embodiment may determine the second situation regarding the streamer based on the audio information in the game broadcast. In more detail, it will be described in conjunction with FIG. 5 .
도 5는 본 발명의 일 실시예에 따른 오디오 정보를 도출하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of deriving audio information according to an embodiment of the present invention.
도 5를 참조하면, 일 실시예는 상기 오디오 정보 및 미리 저장된 노이즈 제거용 클립을 이용하여 상기 오디오 정보에서 노이즈를 일부 제거한 개선된 오디오 정보를 도출할 수 있다. 미리 저장된 노이즈 제어용 클립은 완벽한 노이즈 제어가 목적이 아닌 일정 수준의 노이즈 제거를 위한 것으로 게임 종류 별로 1가지가 준비될 수 있으나, 높은 효율을 위해 여러 가지 상황에 적합한 클립이 준비될 수도 있다.Referring to FIG. 5 , according to an embodiment, improved audio information in which noise is partially removed from the audio information may be derived by using the audio information and a pre-stored clip for removing noise. The pre-stored clip for noise control is for noise removal at a certain level, not for perfect noise control, and one for each game type may be prepared, but clips suitable for various situations may be prepared for high efficiency.
또는 예를 들어, 일 실시예는 키보드 소리, 마우스 소리 또는 게임의 배경 음악 소리 등과 같이 방송 특성에 따른 불필요한 소음을 제거하기 위하여 불필요한 소음을 수집할 수 있고, 수집한 불필요한 소음을 기반으로 노이즈 마스크(noise mask)를 생성할 수 있고, 생성한 노이즈 마스크를 이용하여 노이즈를 감소시킬 수 있다. Or, for example, in one embodiment, unnecessary noise may be collected to remove unnecessary noise according to broadcasting characteristics, such as a keyboard sound, a mouse sound, or a background music sound of a game, and based on the collected unnecessary noise, a noise mask ( noise mask), and noise can be reduced using the generated noise mask.
또한, 일 실시예는 스트리머의 흥분 상태를 결정하기 위하여 스트리머의 평소 수준의 오디오를 먼저 수집할 수 있으며, 이를 벗어나는 수준의 오디오를 검출하면, 스트리머의 상태를 흥분 상태로 결정할 수 있다. 이를 위해, 일 실시예는 개선된 오디오 정보 중 상기 게임 방송의 시작 시점부터 일정 시간까지의 개선된 초기 오디오 정보를 기반으로 상기 스트리머에 대응되는 주파수 상의 오디오 기준 세기를 결정할 수 있고, 상기 개선된 오디오 정보 중 상기 일정 시간 이후의 개선된 측정 대상 오디오 정보가 상기 오디오 기준 세기 이상의 주파수 상의 세기가 검출될 경우, 상기 스트리머의 상태를 흥분 상태로 결정할 수 있다.In addition, according to an embodiment, the streamer's usual level of audio may be first collected to determine the streamer's excited state, and when audio of a level out of this is detected, the streamer's state may be determined as an excited state. To this end, an embodiment may determine an audio reference intensity on a frequency corresponding to the streamer based on improved initial audio information from the start of the game broadcast to a predetermined time among the improved audio information, and When an intensity on a frequency equal to or greater than the audio reference intensity is detected in the improved measurement target audio information after the predetermined time among audio information, the streamer may be determined to be an excited state.
다시 도 3을 참조하면, S350 단계에서 일 실시예는 상기 제1 상황 및 상기 제2 상황을 기반으로 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정할 수 있다.Referring back to FIG. 3 , in step S350, an embodiment may determine an output phrase among a plurality of candidate phrases stored in the DB based on the first situation and the second situation.
예를 들어, 일 실시예는 상기 제1 상황 및 상기 제2 상황 중 적어도 하나를 기초로 키워드를 도출할 수 있고, 키워드를 기반으로 상기 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정할 수 있다. 여기서, 일 실시예는 상기 게임 방송과 동일한 게임의 이전 다른 게임 방송 내의 다른 게임 영상에 포함된 채팅 영역을 기초로 문구들을 도출하고, 이를 후보 문구로써 상기 DB에 저장할 수 있으며, 이와 같이 저장한 DB를 이용하여 출력 문구를 결정할 수 있다.For example, in one embodiment, a keyword may be derived based on at least one of the first situation and the second situation, and an output phrase may be determined from among a plurality of candidate phrases stored in the DB based on the keyword. . Here, in one embodiment, phrases may be derived based on a chat area included in another game video in another game broadcast before the same game as the game broadcast, and these may be stored in the DB as candidate phrases, and the DB stored in this way can be used to determine the output text.
예를 들어, 일 실시예는 상기 다른 게임 영상에서 채팅 영역 내에 미리 설정된 채팅 윈도우 사이즈(예를 들어, 10초) 동안 발생된 문구의 수가 제1 임계치 이상인 채팅 윈도우에 대응되는 제1 시간 구간 내의 문구들을 도출할 수 있고, 상기 제1 시간 구간 내의 문구들 중 가장 많이 공유되는 단어의 개수가 제2 임계치 이상인지 판단할 수 있으며, 상기 단어의 개수가 상기 제2 임계치 이상인 경우, 상기 제1 시간 구간 내의 문구들 중 상기 단어에 대응되는 키워드가 공유되는 문구들을 상기 DB에 저장된 상기 복수의 후보 문구들에 포함시킬 수 있다. 즉, 일 실시예는 다른 게임 방송으로부터 채팅/문구를 수집할 때에 시청자의 반응이 집중적으로 발생하는 구간을 추출하여 보다 효과적인 문구들로 DB를 구축할 수 있다.For example, in one embodiment, the number of phrases generated during a preset chat window size (eg, 10 seconds) in the chat area in the other game video is a phrase within a first time interval corresponding to a chat window equal to or greater than a first threshold value can be derived, and it can be determined whether the number of words most shared among the phrases in the first time interval is equal to or greater than a second threshold, and when the number of words is equal to or greater than the second threshold, the first time interval Phrases in which a keyword corresponding to the word is shared among the phrases may be included in the plurality of candidate phrases stored in the DB. That is, in one embodiment, when collecting chatting/phrase from other game broadcasts, it is possible to construct a DB with more effective phrases by extracting a section in which the viewer's reaction intensively occurs.
또한, 일 실시예는 기존 문맥/맥락에 맞으며 키워드를 포함하는 문구를 출력 문구로 결정할 수 있다. 예를 들어, 일 실시예는 상기 키워드가 공유되는 문구들 중 제1 문구로부터 미리 설정된 사이즈의 제2 시간 구간 내의 문구를 제1 문구에 대한 문맥에 맞는 문구로 결정하고, 상기 제2 시간 구간을 벗어난 문구를 제1 문구에 대한 문맥이 맞지 않은 문구로 결정하는 단계를 더 포함할 수 있다. 다시 말해, 특정 문구에 대하여 특정 문구와 동일한 타임 프레임 내에 위치하는 문구를 특정 문구의 맥락에 맞는 문구로 결정하고, 특정 문구에 대하여 특정 문구와 동일하지 않은 타임 프레임 내에 위치하는 문구를 특정 문구의 맥락에 맞지 않는 문구로 결정할 수 있고, 특정 문구, 맥락에 맞는 문구 및 맥락에 맞지 않는 문구를 이용하여 BERT(Bidirectional Encoder Representations from Transformers) 모델을 학습할 수 있고, 학습된 BERT 모델을 이용하여 현재 채팅 영역 내의 문구들로부터 맥락에 맞으며 키워드가 포함된 문구를 출력 문구로 결정할 수 있다.Also, according to an embodiment, a phrase that fits the existing context/context and includes a keyword may be determined as an output phrase. For example, one embodiment determines a phrase within a second time interval of a preset size from the first phrase among the phrases in which the keyword is shared as a phrase matching the context for the first phrase, and the second time interval The method may further include determining the out of context phrase as a phrase out of context with respect to the first phrase. In other words, with respect to a specific phrase, a phrase located within the same time frame as the specific phrase is determined as a phrase matching the context of the specific phrase, and a phrase located within a time frame that is not the same as the specific phrase with respect to the specific phrase is selected as the context of the specific phrase. It can be determined as a phrase that does not fit into the context, and a BERT (Bidirectional Encoder Representations from Transformers) model can be trained using a specific phrase, a phrase that fits the context, and a phrase that does not fit the context, and the current chat area using the trained BERT model. From the phrases in the context, it is possible to determine a phrase including a keyword as an output phrase.
또한, 일 실시예는 상기 키워드가 공유되는 문구들 중 제2 문구 내의 상기 키워드를 제외한 미리 설정된 긍정어 또는 부정어가 포함되었는지 판단할 수 있고, 상기 제2 문구 내에 상기 긍정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 긍정 문구들로 결정하고, 상기 제2 문구 내에 상기 부정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 부정 문구들로 결정할 수 있다. 일 실시예는 위와 같이 문구들에 대하여 긍정 문구 또는 부정 문구를 라벨링해두어 현재 채팅 영역 내의 문구들이 긍정적인 상황인 경우, 긍정 문구 중 출력 문구를 결정할 수 있고, 부정적인 상황인 경우, 부정 문구 중 출력 문구를 결정할 수 있다. 다시 말해, 일 실시예는 특정 문구에 대하여 긍정 문구인지 부정 문구인지 라벨링할 수 있고, 긍정/부정에 대하여 라벨링한 데이터를 이용하여 상술한 BERT 기반의 감정 유형 분류 모델을 학습할 수 있다. 일 실시예는 학습된 BERT 기반의 감정 유형 분류 모델을 기초로 현재 채팅 영역 내의 문구가 긍정 문구인지 부정 문구인지 판단할 수 있고, 판단한 긍정/부정 문구를 통해 현재 상황이 긍정적인지 부정적인지를 판단할 수도 있으며, 이에 따라 후보 분구들 중에서도 긍정/부정을 고려하여적절한 출력 문구를 결정할 수 있다.In addition, an embodiment may determine whether a preset affirmative word or negative word other than the keyword in the second phrase is included among the phrases in which the keyword is shared, and when the affirmative word is included in the second phrase, the keyword may determine shared phrases as positive phrases, and when the negative word is included in the second phrase, phrases shared with the keyword may be determined as negative phrases. In one embodiment, by labeling positive or negative phrases with respect to the phrases as above, when the phrases in the current chatting area are in a positive situation, it is possible to determine the output phrase among the positive phrases, and in a negative situation, output the negative phrases You can decide the text. In other words, according to an embodiment, whether a specific phrase is a positive phrase or a negative phrase can be labeled, and the above-described BERT-based emotion type classification model can be learned using data labeled for positive/negative. In one embodiment, based on the learned BERT-based emotion type classification model, it may be determined whether the phrase in the current chatting area is a positive phrase or a negative phrase, and it may be determined whether the current situation is positive or negative through the determined positive/negative phrase Accordingly, it is possible to determine an appropriate output phrase in consideration of positive/negative among the candidate segments.
여기서, 상기 DB에 저장된 상기 복수의 후보 문구들을 기반으로 상기 키워드가 공유되는 문구들 각각의 일반성 지수를 산출하는 단계 및 상기 키워드가 공유되는 문구들 중 상기 일반성 지수가 제3 임계치를 초과하는 문구를 상기 복수의 후보 문구들에서 제외하는 단계를 더 포함할 수 있다. 여기서, 일반성 지수는 perplexity라고 나타낼 수 있으며, 통계적으로 특정 문구의 일반성 지수가 제3 임계치 이하인 경우, 특정 문구를 일반적인 문구로 판단할 수 있고, 특정 문구의 일반성 지수가 제3 임계치 초과인 경우, 특정 문구를 일반적이지 않은 특이한 문구로 판단할 수 있다. 이에 따라, 일 실시예는 최대한 일반적인 답변이 나오도록 일반성 지수가 높은 문구를 후보 문구들에서 제외시킬 수 있다.Here, calculating a generality index of each of the phrases in which the keyword is shared based on the plurality of candidate phrases stored in the DB, and a phrase in which the generality index exceeds a third threshold among the phrases in which the keyword is shared The method may further include excluding from the plurality of candidate phrases. Here, the generality index may be expressed as perplexity, and when the generality index of a specific phrase is statistically below the third threshold, the specific phrase may be determined as a general phrase, and when the generality index of the specific phrase exceeds the third threshold, the specific phrase A phrase can be judged as an unusual, unusual phrase. Accordingly, an embodiment may exclude a phrase having a high generality index from candidate phrases so as to provide a most general answer.
일 실시예는 키워드 설정 시 상기 게임에 등장하지 않은 캐릭터에 관한 키워드는 제외할 수 있으며, 또한 상기 게임 방송 내에서 출력 문구를 출력한 이후 중복된 출력 문구 결정을 방지하기 위해 상기 DB에서 상기 출력 문구를 일시적으로 제외할 수 있다.In one embodiment, when setting keywords, keywords related to characters that do not appear in the game may be excluded, and in order to prevent determination of duplicate output phrases after outputting the output phrases in the game broadcast, the output phrases in the DB may be temporarily excluded.
도 6은 본 발명의 일 실시예에 따른 출력 문구에 대한 영향력에 대응되는 응답률을 계산하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of calculating a response rate corresponding to an influence on an output phrase according to an embodiment of the present invention.
도 6을 참조하면, 일 실시예는 출력 문구에 대한 영향력을 평가하기 위하여 출력 문구에 대한 응답률을 계산할 수 있다. 다시 말해, 일 실시예는 상기 출력 문구가 출력된 시점부터 미리 설정된 시간 동안 입력된 문구들을 기초로 상기 출력 문구의 영향력에 대응되는 응답률을 계산할 수 있다. 여기서, 응답률 계산은 단어 일치 여부에 관한 제1 방법, 유사도에 관한 제2 방법 및 질의응답에 관한 제3 방법 중 적어도 하나가 이용될 수 있다 Referring to FIG. 6 , an embodiment may calculate a response rate for the output phrase in order to evaluate the influence on the output phrase. In other words, an embodiment may calculate a response rate corresponding to the influence of the output phrase based on the input phrases for a preset time from the time the output phrase is output. Here, for calculating the response rate, at least one of a first method regarding word matching, a second method regarding similarity, and a third method regarding question and answer may be used.
예를 들어, 3가지 방법 중 제1 방법은 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제1 시간 동안 입력된 문구들 중 상기 출력 문구와 적어도 하나의 단어가 중복되는 문구의 수 및 상기 제1 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법일 수 있다. 또한, 3가지 방법 중 제2 방법은 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제2 시간 동안 입력된 문구들 중 상기 출력 문구와 유사도가 미리 설정된 수치 이상인 문구의 수 및 상기 제2 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법일 수 있다. 또한, 3가지 방법 중 제3 방법은 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제3 시간 동안 입력된 문구들 중 마지막 단어의 마지막 음절이 미리 설정된 종결 음절들 중 하나이고, 상기 출력 문구와 적어도 하나의 단어가 중복되는 문구의 수 및 상기 제3 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법일 수 있다. 여기서, 상기 출력 문구는 문구의 마지막이 물음표인 문구를 나타낼 수 있다. For example, in the first method among the three methods, the number of phrases in which the output phrase and at least one word overlap among the phrases input for a first time after the output phrase in the chat area including the output phrase, and the second It may be a method of calculating a response rate corresponding to the output phrase based on a ratio between the number of phrases for one hour. In addition, in the second method among the three methods, the number of phrases having a similarity with the output phrase among the phrases input for a second time after the output phrase in the chat area including the output phrase is equal to or greater than a preset value and during the second time It may be a method of calculating a response rate corresponding to the output phrase based on a ratio between the number of phrases. In addition, in the third method among the three methods, the last syllable of the last word among the phrases input for a third time after the output phrase in the chat area including the output phrase is one of the preset ending syllables, and the output phrase and It may be a method of calculating a response rate corresponding to the output phrase based on a ratio between the number of phrases in which at least one word overlaps and the number of phrases during the third time period. Here, the output phrase may indicate a phrase in which the end of the phrase is a question mark.
다시 도 3을 참조하면, S360 단계에서 일 실시예는 상기 게임 방송 내의 채팅창에 상기 출력 문구를 출력할 수 있다. 즉, 일 실시예는 채팅창 영역(441)에 결정한 출력 문구를 시청자와 같이 출력할 수 있다.Referring back to FIG. 3 , in step S360, an embodiment may output the output phrase to a chat window in the game broadcast. That is, in one embodiment, the determined output phrase may be output to the chatting
본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽켜질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation according to the embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored. In addition, the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable programs or codes in a distributed manner.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, wherein a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also represent a corresponding block or item or a corresponding device feature. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.
Claims (8)
상기 게임 방송 내의 게임 영상을 획득하는 단계;
상기 게임 영상으로부터 게임 상태에 관한 정보를 추출하는 단계;
상기 게임 상태에 관한 정보를 기반으로 현재 게임 상태에 관한 제1 상황을 판단하는 단계;
상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 단계;
상기 제1 상황 및 상기 제2 상황을 기반으로 DB에 저장된 복수의 후보 문구들 중 출력 문구를 결정하는 단계; 및
상기 게임 방송 내의 채팅창에 상기 출력 문구를 출력하는 단계를 포함하고,
상기 출력 문구가 출력된 시점부터 미리 설정된 시간 동안 입력된 문구들을 기초로 상기 출력 문구의 영향력에 대응되는 응답률을 계산하는 단계를 더 포함하고,
상기 응답률은 단어 일치 여부에 관한 제1 방법, 유사도에 관한 제2 방법 및 질의응답에 관한 제3 방법을 이용하여 계산되고,
상기 제1 방법은 상기 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제1 시간 동안 입력된 문구들 중 상기 출력 문구와 적어도 하나의 단어가 중복되는 문구의 수 및 상기 제1 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법을 나타내고,
상기 제2 방법은 상기 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제2 시간 동안 입력된 문구들 중 상기 출력 문구와 유사도가 미리 설정된 수치 이상인 문구의 수 및 상기 제2 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법을 나타내고,
상기 제3 방법은 상기 출력 문구가 포함된 채팅 영역에서 상기 출력 문구 이후 제3 시간 동안 입력된 문구들 중 마지막 단어의 마지막 음절이 미리 설정된 종결 음절들 중 하나이고, 상기 출력 문구와 적어도 하나의 단어가 중복되는 문구의 수 및 상기 제3 시간 동안의 문구의 수 간의 비율을 기반으로 상기 출력 문구에 대응되는 응답률을 계산하는 방법을 나타내고,
상기 제3 방법이 이용되는 경우, 상기 출력 문구는 문구의 마지막이 물음표인 문구를 나타내는,
실시간 채팅 서비스 제공 방법.As a method of providing a chat service in real time in a game broadcast conducted by a streamer performed by a server,
acquiring a game image in the game broadcast;
extracting information about a game state from the game image;
determining a first situation regarding the current game state based on the information about the game state;
determining a second situation regarding the streamer based on audio information in the game broadcast;
determining an output phrase from among a plurality of candidate phrases stored in a DB based on the first situation and the second situation; and
Comprising the step of outputting the output phrase to a chat window in the game broadcast,
Further comprising the step of calculating a response rate corresponding to the influence of the output phrase based on the input phrases for a preset time from the time the output phrase is output,
The response rate is calculated using a first method for word matching, a second method for similarity, and a third method for question and answer,
The first method includes the number of phrases in which the output phrase and at least one word from among the phrases input for a first time after the output phrase in the chat area including the output phrase, and the number of phrases for the first time represents a method of calculating the response rate corresponding to the output phrase based on the ratio between the numbers,
In the second method, the number of phrases having a similarity with the output phrase equal to or greater than a preset value among phrases input for a second time after the output phrase in the chat area including the output phrase and the number of phrases for the second time represents a method of calculating a response rate corresponding to the output phrase based on the ratio between
In the third method, in the chat area including the output phrase, the last syllable of the last word among the phrases input for a third time after the output phrase is one of the preset ending syllables, and the output phrase and at least one word represents a method of calculating a response rate corresponding to the output phrase based on a ratio between the number of overlapping phrases and the number of phrases for the third time,
When the third method is used, the output phrase indicates a phrase where the end of the phrase is a question mark,
How to provide live chat service.
상기 게임 상태에 관한 정보는,
상기 게임 영상으로부터 추출되는 헬스바 영역, 시스템 메세지 영역 및 캐릭터 간에 위치 정보를 포함하고,
상기 시스템 메세지 영역은 시스템 창 영역 및 시스템 알림 영역을 포함하는,
실시간 채팅 서비스 제공 방법.The method according to claim 1,
Information about the game state,
It contains the location information between the health bar area, the system message area and the character extracted from the game image,
The system message area includes a system window area and a system notification area,
How to provide live chat service.
상기 게임 방송 내의 오디오 정보를 기반으로 상기 스트리머에 관한 제2 상황을 판단하는 단계는,
상기 오디오 정보 및 미리 저장된 노이즈 제거용 클립을 이용하여 상기 오디오 정보에서 노이즈를 일부 제거한 개선된 오디오 정보를 도출하는 단계;
상기 개선된 오디오 정보 중 상기 게임 방송의 시작 시점부터 일정 시간까지의 개선된 초기 오디오 정보를 기반으로 상기 스트리머에 대응되는 주파수 상의 오디오 기준 세기를 결정하는 단계; 및
상기 개선된 오디오 정보 중 상기 일정 시간 이후의 개선된 측정 대상 오디오 정보가 상기 오디오 기준 세기 이상의 주파수 상의 세기가 검출될 경우, 상기 스트리머의 상태를 흥분 상태로 결정하는 단계를 포함하는,
실시간 채팅 서비스 제공 방법.The method according to claim 1,
The step of determining the second situation regarding the streamer based on the audio information in the game broadcast,
deriving improved audio information in which noise is partially removed from the audio information by using the audio information and a pre-stored noise removal clip;
determining an audio reference intensity on a frequency corresponding to the streamer based on the improved initial audio information from the start of the game broadcast to a predetermined time among the improved audio information; and
Comprising the step of determining the state of the streamer as an excited state when the improved measurement target audio information after a predetermined time among the improved audio information detects an intensity on a frequency equal to or greater than the audio reference intensity,
How to provide live chat service.
상기 게임 방송과 동일한 게임의 이전 다른 게임 방송 내의 다른 게임 영상에 포함된 채팅 영역을 도출하는 단계;
상기 다른 게임 영상에서 채팅 영역 내에 미리 설정된 채팅 윈도우 사이즈 동안 발생된 문구의 수가 제1 임계치 이상인 채팅 윈도우에 대응되는 제1 시간 구간 내의 문구들을 도출하는 단계;
상기 제1 시간 구간 내의 문구들 중 가장 많이 공유되는 단어의 개수가 제2 임계치 이상인지 판단하는 단계; 및
상기 단어의 개수가 상기 제2 임계치 이상인 경우, 상기 제1 시간 구간 내의 문구들 중 상기 단어에 대응되는 키워드가 공유되는 문구들을 상기 DB에 저장된 상기 복수의 후보 문구들에 포함시키는 단계를 더 포함하는,
실시간 채팅 서비스 제공 방법.The method according to claim 1,
deriving a chat area included in another game image in another game broadcasting before the same game as the game broadcasting;
deriving phrases within a first time period corresponding to the chat window in which the number of phrases generated during the chat window size preset in the chat area in the other game image is equal to or greater than a first threshold;
determining whether the number of words most shared among the phrases within the first time interval is equal to or greater than a second threshold; and
When the number of words is equal to or greater than the second threshold, including phrases in which a keyword corresponding to the word is shared among the phrases within the first time interval in the plurality of candidate phrases stored in the DB ,
How to provide live chat service.
상기 키워드가 공유되는 문구들 중 제1 문구로부터 미리 설정된 사이즈의 제2 시간 구간 내의 문구를 제1 문구에 대한 문맥에 맞는 문구로 결정하고, 상기 제2 시간 구간을 벗어난 문구를 제1 문구에 대한 문맥이 맞지 않은 문구로 결정하는 단계를 더 포함하는,
실시간 채팅 서비스 제공 방법.5. The method according to claim 4,
Among the phrases in which the keyword is shared, a phrase within a second time interval of a preset size from the first phrase is determined as a phrase appropriate to the context for the first phrase, and a phrase outside the second time interval is determined for the first phrase. further comprising determining which phrase is out of context;
How to provide live chat service.
상기 키워드가 공유되는 문구들 중 제2 문구 내의 상기 키워드를 제외한 미리 설정된 긍정어 또는 부정어가 포함되었는지 판단하는 단계; 및
상기 제2 문구 내에 상기 긍정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 긍정 문구들로 결정하고, 상기 제2 문구 내에 상기 부정어가 포함된 경우, 상기 키워드가 공유되는 문구들을 부정 문구들로 결정하는 단계를 더 포함하는,
실시간 채팅 서비스 제공 방법.5. The method according to claim 4,
determining whether a preset positive word or negative word other than the keyword is included in a second phrase among the phrases in which the keyword is shared; and
When the affirmative word is included in the second phrase, phrases in which the keyword is shared are determined as positive phrases, and when the negative word is included in the second phrase, phrases in which the keyword is shared are determined as negative phrases further comprising the step of
How to provide live chat service.
상기 DB에 저장된 상기 복수의 후보 문구들을 기반으로 상기 키워드가 공유되는 문구들 각각의 일반성 지수를 산출하는 단계; 및
상기 키워드가 공유되는 문구들 중 상기 일반성 지수가 제3 임계치를 초과하는 문구를 상기 복수의 후보 문구들에서 제외하는 단계를 더 포함하는,
실시간 채팅 서비스 제공 방법.5. The method according to claim 4,
calculating a generality index of each of the phrases in which the keyword is shared based on the plurality of candidate phrases stored in the DB; and
The method further comprising the step of excluding, from the plurality of candidate phrases, a phrase in which the generality index exceeds a third threshold among phrases in which the keyword is shared.
How to provide live chat service.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220103245A KR102460595B1 (en) | 2022-08-18 | 2022-08-18 | Method and apparatus for providing real-time chat service in game broadcasting |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220103245A KR102460595B1 (en) | 2022-08-18 | 2022-08-18 | Method and apparatus for providing real-time chat service in game broadcasting |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102460595B1 true KR102460595B1 (en) | 2022-10-28 |
Family
ID=83835303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220103245A Active KR102460595B1 (en) | 2022-08-18 | 2022-08-18 | Method and apparatus for providing real-time chat service in game broadcasting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102460595B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102560823B1 (en) | 2022-12-09 | 2023-07-28 | 주식회사 카페노노 | Method and apparatus for providing chat service |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180069614A (en) * | 2016-12-15 | 2018-06-25 | 주식회사 유니파이 | Method and apparatus for providing user customized multimedia contents based on multimedia contents information |
KR20200048772A (en) | 2018-10-30 | 2020-05-08 | 주식회사 아프리카티비 | Method for providing video and apparatus using the same |
KR20200127658A (en) | 2019-05-03 | 2020-11-11 | 주식회사 엔씨소프트 | Broadcasting effect offering device and method |
-
2022
- 2022-08-18 KR KR1020220103245A patent/KR102460595B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180069614A (en) * | 2016-12-15 | 2018-06-25 | 주식회사 유니파이 | Method and apparatus for providing user customized multimedia contents based on multimedia contents information |
KR20200048772A (en) | 2018-10-30 | 2020-05-08 | 주식회사 아프리카티비 | Method for providing video and apparatus using the same |
KR20200127658A (en) | 2019-05-03 | 2020-11-11 | 주식회사 엔씨소프트 | Broadcasting effect offering device and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102560823B1 (en) | 2022-12-09 | 2023-07-28 | 주식회사 카페노노 | Method and apparatus for providing chat service |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gleason et al. | Making memes accessible | |
CN113297891B (en) | Video information processing method, device and electronic equipment | |
US10373620B2 (en) | Keyword determinations from conversational data | |
Altuncu et al. | Deepfake: definitions, performance metrics and standards, datasets, and a meta-review | |
CN112015852B (en) | Providing responses in conversation about events | |
CN110557659B (en) | Video recommendation method and device, server and storage medium | |
CN113642536B (en) | Data processing method, computer device and readable storage medium | |
CN111191067A (en) | Picture book identification method, terminal device and computer readable storage medium | |
Bodi et al. | Automated video description for blind and low vision users | |
CN113361396A (en) | Multi-modal knowledge distillation method and system | |
CN112163560A (en) | Video information processing method and device, electronic equipment and storage medium | |
WO2024066920A1 (en) | Processing method and apparatus for dialogue in virtual scene, and electronic device, computer program product and computer storage medium | |
CN116088675A (en) | Virtual image interaction method, related device, equipment, system and medium | |
CN110287912A (en) | Method, device and medium for determining emotional state of target object based on deep learning | |
CN118467776A (en) | Image description method, device, equipment, storage medium and product | |
KR102460595B1 (en) | Method and apparatus for providing real-time chat service in game broadcasting | |
CN113762056A (en) | Singing video recognition method, device, equipment and storage medium | |
CN113301352A (en) | Automatic chat during video playback | |
CN116561294A (en) | Sign language video generation method and device, computer equipment and storage medium | |
CN118370987A (en) | Game equipment recommendation method, device and electronic device | |
JP7452867B2 (en) | Language learning devices and programs | |
CN111870961A (en) | Information pushing method and device in game, electronic equipment and readable storage medium | |
CN119565171B (en) | Game interaction realization method and system, electronic equipment and storage medium | |
CN116271841B (en) | Game interaction method, device, computer equipment and storage medium | |
CN110019639B (en) | Data processing method, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20220818 |
|
PA0201 | Request for examination | ||
A302 | Request for accelerated examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20220830 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20220818 Patent event code: PA03021R01I Comment text: Patent Application |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20221014 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20221025 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20221026 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |