KR102700003B1 - 전자 장치 및 그 제어 방법 - Google Patents
전자 장치 및 그 제어 방법 Download PDFInfo
- Publication number
- KR102700003B1 KR102700003B1 KR1020180119946A KR20180119946A KR102700003B1 KR 102700003 B1 KR102700003 B1 KR 102700003B1 KR 1020180119946 A KR1020180119946 A KR 1020180119946A KR 20180119946 A KR20180119946 A KR 20180119946A KR 102700003 B1 KR102700003 B1 KR 102700003B1
- Authority
- KR
- South Korea
- Prior art keywords
- multimedia content
- image frame
- information
- electronic device
- description information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
- H04N21/8405—Generation or processing of descriptive data, e.g. content descriptors represented by keywords
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2323—Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/424—Syntactic representation, e.g. by using alphabets or grammars
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/7635—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/43—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of news video content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4662—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Discrete Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 전자 장치의 세부 블록도,
도 3은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠에 대한 디스크립션 정보를 생성하기 위한 각종 모듈을 저장하는 저장부의 블록도,
도 4는 본 발명의 일 실시예에 따른 전자 장치에서 사용자 명령과 연관된 장면 컨텐츠를 제공하는 방법의 흐름도,
도 5는 본 발명의 또다른 실시예에 따른 전자 장치에서 인공지능 서버와 연동하여 사용자 명령과 연관된 장면 컨텐츠를 제공하는 방법의 흐름도,
도 6은 본 발명의 또다른 실시예에 따른 전자 장치에서 전자 장치를 제어하는 음성인식장치와 연동하여 사용자 명령과 연관된 장면 컨텐츠를 제공하는 방법의 흐름도,
도 7은 본 발명의 일 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠와 관련된 정보에 기초하여 멀티미디어 컨텐츠에 포함된 복수의 영상 프레임 중 제1 영상 프레임에 포함된 오브젝트를 검출하는 예시도,
도 8은 본 발명의 일 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠와 관련된 정보에 기초하여 제1 영상 프레임에 대한 디스크립션 정보를 생성하는 예시도,
도 9a 내지 도 9b는 본 발명의 일 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠에 대한 디스크립션 정보를 생성하는 예시도,
도 10a 및 도 10b는 본 발명의 또다른 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠에 대한 디스크립션 정보를 생성하는 예시도,
도 11a 및 도 11b는 본 발명의 일 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠에 대한 디스크립션 정보에 기초하여 사용자 명령과 연관된 장면 컨텐츠를 제공하는 제1 예시도,
도 12는 본 발명의 또다른 실시예에 따른 전자 장치에서 멀티미디어 컨텐츠에 대한 디스크립션 정보에 기초하여 사용자 명령과 연관된 장면 컨텐츠를 제공하는 제2 예시도,
도 13은 본 발명의 일 실시예에 따른 인공지능 학습모델을 업데이트하고 이용하는 전자 장치의 프로세서의 세부 블록도,
도 14a는 본 발명의 일 실시예에 따른 학습부 및 획득부의 세부 블록도,
도 14b는 본 발명의 일 실시예에 따른 전자 장치 및 외부 서버가 서로 연동하여 데이터를 학습하고 판단하는 예시도,
도 15는 본 발명의 일 실시예에 따른 전자 장치에 입력된 사용자 발화 음성 명령을 인식하는 지능형 서버에 대한 블록도이다.
120 : 출력부 130,1300 : 프로세서
140 : 통신부 150 : 촬영부
160 : 감지부 170 : 저장부
171 : 화면 분석 모듈 172 : 키워드 추출 모듈
173 : 키 프레임 결정 모듈 174 : 요약 정보 생성 모듈
175 : 음성 인식 모듈 200 : 인공지능 서버
300 : 지능형 서버 310 : 자동 음성 인식 모듈
320: 자연어 이해 모듈 330: 패스 플래너 모듈
331: 패스 룰 데이터베이스 340: 대화 매니저 모듈
350: 자연어 생성 모듈 360: 텍스트 음성 변환 모듈
400 : 음성인식장치 810 : 학습부
820 : 획득부
Claims (21)
- 전자 장치의 제어 방법에 있어서,
복수의 영상 프레임을 포함하는 멀티미디어 컨텐츠를 획득하는 단계;
상기 멀티미디어 컨텐츠와 관련된 정보를 획득하는 단계;
상기 복수의 영상 프레임에 포함된 오브젝트 중 상기 획득된 정보와 관련된 오브젝트를 포함하는 적어도 하나의 영상 프레임을 선택하는 단계;
오브젝트 인식을 위한 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제1 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제1 영상 프레임에 대한 디스크립션(description) 정보를 생성하는 단계;
상기 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제2 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제2 영상 프레임에 대한 디스크립션 정보를 생성하는 단계; 및
상기 생성된 상기 제1 영상 프레임에 대한 디스크립션 정보 및 상기 제2 영상 프레임에 대한 디스크립션 정보를 바탕으로 상기 멀티미디어 컨텐츠에 대한 디스크립션 정보를 획득하는 단계;
를 포함하며,
상기 디스크립션 정보는,
상기 선택된 영상 프레임에 포함된 오브젝트를 묘사하는 복수의 텍스트들을 관계 그래프 형식으로 나타낸 정보인 것을 특징으로 하고,
상기 멀티미디어 컨텐츠에 대한 디스크립션 정보를 획득하는 단계는,
상기 제1 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 및 상기 제2 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 중 연관된 적어도 하나의 텍스트가 존재하면, 상기 연관된 적어도 하나의 텍스트를 결합하여 상기 멀티미디어 컨텐츠에 대한 관계 그래프를 생성하는 것을 특징으로 하는 제어 방법. - 제 1 항에 있어서,
상기 멀티미디어 컨텐츠와 관련된 정보는,
상기 멀티미디어 컨텐츠에 대한 EPG 정보, 상기 멀티미디어 컨텐츠와 관련된 웹 정보 및 SNS 정보와, 상기 멀티미디어 컨텐츠와 관련하여 상기 전자 장치에 저장된 메타 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법. - 제 1 항에 있어서,
상기 선택하는 단계는,
상기 복수의 영상 프레임 중 상기 제1 영상 프레임에서 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 복수의 키워드 중 제1 키워드와 관련된 제1 오브젝트가 검출되면, 상기 제1 영상 프레임을 선택하고,
상기 제1 영상 프레임 이후 연속된 영상 프레임 중 상기 제1 오브젝트를 포함하는 적어도 하나의 영상 프레임을 선택하는 것을 특징으로 하는 제어 방법. - 제 3 항에 있어서,
상기 선택하는 단계는,
상기 제1 영상 프레임 이후 연속된 상기 제2 영상 프레임에서 상기 제1 오브젝트가 검출되면, 상기 제2 영상 프레임을 선택하고,
상기 제2 영상 프레임에서 상기 제1 오브젝트가 검출되지 않으면, 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 복수의 키워드 중 제2 키워드와 관련된 제2 오브젝트가 상기 제2 영상 프레임에 존재하는지 여부에 따라 상기 제2 영상 프레임을 선택하는 것을 특징으로 하는 제어 방법.
- 삭제
- 삭제
- 삭제
- 제 1 항에 있어서,
상기 멀티미디어 컨텐츠에 대한 사용자 명령이 입력되면, 상기 사용자 명령에 포함된 텍스트와 상기 멀티미디어 컨텐츠에 대한 디스크립션 정보에 포함된 텍스트를 비교하여 상기 사용자 명령과 연관된 장면 컨텐츠를 생성하여 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 제어 방법. - 제 1 항에 있어서,
상기 적어도 하나의 영상 프레임을 선택하는 단계는,
상기 복수의 영상 프레임 각각을 분석하여 화면 전환이 발생한 시점의 영상 프레임을 선택하는 단계; 및
상기 화면 전환이 발생한 시점의 영상 프레임 각각을 대표 프레임으로 결정하는 단계;
상기 복수의 대표 프레임 중 상기 획득된 멀티미디어 컨텐츠와 관련된 정보와 관련된 오브젝트를 포함하는 적어도 하나의 대표 프레임을 키 프레임으로 결정하는 단계; 및
상기 키 프레임으로 결정된 영상 프레임을 포함하는 구간 내 포함된 영상 프레임을 선택하는 단계;
를 포함하는 것을 특징으로 하는 제어 방법. - 삭제
- 전자 장치에 있어서,
복수의 영상 프레임을 포함하는 멀티미디어 컨텐츠 및 상기 멀티미디어 컨텐츠와 관련된 정보를 획득하고,
상기 복수의 영상 프레임이 포함된 오브젝트 중 상기 획득된 정보와 관련된 오브젝트를 포함하는 적어도 하나의 영상 프레임을 선택하며,
오브젝트 인식을 위한 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제1 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제1 영상 프레임에 대한 디스크립션 정보(description)를 생성하고,
상기 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제2 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제2 영상 프레임에 대한 디스크립션 정보를 생성하고,
상기 생성된 상기 제1 영상 프레임에 대한 디스크립션 정보 및 상기 제2 영상 프레임에 대한 디스크립션 정보를 바탕으로 상기 멀티미디어 컨텐츠에 대한 디스크립션 정보를 획득하는 프로세서;
를 포함하며,
상기 디스크립션 정보는,
상기 선택된 영상 프레임에 포함된 오브젝트를 묘사하는 복수의 텍스트들을 관계 그래프 형식으로 나타낸 정보이고,
상기 프로세서는,
상기 제1 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 및 상기 제2 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 중 연관된 적어도 하나의 텍스트가 존재하면, 상기 연관된 적어도 하나의 텍스트를 결합하여 상기 멀티미디어 컨텐츠에 대한 관계 그래프를 생성하는 것을 특징으로 하는 전자 장치. - 제 11 항에 있어서,
상기 멀티미디어 컨텐츠와 관련된 정보는,
상기 멀티미디어 컨텐츠에 대한 EPG 정보, 상기 멀티미디어 컨텐츠와 관련된 웹 정보 및 SNS 정보와, 상기 멀티미디어 컨텐츠와 관련하여 상기 전자 장치에 저장된 메타 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치. - 제 11 항에 있어서,
상기 프로세서는,
상기 복수의 영상 프레임 중 상기 제1 영상 프레임에서 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 복수의 키워드 중 제1 키워드와 관련된 제1 오브젝트가 검출되면, 상기 제1 영상 프레임을 선택하고,
상기 제1 영상 프레임 이후 연속된 영상 프레임 중 상기 제1 오브젝트를 포함하는 적어도 하나의 영상 프레임을 선택하는 것을 특징으로 하는 전자 장치. - ◈청구항 14은(는) 설정등록료 납부시 포기되었습니다.◈제 13 항에 있어서,
상기 프로세서는,
상기 제1 영상 프레임 이후 연속된 상기 제2 영상 프레임에서 상기 제1 오브젝트가 검출되면, 상기 제2 영상 프레임을 선택하고,
상기 제2 영상 프레임에서 상기 제1 오브젝트가 검출되지 않으면, 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 복수의 키워드 중 제2 키워드와 관련된 제2 오브젝트가 상기 제2 영상 프레임에 존재하는지 여부에 따라 상기 제2 영상 프레임을 선택하는 것을 특징으로 하는 전자 장치. - 삭제
- 삭제
- 삭제
- ◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈제 11 항에 있어서,
입력부; 및
출력부;를 더 포함하며,
상기 프로세서는,
상기 입력부를 통해 상기 멀티미디어 컨텐츠에 대한 사용자 명령이 입력되면, 상기 사용자 명령에 포함된 텍스트와 상기 멀티미디어 컨텐츠에 대한 디스크립션 정보에 포함된 텍스트를 비교하여 상기 사용자 명령과 연관된 장면 컨텐츠를 생성하고, 상기 생성된 장면 컨텐츠를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치. - ◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈제 11 항에 있어서,
상기 프로세서는,
상기 복수의 영상 프레임 각각을 분석하여 화면 전환이 발생한 시점의 영상 프레임을 선택하고,
상기 화면 전환이 발생한 시점의 영상 프레임 각각을 대표 프레임으로 결정한 후, 상기 복수의 대표 프레임 중 상기 획득된 멀티미디어 컨텐츠와 관련된 정보와 관련된 오브젝트를 포함하는 적어도 하나의 대표 프레임을 키 프레임으로 결정하고,
상기 키 프레임으로 결정된 영상 프레임을 포함하는 구간 내 포함된 영상 프레임을 선택하는 것을 특징으로 하는 전자 장치. - 삭제
- 전자 장치와 결합되어 하기의 단계를 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체에 있어서,
복수의 영상 프레임을 포함하는 멀티미디어 컨텐츠를 획득하는 단계;
상기 멀티미디어 컨텐츠와 관련된 정보를 획득하는 단계;
상기 복수의 영상 프레임에 포함된 오브젝트 중 상기 획득된 정보와 관련된 오브젝트를 포함하는 적어도 하나의 영상 프레임을 선택하는 단계;
오브젝트 인식을 위한 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제1 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제1 영상 프레임에 대한 디스크립션(description) 정보를 생성하는 단계;
상기 인공지능 모델에 상기 선택된 적어도 하나의 영상 프레임 중 제2 영상 프레임 및 상기 획득된 멀티미디어 컨텐츠와 관련된 정보에 포함된 키워드를 입력하여 상기 제2 영상 프레임에 대한 디스크립션 정보를 생성하는 단계; 및
상기 생성된 상기 제1 영상 프레임에 대한 디스크립션 정보 및 상기 제2 영상 프레임에 대한 디스크립션 정보를 바탕으로 상기 멀티미디어 컨텐츠에 대한 디스크립션 정보를 획득하는 단계;
를 포함하며,
상기 디스크립션 정보는,
상기 선택된 영상 프레임에 포함된 오브젝트를 묘사하는 복수의 텍스트들을 관계 그래프 형식으로 나타낸 정보인 것을 특징으로 하고,
상기 멀티미디어 컨텐츠에 대한 디스크립션 정보를 획득하는 단계는,
상기 제1 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 및 상기 제2 영상 프레임에 대한 디스크립션 정보에 포함된 복수의 텍스트 중 연관된 적어도 하나의 텍스트가 존재하면, 상기 연관된 적어도 하나의 텍스트를 결합하여 상기 멀티미디어 컨텐츠에 대한 관계 그래프를 생성하는 것을 특징으로 하는 기록 매체.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180119946A KR102700003B1 (ko) | 2018-10-08 | 2018-10-08 | 전자 장치 및 그 제어 방법 |
| US16/584,017 US11184679B2 (en) | 2018-10-08 | 2019-09-26 | Electronic apparatus and method for controlling the electronic apparatus |
| PCT/KR2019/013058 WO2020076014A1 (en) | 2018-10-08 | 2019-10-04 | Electronic apparatus and method for controlling the electronic apparatus |
| CN201980066472.8A CN112806022A (zh) | 2018-10-08 | 2019-10-04 | 电子装置和用于控制该电子装置的方法 |
| EP19870275.5A EP3818720A4 (en) | 2018-10-08 | 2019-10-04 | ELECTRONIC APPARATUS AND METHOD OF CONTROLLING THE ELECTRONIC APPARATUS |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180119946A KR102700003B1 (ko) | 2018-10-08 | 2018-10-08 | 전자 장치 및 그 제어 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20200040097A KR20200040097A (ko) | 2020-04-17 |
| KR102700003B1 true KR102700003B1 (ko) | 2024-08-29 |
Family
ID=70051424
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180119946A Active KR102700003B1 (ko) | 2018-10-08 | 2018-10-08 | 전자 장치 및 그 제어 방법 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11184679B2 (ko) |
| EP (1) | EP3818720A4 (ko) |
| KR (1) | KR102700003B1 (ko) |
| CN (1) | CN112806022A (ko) |
| WO (1) | WO2020076014A1 (ko) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021045243A1 (ko) * | 2019-09-03 | 2021-03-11 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어 방법 |
| CN112040321A (zh) * | 2020-08-05 | 2020-12-04 | 西安猫兜灵智能科技有限公司 | 视频内容整体预览和精准跳转的方法、系统及电子设备 |
| KR102556390B1 (ko) | 2020-09-24 | 2023-07-17 | 주식회사 에어스메디컬 | 신체 자동 침습 장치 및 그 제어 방법 |
| EP4154812A4 (en) | 2020-11-27 | 2024-07-10 | Airs Medical Co., Ltd. | Automatic invasive device for body |
| KR20220099830A (ko) * | 2021-01-07 | 2022-07-14 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
| US12170830B2 (en) | 2021-01-07 | 2024-12-17 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
| EP4362477A4 (en) * | 2021-08-31 | 2024-10-23 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD FOR CONTROLLING ELECTRONIC DEVICE |
| US20250181633A1 (en) * | 2022-04-01 | 2025-06-05 | Google Llc | Spectralsort framework for sorting image frames |
| US12105755B1 (en) * | 2022-06-28 | 2024-10-01 | Amazon Technologies, Inc. | Automated content filtering using image retrieval models |
| KR20240023904A (ko) * | 2022-08-16 | 2024-02-23 | 주식회사 맨드언맨드 | 영상의 시맨틱 로그 생성 방법 |
| CN116761019A (zh) * | 2023-08-24 | 2023-09-15 | 瀚博半导体(上海)有限公司 | 视频处理方法、系统、计算机设备及计算机可读存储介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140285717A1 (en) * | 2013-03-20 | 2014-09-25 | Google, Inc. | Interpolated video tagging |
Family Cites Families (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5708767A (en) | 1995-02-03 | 1998-01-13 | The Trustees Of Princeton University | Method and apparatus for video browsing based on content and structure |
| KR100319160B1 (ko) | 1998-12-05 | 2002-04-24 | 구자홍 | 사건구간을기반으로하는동영상검색방법과검색데이타구성방법 |
| US6492998B1 (en) * | 1998-12-05 | 2002-12-10 | Lg Electronics Inc. | Contents-based video story browsing system |
| KR100319159B1 (ko) * | 1998-12-05 | 2002-04-22 | 구자홍 | 내용기반동영상검색데이터구성방법과동영상검색방법 |
| US7184100B1 (en) * | 1999-03-24 | 2007-02-27 | Mate - Media Access Technologies Ltd. | Method of selecting key-frames from a video sequence |
| KR100518861B1 (ko) | 1999-06-02 | 2005-09-30 | 엘지전자 주식회사 | 사건 중심의 비디오 브라우징 시스템 |
| KR100411340B1 (ko) | 2001-03-09 | 2003-12-18 | 엘지전자 주식회사 | 뉴스 비디오 콘텐트의 뉴스 기사 기반 요약 및 브라우징시스템 |
| KR101644789B1 (ko) | 2009-04-10 | 2016-08-04 | 삼성전자주식회사 | 방송 프로그램 연관 정보 제공 장치 및 방법 |
| TW201225669A (en) * | 2010-12-09 | 2012-06-16 | Inst Information Industry | System and method for synchronizing with multimedia broadcast program and computer program product thereof |
| KR101485820B1 (ko) | 2013-07-15 | 2015-01-26 | 네무스텍(주) | 지능형 동영상 메타 정보 생성 시스템 |
| JP6532190B2 (ja) | 2014-03-26 | 2019-06-19 | キヤノン株式会社 | 画像検索装置、画像検索方法 |
| CN103970906B (zh) * | 2014-05-27 | 2017-07-04 | 百度在线网络技术(北京)有限公司 | 视频标签的建立方法和装置、视频内容的显示方法和装置 |
| US9971792B2 (en) | 2015-06-10 | 2018-05-15 | Flir Systems Ab | Image retrieval and processing systems and methods |
| CN105578222B (zh) * | 2016-02-01 | 2019-04-12 | 百度在线网络技术(北京)有限公司 | 一种信息推送方法和装置 |
| US9830526B1 (en) | 2016-05-26 | 2017-11-28 | Adobe Systems Incorporated | Generating image features based on robust feature-learning |
| US9942440B2 (en) | 2016-07-25 | 2018-04-10 | Clearag, Inc. | Image-based field boundary detection and identification |
| CN106534944B (zh) * | 2016-11-30 | 2020-01-14 | 北京字节跳动网络技术有限公司 | 视频展现方法和装置 |
| KR101986002B1 (ko) | 2017-01-17 | 2019-06-04 | 경북대학교 산학협력단 | 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체 |
| KR20180092778A (ko) | 2017-02-10 | 2018-08-20 | 한국전자통신연구원 | 실감정보 제공 장치, 영상분석 서버 및 실감정보 제공 방법 |
| WO2018164435A1 (en) | 2017-03-08 | 2018-09-13 | Samsung Electronics Co., Ltd. | Electronic apparatus, method for controlling the same, and non-transitory computer readable recording medium |
| KR102027560B1 (ko) | 2017-03-15 | 2019-10-01 | 에스프레스토 주식회사 | 영상의 메타정보 설정 방법 및 장치 |
| US10187677B1 (en) * | 2017-09-20 | 2019-01-22 | Rovi Guides, Inc. | Systems and methods for generating aggregated media assets on related content from different sources |
| US10180983B1 (en) * | 2018-06-18 | 2019-01-15 | Rovi Guides, Inc. | Methods and systems for sharing a user interface of a search engine |
-
2018
- 2018-10-08 KR KR1020180119946A patent/KR102700003B1/ko active Active
-
2019
- 2019-09-26 US US16/584,017 patent/US11184679B2/en not_active Expired - Fee Related
- 2019-10-04 WO PCT/KR2019/013058 patent/WO2020076014A1/en not_active Ceased
- 2019-10-04 CN CN201980066472.8A patent/CN112806022A/zh active Pending
- 2019-10-04 EP EP19870275.5A patent/EP3818720A4/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140285717A1 (en) * | 2013-03-20 | 2014-09-25 | Google, Inc. | Interpolated video tagging |
Also Published As
| Publication number | Publication date |
|---|---|
| US20200112771A1 (en) | 2020-04-09 |
| CN112806022A (zh) | 2021-05-14 |
| EP3818720A1 (en) | 2021-05-12 |
| EP3818720A4 (en) | 2021-08-25 |
| WO2020076014A1 (en) | 2020-04-16 |
| US11184679B2 (en) | 2021-11-23 |
| KR20200040097A (ko) | 2020-04-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102700003B1 (ko) | 전자 장치 및 그 제어 방법 | |
| US11238871B2 (en) | Electronic device and control method thereof | |
| US12182919B2 (en) | Joint audio-video facial animation system | |
| KR102811374B1 (ko) | 관련 이미지를 검색하기 위한 전자 장치 및 이의 제어 방법 | |
| US11954150B2 (en) | Electronic device and method for controlling the electronic device thereof | |
| KR102595790B1 (ko) | 전자 장치 및 그의 제어방법 | |
| KR20190140519A (ko) | 전자 장치 및 그의 제어방법 | |
| US11763690B2 (en) | Electronic apparatus and controlling method thereof | |
| CN111902812A (zh) | 电子装置及其控制方法 | |
| KR102795400B1 (ko) | 전자 장치 및 그의 제어방법 | |
| CN113519022B (zh) | 电子设备及其控制方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |