KR20000054561A - A network-based video data retrieving system using a video indexing formula and operating method thereof - Google Patents
A network-based video data retrieving system using a video indexing formula and operating method thereof Download PDFInfo
- Publication number
- KR20000054561A KR20000054561A KR1020000032136A KR20000032136A KR20000054561A KR 20000054561 A KR20000054561 A KR 20000054561A KR 1020000032136 A KR1020000032136 A KR 1020000032136A KR 20000032136 A KR20000032136 A KR 20000032136A KR 20000054561 A KR20000054561 A KR 20000054561A
- Authority
- KR
- South Korea
- Prior art keywords
- video
- information
- data
- scene
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7834—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/7857—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using texture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
본 발명은 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템 및 그 운영방법에 관한 것이다.The present invention relates to a network-based video retrieval system using a video indexing scheme and a method of operating the same.
보다 상세하게는 인터넷을 통해 방송되는 모든 프로그램의 동영상에 대응하는 장면별 또는 내용별 검색 정보들을 별도로 생성하여 사용자가 인터넷 방송의 모든 프로그램에 대해 사용자 자신이 관심 있는 장면만을 선택하여 볼 수 있게 하는 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템 및 그 운영방법에 관한 것이다.More specifically, a video for generating scene or content search information corresponding to a video of all programs broadcast through the Internet so that the user can select and view only scenes of interest for all programs of the Internet broadcast. A network based video retrieval system using an indexing method and a method of operating the same.
기존의 MBC, KBS, SBS 등과 같은 공중파 방송국들이 인터넷에서 제공하고 있는 동영상 정보 서비스는 각 방송국의 프로그램 단위로 서비스되고 있다. 즉, 종래의 인터넷 방송 시청자는 소정 한 프로그램 중 자기가 시청하기를 원하는 내용의 장면을 선택하여 보기 위해서는 순차적으로 탐색을 하여야 하기 때문에 많은 시간이 필요하고 힘이 든다는 문제점이 있었다.The existing video information service provided by the Internet on the Internet by conventional broadcasting stations such as MBC, KBS, SBS, etc. is being provided in the program unit of each broadcasting station. In other words, the conventional Internet broadcast viewer has a problem that it takes a lot of time and effort because they have to search sequentially to select and view the scene of the content that they want to watch from a predetermined program.
특히, 스포츠나 뉴스 혹은 연속극과 같은 프로그램은 이미 방영되어 그 전체의 내용을 알고 있기 때문에 전체 프로그램을 보기보다는 관심 있는 뉴스의 내용이나 스포츠의 하이라이트 부분 혹은 연속극의 어떤 부분만을 보기 원하는 경우가 일반적이다.In particular, programs such as sports, news, or soap operas are already broadcast and know the whole contents, so it is common to see only the contents of news of interest, highlights of sports, or any part of soap operas, rather than the whole program.
이에 따라 인터넷 방송 시스템 시청자에게 프로그램의 내용을 장면별로 구분하여 각 장면에 대한 내용 색인을 대표 영상으로 제공하고자 하는 필요성이 요구되었다.Accordingly, the necessity for providing Internet broadcasting system viewers with the content index for each scene is provided as a representative image by dividing the contents of the program by scenes.
본 발명의 목적은 전술한 문제점을 해결할 수 있도록 인터넷을 통해 방송되는 모든 프로그램의 동영상에 대응하는 장면별 또는 내용별 검색 정보들을 별도로 생성하고, 인터넷을 통해 방송 프로그램을 시청하는 사용자의 선택에 따라 장면별 또는 내용별 검색 정보들을 대표영상으로 갖는 웹 페이지를 인터넷을 통해 방송되고 있거나, 방송되었던 동영상 정보를 볼 수 있는 웹 페이지와는 별도로 제공하여 인터넷 방송의 모든 프로그램에 대해 사용자 자신이 관심 있는 장면만을 선택하여 볼 수 있게 하는 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템 및 그 운영방법을 제공함에 있다.An object of the present invention is to separately create scene-specific or content-specific search information corresponding to the video of all programs broadcast over the Internet to solve the above-mentioned problems, and scenes according to the user's selection to watch the broadcast program over the Internet Provides a web page with search information by stars or contents as a representative image separately from a web page that can be broadcasted through the Internet or a video page that shows broadcasted video information. The present invention provides a network-based video retrieval system using a video indexing method and a method of operating the same.
도 1은 본 발명에 따른 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 장면별 검색 시스템의 구성을 설명하기 위한 블록도,1 is a block diagram illustrating a configuration of a network-based video scene retrieval system using a video indexing method according to the present invention;
도 2는 도 1에 적용된 비디오 정보 검색 서비스 서버의 구성을 도시한 블록도,FIG. 2 is a block diagram showing the configuration of a video information retrieval service server applied to FIG. 1;
도 3은 본 발명에 따른 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템의 운영방법을 설명하기 위한 동작 흐름도,3 is a flowchart illustrating a method of operating a network-based video retrieval system using a video indexing scheme according to the present invention;
도 4는 본 발명에 적용된 비디오 장면(shot) 자동 분할 방법을 설명하기 위한 블록 다이어그램 도면,4 is a block diagram for explaining a video scene automatic segmentation method applied to the present invention;
도 5는 본 발명에 적용된 비디오 장면 자동 분할 방법을 설명하기 위한 동작 흐름도,5 is an operation flowchart for explaining a video scene automatic segmentation method applied to the present invention;
도 6 내지 도 9는 도 5에 적용된 서브루틴을 좀더 상세하게 설명하기 위한 동작 흐름도,6 to 9 are flowcharts illustrating the subroutine applied to FIG. 5 in more detail.
도 10은 본 발명에 적용된 자막 분석 방법을 설명하기 위한 동작 흐름도,10 is an operation flowchart for explaining a caption analysis method applied to the present invention;
도 11은 본 발명에 적용된 장면 분할방법을 좀 더 구체적인 실시예로 설명하기 위한 동작 흐름도,11 is a flowchart illustrating a scene segmentation method applied to the present invention in a more specific embodiment;
도 12 내지 도 17은 도 11에 적용된 서브루틴을 좀더 상세하게 기술하기 위한 동작 흐름도,12 to 17 are operational flowcharts for describing in more detail the subroutine applied to FIG.
도 18은 도 3에 적용된 서브루틴을 설명하기 위한 동작 흐름도,18 is an operation flowchart for explaining a subroutine applied to FIG. 3;
도 19는 사용자의 편의를 위한 사용자 인터페이스용 웹 페이지를 설명하기 위한 도면,19 is a view for explaining a web page for a user interface for the convenience of a user;
도 20 내지 도 23은 본 발명에 의해 생성된 뉴스 검색용 웹 페이지의 일 실시예를 설명하기 위한 화면도이다.20 to 23 are screen diagrams for explaining an embodiment of a web page for news search generated by the present invention.
*도면의 주요부분에 대한 부호설명** Description of Signs of Main Parts of Drawings *
100 : 네트워크 통신망 200 : 사용자 단말기100: network communication network 200: user terminal
300 : 비디오 정보 검색 서비스 서버300: video information retrieval service server
310 : 비디오 입력부 320 : 비디오 분석부310: video input unit 320: video analysis unit
330 : 서비스부330: Service Department
이와 같은 목적을 달성하기 위한 본 발명의 시스템은, 네트워크를 통해 외부로 전송될 동영상 정보를 그 분야별로 미리 설정된 기준에 따라 자동으로 장면을 검출, 분할 시켜 검색 정보를 생성하고, 네트워크 통신망을 통해 통신 접속 요청이 입력되는 경우 메인 웹 페이지를 전송하고, 메인 웹 페이지를 통해 입력되는 사용자의 요구신호에 응하여 동영상 출력용 웹 페이지 또는 동영상 검색 정보를 갖는 웹 페이지를 사용자에게 제공하여 사용자가 동영상을 보거나, 방송된 동영상 중 원하는 장면을 발췌해서 볼 수 있도록 하는 비디오 정보 검색 서비스 서버와, 네트워크 통신망을 통해 상기 비디오 정보 검색 서비스 서버에 통신 접속을 수행하고, 통신 접속을 이룬 비디오 정보 검색 서비스 서버에서 제공하는 메인 웹 페이지를 화면상에 출력하고, 메인 웹 페이지를 통해 입력하는 사용자의 요구신호에 따라 비디오 정보 검색 서비스 서버로부터 공급되는 동영상 정보 출력용 웹 페이지 또는 동영상 검색 정보를 갖는 웹 페이지를 수신 받아 화면상에 출력하는 사용자 단말기를 포함한다.In order to achieve the above object, the system of the present invention automatically detects and divides a scene according to a predetermined criterion for each field of video information to be transmitted to the outside through a network to generate search information, and communicates through a network communication network. When the access request is input, the main web page is transmitted, and in response to the user's request signal input through the main web page, the user can watch a video or broadcast by providing a web page for video output or a web page having video search information. A video information retrieval service server for extracting and viewing a desired scene from the recorded video, and a main web provided by the video information retrieval service server that performs a communication connection to the video information retrieval service server through a network communication network. Print pages on screen According to the user's request signal input from the web page includes a user terminal for receiving the output received on the screen, the web page having a web page or video information for output video search information supplied from the video search service server.
또한 상술한 목적을 달성하기 위한 본 발명의 방법은, (1) 비디오 정보 검색 서비스 서버는 네트워크 통신망을 통해 사용자 단말기로 전송될 동영상 정보의 분야를 체크하고, 체크된 분야에 대응하여 미리 설정된 조건에 따라 동영상 정보의 장면을 분할시켜 검색 정보를 생성하는 과정과, (2) 사용자 단말기는 사용자의 조작에 따라 통신 프로그램을 실행시켜 비디오 정보 검색 서비스 서버에 통신 접속을 이루는 과정과, (3) 비디오 정보 검색 서비스 서버는 사용자의 통신 접속 요청에 따라 동영상 정보 또는 검색 정보를 제공받을 수 있는 메인 웹 페이지를 사용자 단말기로 전송하고, 사용자는 사용자 단말기를 통해 전송 받은 메인 웹 페이지를 통해 소정의 동영상 정보 또는 검색 정보만을 갖는 웹 페이지를 전송 받는 과정을 더 포함하여 이루어진다.In addition, the method of the present invention for achieving the above object, (1) the video information retrieval service server checks the field of the video information to be transmitted to the user terminal through a network communication network, and in accordance with a predetermined condition corresponding to the checked field (2) a user terminal executing a communication program according to a user's operation to establish a communication connection to a video information retrieval service server; and (3) video information. The search service server transmits a main web page for receiving video information or search information to the user terminal according to a user's communication connection request, and the user searches for predetermined video information or search through the main web page received through the user terminal. The method may further include receiving a web page having only information.
이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 기술하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템의 구성을 설명하기 위한 블록도이고, 도 2는 도 1에 적용된 비디오 정보 검색 서비스 서버의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of a network-based video retrieval system using a video indexing method according to the present invention, and FIG. 2 is a block diagram illustrating a configuration of a video information retrieval service server applied to FIG. 1.
첨부 도면 도 1에 도시된 바와 같이, 네트워크 통신망(100)은 유무선 통신망을 포함하며, 불특정 다수의 사용자가 인터넷을 통해 방송되는 방송신호를 소정 키워드로 이루어진 검색 정보를 이용하여 보고 싶은 장면만 선택적으로 볼 수 있도록 하는 비디오 정보 검색 서비스 서버(300)로 통신 접속이 이루어질 수 있도록 한다.As shown in FIG. 1, the network communication network 100 includes a wired / wireless communication network, and only a scene where an unspecified user wants to see a broadcast signal broadcast through the Internet using search information consisting of predetermined keywords. A communication connection may be made to the video information retrieval service server 300 for viewing.
비디오 정보 검색 서비스 서버(300)는 네트워크 통신망(100)을 통해 외부로 전송될 동영상 정보를 그 분야별로 미리 설정된 기준에 따라 자동으로 장면을 검출, 분할 시켜 대표 정지 영상의 검색 정보를 생성하고, 네트워크 통신망(100)을 통해 통신 접속 요청이 입력되는 경우 사용자 단말기(200)로 메인 웹 페이지를 전송하고, 상술한 메인 웹 페이지를 통해 입력되는 사용자의 요구신호에 응하여 동영상 출력용 웹 페이지 또는 동영상 검색 정보를 갖는 웹 페이지를 사용자에게 제공하여 사용자가 동영상을 보거나, 방송된 동영상 중 원하는 장면을 발췌해서 볼 수 있도록 한다.The video information retrieval service server 300 automatically detects and divides a scene according to a preset criteria for each field of video information to be transmitted to the outside through the network communication network 100 to generate search information of a representative still image, and the network When a communication connection request is input through the communication network 100, the main web page is transmitted to the user terminal 200, and the web page for outputting video or video search information is output in response to a user's request signal input through the main web page. It provides the user with a web page so that the user can watch a video or extract a desired scene from the broadcast video.
사용자 단말기(200)는 네트워크 통신망(100)을 통해 상술한 비디오 정보 검색 서비스 서버(300)에 통신 접속을 수행하고, 통신 접속을 이룬 비디오 정보 검색 서비스 서버(300)에서 제공하는 메인 웹 페이지를 화면상에 출력하고, 메인 웹 페이지를 통해 입력하는 사용자의 요구신호에 따라 비디오 정보 검색 서비스 서버(300)로부터 공급되는 동영상 정보 출력용 웹 페이지 또는 동영상 검색 정보를 갖는 웹 페이지를 수신 받아 화면상에 출력한다.The user terminal 200 performs a communication connection to the above-described video information retrieval service server 300 through the network communication network 100, and displays a main web page provided by the video information retrieval service server 300 which has established a communication connection. And outputs a web page for outputting video information or a web page having video search information supplied from the video information search service server 300 according to a user's request signal input through the main web page. .
상술한 비디오 정보 검색 서비스 서버(300)는 첨부 도면 도 2에 도시된 바와 같은 세부 구성요소로 이루어져 있는데, 이에 대해 좀 더 상세히 기술하면 다음과 같다.The above-described video information retrieval service server 300 is composed of detailed components as shown in FIG. 2, which will be described in more detail as follows.
비디오 입력부(310)는 서버운영자의 의도에 따라 외부로부터 입력되는 디지털 방송 데이터에 포함되어 폐쇄 자막 정보를 추출하는 자막 복호기(311)와, 서버운영자의 의도에 따라 외부로부터 입력되는 아날로그 방송 데이터를 MPEG 데이터로 변환하는 MPEG 부호기(312)와, 외부로부터 입력되는 방송 데이터를 체크하여 자막 정보 검출 또는 MPEG 데이터 변환용 제어신호를 출력하는 제어기(313)로 이루어져 서버운영자에 의해 예약되어 별도로 제작된 아날로그 방송 신호 또는 디지털 방송신호를 입력받거나, 기존의 방송국에 의해 제작된 아날로그 방송 신호 또는 디지털 방송신호를 입력받는다.The video input unit 310 includes a subtitle decoder 311 that is included in digital broadcast data input from the outside according to the intention of the server operator to extract closed caption information, and the analog broadcast data input from the outside according to the intention of the server operator. MPEG encoder 312 for converting data and a controller 313 for checking subtitle information or outputting a control signal for MPEG data conversion by checking broadcast data inputted from the outside, which is reserved by a server operator and manufactured separately. A signal or a digital broadcast signal is received, or an analog broadcast signal or a digital broadcast signal produced by an existing broadcast station is received.
비디오 분석부(320)는, 자막 복호기(311)를 통해 출력되는 자막 정보에 시스템 시계를 이용하여 생성된 시간 태그를 첨가시키고, 시간 태그가 첨가된 자막 정보를 명사 단위로 하는 색인 영상 자료를 제작하여 출력하는 자막 분석기(322)와, MPEG 부호기(312)를 통해 출력되는 신호와 아날로그 방송신호를 입력받아 분할된 비디오 정보를 자동으로 생성하는 장면 분할기(321)와, 상기 자막 분석기(322) 또는 상기 장면 분할기(321)를 통해 생성된 색인 영상 자료 및 서버운영자의 조작에 따라 부가정보를 생성하고, 이를 사용자에게 제공하는 부가정보 입력기(323)와, 디지털 방송 신호 및 MPEG 부호기를 통해 출력되는 동영상 방송 신호를 네트워크 통신망(100)을 통해 제공할 수 있도록 스트림 파일로 제작하는 스트림 파일 제작기(324)로 이루어진다.The video analyzer 320 adds a time tag generated by using a system clock to the caption information output through the caption decoder 311, and produces an index image material using the time tag added caption information as a noun unit. And a scene divider 321 for automatically generating divided video information by receiving a signal output through the MPEG encoder 312 and an analog broadcast signal, and the caption analyzer 322 or the like. The index image data generated by the scene divider 321 and the additional information input unit 323 for generating additional information according to a manipulation of a server operator and providing the same to a user, and a video output through a digital broadcast signal and an MPEG encoder. Stream file producer 324 is produced as a stream file to provide a broadcast signal through the network communication network (100).
서비스부(330)는, 동영상 검색 정보를 갖는 웹 페이지를 생성하는 서비스 인터페이스부(331)와, 서비스 인터페이스부(331)를 통해 생성된 동영상 검색 정보를 갖는 웹 페이지를 네트워크 통신망(100)을 통해 사용자에게 전송하는 웹 서버(332)와, 스트림 파일 제작기(324)에 의해 제작된 스트림 파일을 네트워크 통신망(100)을 통해 사용자에게 전송하는 복수의 스트림 서버(333(1)∼333(N))로 이루어진다.The service unit 330 may include a service interface unit 331 for generating a web page having video search information and a web page having video search information generated through the service interface unit 331 through the network communication network 100. A plurality of stream servers 333 (1) to 333 (N) for transmitting the web server 332 to the user and the stream file produced by the stream file producer 324 to the user via the network communication network 100; Is made of.
비디오 분석부(320)의 장면 분할기(321)는, MPEG 비트 스트림 데이터를 입력받아 비디오 정보와 오디오 정보로 분할하고, 분할 시 생성되는 타임 스탬프를 테이블로 제작하는 역다중화 및 동기화 모듈(110)과, 역다중화 및 동기화 모듈(110)에 의해 분리된 비디오 영상을 이용하여 각각의 정지영상 간의 프레임별 차이 값을 계산하고, 이 차이 값을 중간값 필터에 적용시키고, 신경망 회로에 입력시켜 장면 전환 지점을 검출하여 장면간을 분리시키는 비디오 분할 모듈(120)과, 역다중화 및 동기화 모듈에 의해 분리된 오디오 데이터 중 묵음 구간을 계산하여 일정기간 묵음 구간을 임계값으로 결정하고, 오디오 데이터의 묵음 구간이 상기 임계값을 초과하는 경우 새로운 프레임의 시작임을 인지하는 오디오 분할 모듈(130)과, 비디오 분할 모듈(120)에서 이루어진 결과와 오디오 분할 모듈(130)에서 이루어진 결과를 조건부 확률에 적용시켜 장면이 변하는 시점을 결정하는 정보융합모듈(140)로 이루어진다.The scene divider 321 of the video analyzer 320 receives the MPEG bit stream data and divides the video into audio and audio information, and demultiplexes and synchronizes the module 110 to produce a table of time stamps generated during the division. , Using the video image separated by the demultiplexing and synchronization module 110 to calculate the difference value for each frame between the still images, apply the difference value to the median filter, and input it to the neural network circuit to change the scene. The video segmentation module 120 is configured to detect and separate the scenes, and the silent section is calculated from the audio data separated by the demultiplexing and synchronization module to determine the silent section as a threshold for a certain period. When the threshold value is exceeded, the audio segmentation module 130 and the video segmentation module 120 recognize the start of a new frame. And the information fusion module 140 that determines the time point at which the scene changes by applying the result made by the audio splitting module 130 to the conditional probability.
이와 같이 구성된 본 발명에 따른 비디오 인덱싱 방식을 이용한 네트워크 기반의 비디오 검색 시스템의 동작을 첨부한 도면을 참조하여 좀 더 구체적으로 설명한다.The operation of the network-based video retrieval system using the video indexing scheme according to the present invention configured as described above will be described in more detail with reference to the accompanying drawings.
우선, 비디오 정보 검색 서비스 서버(300)는 네트워크 통신망(300)을 통해 사용자 단말기(200)로 전송될 동영상 정보의 분야를 체크하고, 체크된 분야에 대응하여 미리 설정된 조건에 따라 동영상 정보의 장면을 분할시켜 검색 정보를 생성하는 루틴을 수행한다(S100).First, the video information retrieval service server 300 checks the field of the video information to be transmitted to the user terminal 200 through the network communication network 300, and displays the scene of the video information according to a preset condition corresponding to the checked field. A routine for generating the search information by dividing is performed (S100).
먼저, 상술한 검색 정보를 생성하기 위해서는 입력되는 디지털 동영상 데이터를 분할하는 검색 정보 생성 프로세서를 수행하여야 하는데, 그 분할 과정에 대해서 첨부 도면 도 4내지 도 19도를 참조하여 좀더 상세히 기술하면 다음과 같다.First, in order to generate the above-mentioned search information, a search information generation processor for dividing the input digital video data should be performed. The division process will be described in more detail with reference to FIGS. 4 to 19 as follows. .
첨부 도면 도 4 및 도 5에 도시된 바와 같이 동영상 데이터의 장면을 분할하는 방법은, 역다중화 및 동기화 모듈(110)을 통해 엠펙(MPEG) 스트림 데이터를 비디오 스트림 데이터 및 오디오 스트림 데이터로 분할하고(S110), 상술한 S110에서 분할된 비디오 스트림 데이터를 이용하여 비디오 분할 모듈(120)은 비디오 화면에 영상의 특성을 파악하여 장면의 변화지점을 검출하고(S120), 상기 S110에서 분할된 오디오 스트림 데이터를 이용하여 오디오 분할 모듈(130)은 미리 설정된 임계값과 비교하여 묵음구간을 검출하고, 이를 장면의 변환점으로 인식한다(S130).As shown in FIG. 4 and FIG. 5, a method of dividing scenes of moving image data includes: splitting MPEG stream data into video stream data and audio stream data through the demultiplexing and synchronization module 110 ( In operation S110, the video segmentation module 120 detects a change point of a scene by identifying a characteristic of an image on a video screen by using the video stream data split in step S110 (S120), and the audio stream data split in step S110. The audio segmentation module 130 detects the silent section by comparing with the preset threshold value and recognizes it as a transition point of the scene (S130).
상술한 S120 과정에서 분할된 비디오 스트림 데이터와 상술한 S130 과정에서 분할된 오디오 스트림 데이터를 이용하여 데이터 융합모듈(140)은 최종적인 장면 전환점을 검출하여 데이터화한다(S140).The data fusion module 140 detects the final scene change point and converts the data into data using the video stream data divided in the above-described S120 process and the audio stream data divided in the above-described S130 process (S140).
한편, 상술한 S110 과정의 역다중화 및 동기화 과정은 첨부 도면 도 6에 도시된 바와 같이, MPEG 비트 스트림을 입력받아(S111), MPEG 비트 데이터를 비디오 스트림 데이터 및 오디오 스트림 데이터로 분할시킨 후(S112), 분할된 비디오 스트림 데이터 및 오디오 스트림 데이터에 타임 스탬프 정보를 부가시켜 테이블을 제작한다(S113).Meanwhile, the demultiplexing and synchronization process of the above-described S110 process is performed by receiving an MPEG bit stream as shown in FIG. 6 (S111), after dividing the MPEG bit data into video stream data and audio stream data (S112). In step S113, a table is added by adding time stamp information to the divided video stream data and the audio stream data.
상술한 S120 과정의 비디오 분할 과정에서 장면 변화지점을 찾는 방법은, 첨부 도면 도 7에 도시된 바와 같이, 상술한 과정(S112)을 통해 분할되어 비디오 분할 모듈(120)로 입력된 비디오 스트림 데이터가 마지막 프레임인지를 판단한다(S121).In the method of finding a scene change point in the video segmentation process of the above-described S120 process, as shown in FIG. 7, video stream data divided through the above-described process S112 and inputted to the video segmentation module 120 is inputted. It is determined whether it is the last frame (S121).
상술한 S121 과정의 판단 결과, 입력된 비디오 스트림 데이터가 마지막 프레임이 아닌 경우 비디오 스트림 데이터 중 I 픽쳐 영역만을 추출하고(S122), 상술한 추출된 I 픽쳐 중 DC 이미지를 추출한다(S123).As a result of the determination of step S121 described above, when the input video stream data is not the last frame, only the I picture region of the video stream data is extracted (S122), and the DC image of the extracted I picture is extracted (S123).
상술한 S123 과정에서 추출된 DC 이미지만을 갖는 비디오 스트림 데이터를 입력받아 선행 정지영상과 다음 정지영상간의 프레임별 차이 값을 산출한다(S124). 이때 분류 기준은 연속된 영상의 막대 그래프(histogram) 차이와 픽셀간의 차이 값을 가지고 계산한다.In operation S123, the video stream data having only the extracted DC image is input to calculate a difference value for each frame between the previous still image and the next still image (S124). In this case, the classification criteria are calculated based on the histogram difference of the continuous images and the difference value between pixels.
이렇게 산출된 프레임별 차이 값을 중간값 필터를 통해 필터링하고(S125), 상술한 중간값 필터에 의해 필터링된 프레임별 차이 값은 3×5×2 크기인 신경망 회로로 입력되어 학습과정을 수행한다(S126).The calculated difference value for each frame is filtered through the median filter (S125), and the difference value for each frame filtered by the above-described median filter is input to a neural network having a size of 3 × 5 × 2 to perform a learning process. (S126).
상술한 바와 같이 학습과정을 통해 출력된 값이 미리 설정된 값 이상이면 새로운 장면의 시작으로 등록하고(S128), 그렇지 않은 경우 상술한 S121 과정부터 재 수행한다(S127).As described above, if the value output through the learning process is greater than or equal to the preset value, the new scene is registered as the start of the new scene (S128). Otherwise, the process is performed again from the above-described process S121 (S127).
또한, 오디오 분할 모듈(130)에 의해 이루어지는 오디오 분할 루틴은 첨부 도면 도 8에 도시된 바와 같이 상술한 S112 과정에서 분할된 오디오 스트림 데이터를 입력받아 마지막 프레임인지를 판단한다(S131).In addition, the audio splitting routine performed by the audio splitting module 130 receives the audio stream data divided in the above-described step S112 as shown in FIG. 8 and determines whether it is the last frame (S131).
상술한 S131 과정의 판단 결과, 마지막 프레임이 아닌 경우 묵음 구간을 계산하고(S132), 계산된 묵음 구간이 미리 설정된 일정 기간을 초과하는지를 판단한다(S133). 판단 결과, 계산된 묵음 구간이 미리 설정된 일정 기간을 초과하는 경우 새로운 장면의 시작으로 등록시킨다(S134).As a result of the above-described determination in step S131, if it is not the last frame, the silent section is calculated (S132), and it is determined whether the calculated silent section exceeds a predetermined period (S133). As a result of the determination, if the calculated silent section exceeds a predetermined period of time, it is registered as the start of a new scene (S134).
상술한 바와 같이 비디오 스트림 데이터 및 오디오 스트림 데이터에 의해 소정 장면에 대한 정보가 생성되면, 정보 융합 모듈(140)은 상술한 정보를 입력받아 최종적인 장면 전환 시점을 검출하여 검색 정보를 생성하게 되는데, 이를 첨부 도면 도 9를 참조하여 좀더 상세히 기술하면, S120 과정의 비디오 스트림 데이터 분석 결과와 S130 과정의 오디오 스트림 데이터 분석 결과를 입력받아(S141)(S142), 마지막 장면 전환 지점인지를 판단한다(S143).As described above, when information on a predetermined scene is generated by the video stream data and the audio stream data, the information fusion module 140 receives the above-described information and detects a final scene change time point to generate search information. This will be described in more detail with reference to FIG. 9, and the video stream data analysis result of step S120 and the audio stream data analysis result of step S130 are received (S141) (S142), and it is determined whether it is the last scene change point (S143). ).
상술한 S143 과정의 판단 결과 마지막 전환지점이 아닌 경우, 비디오 스트림 데이터 및 오디오 스트림 데이터의 분석 결과를 합성시키고, 합성된 데이터를 통계적인 모델로 인식한(S144) 후, 장면 전환지점인지를 판단하여 장면 전환지점인 경우 최종적인 장면 전환 지점을 찾아서 데이터화시킨다(S145)(S146).If the determination result of step S143 is not the last switching point, the analysis result of the video stream data and the audio stream data are synthesized, the synthesized data is recognized as a statistical model (S144), and then it is determined whether the scene is a switching point. In the case of the scene change point, the final scene change point is found and data-formed (S145) (S146).
한편, 자막 복호기(311)는 첨부 도면 도 10에 도시된 바와 같이, 자막이 방송되는 방송 컨텐츠를 입력받아 순수 글자 데이터만을 추출한다(S410). 이렇게 순수 글자 데이터만 추출한 후 컴퓨터 시스템에 존재하는 시스템 시계를 기준으로 하여 시간 태그를 추가되고, 추가하는 시간 태그는 자막 복호기(311)에서 입력으로 들어오는 데이터의 단위로 첨가된다(S420).Meanwhile, as illustrated in FIG. 10, the caption decoder 311 receives broadcast content in which captions are broadcast and extracts only pure text data (S410). After extracting only pure text data, a time tag is added based on a system clock existing in a computer system, and the time tag to be added is added in units of data coming into the input from the subtitle decoder 311 (S420).
즉, 자막 복호기(311)로 입력되는 데이터가 문장 단위로 들어오는 경우 문장 단위로 시간 태그를 붙인다. 이렇게 얻어진 자막 정보는 일반적으로 영상신호와 정확히 동기가 맞질 않게 되므로, 자막 분석기(322)를 통해 폐쇄 자막 정보를 분석하고, 분석된 자막정보와 함께 영상 신호를 참조하여 동기를 맞추게 되고, 자막에 들어 있는 특수 문자를 이용하여 부가정보를 추출한다.That is, when data input to the subtitle decoder 311 comes in sentence units, time tags are attached in sentence units. Since the caption information thus obtained is generally not exactly synchronized with the video signal, the closed caption information is analyzed by the caption analyzer 322, and the caption information is synchronized with the analyzed caption information with reference to the video signal. Extract additional information using special characters.
이렇게 얻어진 자막 정보는 이후 검색을 위해서 자막의 형태소 분석을 분석하여 명사단위의 색인 자료를 제작하고(S430), 시간 태그가 추가된 자막 정보 명사 색인 정보를 부가 정보 입력기(323)로 출력한다(S440).The caption information thus obtained is analyzed for morphological analysis of subtitles for later retrieval to produce index material in unit of nouns (S430), and outputs subtitle information noun index information with time tags added to the additional information input unit 323 (S440). ).
이렇게 얻어진 텍스트 색인 정보는 뉴스 서비스에서 검색할 때 사용된다.The text index information thus obtained is used when searching in the news service.
상술한 바와 같이 장면 분할기(321)에 의해 장면별로 분할되어 서비스 인터페이스부(331)로 입력되는 동영상 데이터는 의미있는 장면 별로 분할되어야 한다.As described above, video data divided by scenes by the scene divider 321 and input to the service interface unit 331 should be divided by meaningful scenes.
이때, 분할하는 방법은 첨부 도면 도 11에 도시된 바와 같이, 사용자의 요구에 맞는 서비스를 제공하기 위해서 비디오의 내용물에 따라 다른 분석 방법을 적용시키게 되는데, 이에 대해 첨부 도면 도 12 내지 도 18을 참조하여 설명하면 다음과 같다.In this case, as shown in FIG. 11, a method of segmenting applies different analysis methods according to the contents of a video to provide a service that meets a user's needs. For this, see FIGS. 12 to 18. The description is as follows.
첫째, 첨부 도면 도 12에 도시된 바와 같이, 비디오 내용물이 뉴스 비디오에 먼저 설명하면 다음과 같다.First, as shown in the accompanying drawings, the video contents are described first in the news video as follows.
먼저 뉴스 비디오는 비디오 기본 단위인 뉴스 덩어리로 구분된다. 여기서, 뉴스 덩어리란 앵커가 나타나고 이후에 기자가 나타나는 비디오 단위를 말한다. 이를 자동으로 분리하기 위해서는 뉴스의 비디오 영상과 동시에 입력되는 자막 정보를 이용한다. 즉, 뉴스 비디오 영상과 동시에 입력되는 폐쇄 자막 정보가 입력되는지를 판단하고(S11), 폐쇄 자막 정보가 입력되는 경우 '앵커', '기자'와 같은 단어의 위치를 추출한다(S12).First, news videos are divided into news chunks, which are the basic video units. Here, a news chunk refers to a video unit in which an anchor appears followed by a reporter. In order to automatically separate it, subtitle information input simultaneously with the video image of the news is used. That is, it is determined whether closed caption information input simultaneously with the news video image is input (S11), and when closed caption information is input, the positions of words such as 'anchor' and 'reporter' are extracted (S12).
상술한 S12 과정에서 '앵커', '기자'와 같은 단어의 위치를 추출한 후(S13), 다음 장면의 시작 위치를 체크하여 마지막 위치인지를 판단하는(S14) 한편, 뉴스 비디오 정보가 입력되는지를 판단하여 뉴스에 존재하는 앵커 얼굴을 자동으로 추출하고, 이 시점의 시간을 추출한다(S17)(S18).After extracting the positions of words such as 'anchor' and 'reporter' in step S12 described above (S13), it is determined whether the last position is checked by checking the start position of the next scene (S14), and whether news video information is inputted. By judging, the anchor face existing in the news is automatically extracted, and the time at this point in time is extracted (S17) (S18).
한편, 상술한 S12 과정에서 '앵커', '기자'와 같은 단어의 위치를 추출한 후 다음 장면의 시작 위치를 검출하여 마지막 위치인지를 판단한다(S14).On the other hand, after extracting the position of the words such as 'anchor', 'reporter' in the above-described step S12 and detects the start position of the next scene to determine whether it is the last position (S14).
상술한 S14 과정의 판단 결과, 마지막 위치가 아니거나, 상술한 S18 과정을 통해 앵커 얼굴이 추출된 시점의 기준 시간이 추출된 경우 영상의 기준과 자막 동기를 설정하여(S15), 자막과 비디오 영상을 정확하게 구분하여 뉴스 비디오 정보를 덩어리 단위로 분리하고, 분리된 뉴스 덩어리를 검색할 수 있는 검색 정보를 생성한다(S16).As a result of the above-described determination in step S14, when the reference time is not the last position or when the anchor face is extracted through the above-described step S18, the reference of the image and the caption synchronization are set (S15). By correctly classifying the news video information into chunks and generating search information for searching the separated news chunks (S16).
한편, 상술한 동영상 데이터가 뉴스이면서 뉴스 덩어리를 대표하는 화면을 추출하는 방법을 첨부 도면 도 13을 참조하여 설명하면, 앵커가 나오는 화면의 밝기값 분포를 계산하고(S21), 정지 화면이 좌우 대칭인지를 판단한다(S22).Meanwhile, referring to FIG. 13, a method of extracting a screen representing the news chunk and the news data, which is the above-mentioned video data, is described with reference to FIG. 13. Determine the recognition (S22).
상술한 S22 과정의 판단 결과, 정지 화면이 좌우 대칭이 아닌 경우 뉴스 아이콘이 존재하는지를 체크하여 존재하는 경우, 화면 4등분 중 오른쪽 위에서 대표 이미지를 추출하여, 즉 뉴스 아이콘을 이용하여 장면을 분할시키고(S23)(S24), 다음 뉴스 정보를 읽어들여 마지막인지를 판단(S28)한다. 판단 결과, 마지막인 경우, 종료하고, 마지막이 아닌 경우 상술한 S21 과정부터 반복 수행하여 장면 분할 정보를 생성한다.As a result of the above-described determination in step S22, when the still picture is not symmetrical, it is checked whether or not the news icon exists, and if present, the representative image is extracted from the upper right of the quadrant of the screen, that is, the scene is divided using the news icon ( S23) (S24), it reads the next news information and determines whether it is the last (S28). As a result of determination, if it is the last time, it ends, and if it is not the last time, it repeats from the above-mentioned step S21 to generate scene division information.
한편, 정지 화면이 좌우 대칭이면서 뉴스 아이콘이 존재하지 않는 경우, 기자 화면의 첫 번째 영상을 대표 영상으로 선택한 후 다음 뉴스 정보를 읽어들여 마지막인지를 판단(S28)한다. 판단 결과, 마지막인 경우, 종료하고, 마지막이 아닌 경우 상술한 S21과정부터 반복 수행하여 장면 분할 정보를 생성한다.On the other hand, if the still picture is symmetrical and there is no news icon, the first image of the reporter screen is selected as the representative image, and the next news information is read to determine whether it is the last (S28). As a result of the determination, if it is the last time, the process is terminated. If not, the scene segmentation information is generated by repeating the process from step S21 described above.
마지막으로 뉴스 비디오를 주제별로 분류하여 검색 정보를 생성하고자 하는 경우, 첨부 도면 도 14에 도시된 바와 같이, 현재 뉴스 자막에 들어 있는 키워드의 빈도수를 계산한다(S31).Finally, when the news video is to be classified by the subject to generate search information, as shown in FIG. 14, the frequency of the keyword included in the current news caption is calculated (S31).
상술한 S31 과정에서 키워드의 빈도수를 계산한 결과, 많은 빈도수를 발생하는 키워드별로 분류하고(S32), 다음 뉴스 정보를 읽어들여 마지막인지를 판단하고, 판단 결과 마지막인 경우 종료하고, 마지막이 아닌 경우 상술한 S31부터 반복 수행한다.As a result of calculating the frequency of the keyword in the above-described S31 process, classify the frequency by keyword generating a large number of frequencies (S32), and read the next news information to determine whether it is the last, and if it is the last, the process ends, if not the last. Repeating from the above-described S31.
둘째, 장면 분할기(321)로 입력된 동영상 데이터가 영화/비디오(드라마)인 경우, 첨부 도면 도 15에 도시된 바와 같이, 장면 분할기(321)는 추후 사용자에게 인물별 검색을 할 수 있도록 하기 위해 얼굴인식에 따라 얼굴이 존재하는 위치를 검출한다(S40).Second, when the video data input to the scene divider 321 is a movie / video (drama), as shown in FIG. 15, the scene divider 321 may perform a person-by-person search later. According to face recognition, a position at which a face exists is detected (S40).
그리고, 배우별 음성 패턴을 이용하여 위치를 검출하고(S42), 상술한 얼굴 인식과 음성 패턴을 이용하여 결과를 합성시켜 후보 위치를 검출한 후 다음 후보 데이터를 읽어들여, 현재 검출된 후보 위치가 마지막 위치인지를 판단한다(S44)(S45).Then, the position is detected using the actor's voice pattern (S42), the result is synthesized using the above-described face recognition and the voice pattern, the candidate position is detected, the next candidate data is read, and the currently detected candidate position is the last. It is determined whether the position (S44) (S45).
상술한 S45 과정의 판단 결과, 마지막 위치가 아닌 경우, 후보 데이터와 유사한 데이터를 데이터 베이스로부터 검출하여 배우별 위치 추출 정보를 저장하는 과정을 수행한 후 마지막 위치가 될 때까지 상술한 S44 과정부터 반복 수행하여 영화/비디오(드라마)용 검색 정보를 생성한다.As a result of the above-described determination of step S45, if it is not the last position, the data similar to the candidate data is detected from the database, and the position extraction information for each actor is stored, and then the above-mentioned step S44 is repeated until the last position. To generate search information for a movie / video (drama).
셋째, 장면 분할기(321)로 입력되는 동영상 데이터가 스포츠인 경우, 첨부 도면 도 16에 도시된 바와 같이, 입력되는 동영상 데이터를 영상 데이터 및 음성 데이터로 분할시킨다(S43-1). 상술한 S43-1 과정에서 분할된 영상 데이터를 종목별 영상 처리를 수행하여 영상 정보를 추출하는(S43-2) 한편, 이렇게 분할된 음성 데이터 중 관심 단어 음성 패턴을 추출하고, 음성 에너지를 계산하여 높은 데이터만을 추출한다(S43-3)(S43-4).Third, when the video data input to the scene divider 321 is a sport, as shown in FIG. 16, the input video data is divided into video data and audio data (S43-1). Image information is extracted by performing the image processing for each item of the image data divided in the above-described step S43-1 (S43-2), while extracting the word of interest voice pattern from the divided voice data and calculating the voice energy Only data is extracted (S43-3) (S43-4).
상술한 S43-2 과정과 S43-4 과정을 통해 추출된 영상과 음성정보를 합성시켜 후보의 위치를 추출하고(S43-5), 다음 후보 데이터를 읽어들여 상술한 후보의 위치가 마지막 위치를 판단한다(S43-6)(S43-8).The candidate position is extracted by synthesizing the video and audio information extracted through the above-described steps S43-2 and S43-4 (S43-5), and the next candidate data is read to determine the last position of the candidate. (S43-6) (S43-8).
상술한 S43-8 과정의 판단 결과, 후보의 위치가 마지막 위치가 아닌 경우 후보 데이터의 전후 소정 분량 가량의 영상을 추출하여 스포츠 하이라이트 검색 정보를 생성한다(S43-9).As a result of the above-described determination in step S43-8, when the candidate position is not the last position, the sports highlight search information is generated by extracting a predetermined amount of images before and after the candidate data (S43-9).
즉, 스포츠 분석은 경기 전체를 요약하는 것으로서, 축구나 야구를 예를 들어 설명할 때, 축구는 슛장면이 일어나는 시점을 기준하여 전후로 2-3 분 가량의 영상을 제작한다. 이때 슛이 발생하는 시점의 추출방법은 관중의 함성소리와 아나운서의 '슛' 이라는 음성 신호와 화면상에 나타나는 축구 골대를 기준으로 위치를 추출한다.In other words, sports analysis is a summary of the entire game. When soccer or baseball is described as an example, soccer produces 2-3 minutes of images before and after the shooting scene occurs. At this time, the extraction method of the point of time when the shot occurs is extracted the position based on the sound signal of the shout of the crowd and the 'shoot' of the announcer and the soccer goal appearing on the screen.
야구는 아나운서의 '안타', '홈런', 혹은 '홈인' 등과 같은 음성신호와 점수가 발생하는 시점을 기준으로 전후 2-3분 가량의 영상을 제작하는 한편, 점수가 발생하는 상황은 화면에 나타나는 오픈(open) 자막을 이용하여 야구 경기의 점수 발생시에 해당하는 점수가 항상 나타나는 점을 감안하여 추출한다.Baseball produces a video of about 2-3 minutes before and after the sound signal and the time when the score occurs, such as the 'hit,' 'home run,' or 'home in' of the announcer. The open subtitles are displayed in consideration of the fact that a corresponding score always appears when a score of a baseball game is generated.
넷째, 상술한 장면 분할기(321)로 입력되는 동영상 데이터가 쇼프로그램인 경우, 첨부 도면 도 17에 도시된 바와 같이, 얼굴인식에 의한 얼굴의 위치를 추출하고(S51), 배우별 음성패턴을 이용한 위치를 추출하며(S52), 사회자 멘트부분과 떨어진 노래의 패턴 구간 즉, 시작점과 끝점을 추출한다(S53).Fourth, when the video data input to the scene divider 321 described above is a show program, as shown in FIG. 17, a position of a face by face recognition is extracted (S51), and a position using a voice pattern for each actor. Extract (S52), extract the pattern section, that is, the starting point and the end point of the song away from the chairman portion (S53).
상술한 S51 과정 및 S52 과정을 통해 추출된 얼굴의 위치 및 배우별 음성 패턴을 합성시켜 후보의 위치를 추출하고(S54), 다음 후보 데이터를 읽어들여 상술한 후보의 위치가 마지막 위치인지를 판단한다(S55)(S56).The position of the candidate is synthesized by synthesizing the position of the face and the voice pattern for each actor, which are extracted through the process S51 and S52 (S54), and the next candidate data is read to determine whether the position of the candidate is the last position (S54). S55) (S56).
상술한 S56 과정의 판단 결과, 후보의 위치가 마지막 위치가 아닌 경우, 후보 데이터가 데이터 베이스에 저장되어 있는지를 판단하여 유사한 데이터가 존재하는 경우 유사한 데이터를 검출하여 가수별 위치를 추출, 저장하여 쇼프로그램용 검색 정보를 생성한다(S57)(S58).As a result of the determination in step S56, when the candidate position is not the last position, it is determined whether the candidate data is stored in the database, and when similar data exists, the similar data is detected and the artist-specific position is extracted and stored. The program search information is generated (S57) (S58).
상술한 바와 같이 모든 비디오 내용에 따라 검색 정보를 생성하게 된 비디오 정보 검색 서비스 서버(300)로 사용자가 사용자 단말기(200)에 설치된 통신 프로그램을 실행시켜 통신 접속을 이루게 되면(S201), 먼저 비디오 정보 검색 서비스 서버(300)는 첨부 도면 도 18에 도시된 바와 같이, 통신 접속을 이룬 사용자 단말기(200)로 메인 웹 페이지를 전송하여 화면상에 출력되도록 한다(S202).As described above, when the user executes a communication program installed in the user terminal 200 to the video information search service server 300 which generates search information according to all video contents (S201), first, the video information. As shown in FIG. 18, the search service server 300 transmits a main web page to the user terminal 200 which has established a communication connection, and outputs the main web page on the screen (S202).
사용자가 상술한 메인 웹 페이지를 통해 사용자 ID와 패스워드로 이루어진 사용자 식별 정보를 입력한(S203) 후, 로그인 버튼을 선택하게 되는 경우, 비디오 정보 검색 서비스 서버(300)는 이를 판단하여(S204), 입력되는 사용자 식별정보를 회원 DB에 저장되어 있는 회원정보와 비교하여 일치하는 정보가 있는지를 판단한다.If the user inputs user identification information including a user ID and a password through the above-described main web page (S203), and then selects a login button, the video information search service server 300 determines this (S204). The input user identification information is compared with the member information stored in the member DB to determine whether there is matching information.
판단 결과, 일치하는 정보가 있는 경우 등록된 회원임을 인지하여(S205), 상술한 메인 웹 페이지를 통해 비디오 정보를 감상하기 위한 메뉴항목 또는 비디오 정보를 검색하기 위한 메뉴항목 중 원하는 메뉴 항목을 선택하게 된다(도 19의 S310).As a result of the determination, if there is matched information, it is recognized as a registered member (S205), and the desired menu item is selected from the menu item for viewing the video information or the menu item for searching the video information through the aforementioned main web page. (S310 of FIG. 19).
만약, 사용자가 상술한 바와 같이 비디오 정보를 감상하기 위한 메뉴항목을 선택하는 경우 해당되는 동영상 정보를 화면상으로 출력하는 웹 페이지를 사용자 단말기(200)로 전송한다(도 19의 S320).If the user selects a menu item for viewing video information as described above, a web page for outputting corresponding video information on the screen is transmitted to the user terminal 200 (S320 of FIG. 19).
한편, 사용자가 상술한 바와 같이 비디오 정보를 검색하기 위한 메뉴항목을 선택하는 경우 첨부 도면 도 21과 같은 검색 정보를 갖는 웹 페이지를 사용자 단말기(200)로 전송하여 사용자가 원하는 비디오 그룹의 검색 정보를 선택하여 원하는 장면을 볼 수 있도록 한다.Meanwhile, when the user selects a menu item for searching video information as described above, the web page having the search information as shown in FIG. 21 is transmitted to the user terminal 200 to search for the video group desired by the user. Select it so you can see the scene you want.
도 20의 검색 정보를 갖는 웹 페이지는 뉴스의 경우, 뉴스 전체 정보와 분류별 뉴스 정보, 뉴스 검색 및 뉴스 덩어리 동영상 제공 등의 메뉴 항목이 있으며, 스포츠의 경우에는 기본적으로 하이라이트 정지영상의 대표 화면 집합을 제공하고, 주요 장면 탐색기, 선수별 검색, 경기 규칙 검색, 하이라이트에 대한 부분 동영상 제공에 대한 메뉴 항목이 있으며, 영화/비디오(드라마)의 경우에는 대표 화면으로 드라마를 요약하는 부분을 기본 화면으로 하고, 배우별 검색창과 대표 화면에 대한 드라마 동영상을 제공하는 메뉴 항목이 있으며, 부가 정보 입력의 경우에는 스포츠 부가 정보 입력과 드라마 부가정보 입력에 대한 메뉴 항목이 있으며, 쇼프로그램의 경우에는 쇼프로그램의 가수리스트, 가수별 검색, 및 각 가수별 동영상 제공 메뉴 항목 등이 있으며, 교육 방송의 경우에는 교육 방송 컨텐츠 요약, 카테고리 검색, 교육 방송 컨텐츠 부분 동영상 서비스 제공 메뉴 항목 등이 구비되어 있다.In the case of news, the web page having the search information of FIG. 20 includes menu items such as full news information, news information by category, news search, and providing a news chunk video. And menu items for main scene navigator, player search, match rule search, and providing partial video for highlights.In case of movie / video (drama), the main screen is to summarize the drama as the representative screen. There is a menu item that provides drama videos for the actor search box and representative screen.In case of additional information input, there is a menu item for inputting sports additional information and input of additional drama information. , Search by singer, and menu item for each singer's video. In the case of educational broadcasting, a menu item for providing educational broadcasting contents summary, category search, and educational broadcasting contents partial video service is provided.
도 21은 사용자 단말기(200)로 전송되는 메인 웹 페이지에서 뉴스 비디오를 선택하는 경우, 사용자 단말기로 전송되는 뉴스 전체 정보에 대한 웹 페이지를 도시한 도면으로서, 뉴스를 대표하는 하나의 정지화면(511-1-5)과 이를 대표하는 대표문장(511-1-6)으로 구성되어 있고, 이를 나열하는 방식을 취한다. 맨 위에는 뉴스의 종류(511-1-1)를 선택할 수 있는 메뉴가 있고, 이때 뉴스는 정치, 경제, 사회, 문화, 국제, 기타로 구분(511-1-4)되어 사용자의 선택으로 쉽게 이동이 가능하며, 원하는 단어를 이용하여 뉴스를 검색(511-1-3)하는 메뉴 항목과 날짜 별(511-1-2)로 뉴스를 볼 수 있는 메뉴 항목을 제공하여 사용자가 원하는 뉴스만을 찾아 볼 수 있도록 한다.FIG. 21 is a diagram illustrating a web page of all the news information transmitted to the user terminal when the news video is selected from the main web page transmitted to the user terminal 200. One still image 511 representing the news is shown. -1-5) and representative sentences (511-1-6) representing them, and take the form of enumerating them. At the top, there is a menu to select the type of news (511-1-1), where news is divided into politics, economy, society, culture, international, and others (511-1-4) to easily move to the user's choice. It is possible to use the word you want to search for news (511-1-3) and menu items to view the news by date (511-1-2) provides a menu item to look for only the news you want To help.
어떤 분류에 해당되는 뉴스의 대표 화면(511-2-1)과 그에 해당되는 간단한 정보(511-2-2)를 포함한다.The representative screen 511-2-1 of the news corresponding to a certain category and simple information 511-2-2 corresponding thereto are included.
화면에 나와 있는 하나 하나의 뉴스 대표 화면은 마우스로 클릭 함으로써 선택된 뉴스에 대한 동영상 화면이 나타나게 된다Each of the news representative screens shown on the screen will display a video screen of the selected news by clicking with the mouse.
도 22는 뉴스 비디오 정보 중 사용자가 분류별 뉴스를 보고자 검색 정보 메뉴 항목 중 분류별 뉴스 정보 메뉴 항목(도 20 참조)을 선택하는 경우, 사용자 단말기(200)로 전송되는 웹 페이지를 도시한 도면으로서, 기본적으로 동영상을 보여주는 부분(511-4-3)이 있고, 그 위에는 그 다음 뉴스를 순차적으로 나열함(511-4-1)으로서 사용자가 그 뉴스를 보고, 그 다음 뉴스들에 대해서 보기를 원할 경우 그 부분에 대한 대표 화면집합(511-4-2)과 그 뉴스에 대한 폐쇄 자막 정보(511-4-4)를 보여줌으로써 굳이 동영상을 다 보지 않아도 뉴스를 이해할 수 있다.FIG. 22 is a diagram illustrating a web page transmitted to the user terminal 200 when the user selects the news information menu item for each category from the search information menu item (see FIG. 20) to view news of each category among news video information. There is a part (511-4-3) that shows a video, and above that lists the next news sequentially (511-4-1) so that the user wants to see the news and view the next news. By displaying a representative screen set (511-4-2) and closed caption information (511-4-4) on the news, the news can be understood without having to watch the video.
도 23은 사용자가 첨부 도면 도 20의 메뉴 항목 중 뉴스 덩어리 동영상 정보 메뉴 항목을 선택하였을 경우 사용자 단말기(200)로 전송되는 화면을 도시한 도면이다.FIG. 23 is a diagram illustrating a screen transmitted to the user terminal 200 when the user selects the news chunk video information menu item among the menu items of FIG. 20.
다른 메뉴 항목에 대한 화면도 또한 상술한 화면도와 유사하게 제작되어 운영되므로 그 상세한 설명은 생략하기로 한다.Screens for other menu items are also manufactured and operated similarly to the screens described above, and thus detailed description thereof will be omitted.
이렇게 검색 정보 생성 프로세서가 완료되면, 사용자 단말기로 수신되어 동영상 정보 관리 프로세서에 의해 관리되고 있는 동영상 정보 중 사용자는 원하는 장면만을 화면상으로 출력시켜 볼 수 있다.When the search information generation processor is completed as described above, the user can output only the desired scene on the screen among the video information received by the user terminal and managed by the video information management processor.
즉, 사용자가 이미 방송된 동영상 정보 중 일부 장면만 보고자 하는 경우 상술한 검색 정보 생성 프로세서에 의해 생성된 검색 정보 또는 동영상 검색 정보 중 해당 검색 정보를 선택하면, 동영상 정보 출력 프로세서는 동영상 정보 관리 프로세서에 의해 관리되고 있는 해당 동영상 정보 중 상기 검색 정보 프로세서에 의해 생성된 검색 정보에 해당되는 장면만을 추출하여 화면상에 각 장면의 대표 영상을 출력하게 되고, 사용자는 원하는 장면만을 볼 수 있다.That is, when the user wants to see only some scenes of the already broadcasted video information, if the corresponding search information is selected among the search information or the video search information generated by the above-described search information generation processor, the video information output processor may transmit to the video information management processor. Only scenes corresponding to the search information generated by the search information processor are extracted from the corresponding video information managed by the search information processor, and a representative image of each scene is output on the screen, and the user can see only a desired scene.
이에 따라서 상술한 바와 같이 본 발명은 뉴스, 드라마, 스포츠, 쇼 등 프로그램 장르별 자동 분석 시스템을 이용하여 색인 정보를 자동으로 만들어 주기 때문에 인터넷을 이용하여 원하는 동영상을 장면별로 쉽고 편리하게 제공받을 수 있는 시스템을 제공한다는 효과가 있다.Accordingly, as described above, the present invention automatically and automatically creates index information by using an automatic analysis system for each program genre such as news, drama, sports, and show, so that a user can easily and conveniently receive a desired video for each scene using the Internet. It is effective to provide.
또한 본 발명은 비디오 데이터의 특성상 전체를 재생하기 전에는 원하는 부분을 검색하기 힘들다는 문제점을 해결하여 사용자의 간단한 대표 화면의 선택만으로 원하는 영상을 찾을 수 있다는 효과가 있다.In addition, the present invention solves the problem that it is difficult to search for a desired part before playing the whole due to the characteristics of the video data, thereby having the effect of finding a desired image by simply selecting a representative representative screen of the user.
또한, 본 발명은 사용자의 요구가 컨텐츠의 종류에 따라 다양할 수 있는 점을 고려하여 컨텐츠의 특성에 맞게 뉴스, 드라마, 스포츠, 쇼 등 프로그램 장르별로 분석하는 방법을 달리하였으며, 이에 뉴스는 앵커와 기자로 이루어진 뉴스 단위 정보를 자동으로 구성하여 기사별 검색이 가능하며, 드라마는 인물별 정보를 구축하여 인물별 검색이 가능하도록 하였으며, 스포츠는 중요 장면별 요약 정보를 자동으로 구축하여 장시간의 경기를 보지 않고도 하이라이트를 감상할 수 있다는 효과가 있다.In addition, the present invention is different from the method for analyzing the program genre, such as news, drama, sports, shows according to the characteristics of the content in consideration of the user's needs may vary according to the type of content, the news is anchored and It automatically organizes news unit information consisting of reporters to search by articles, dramas build up information by person to enable search by person, and sports automatically builds summary information for important scenes to play long-term matches. The effect is that you can see the highlights without looking.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.Although described above with reference to the preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the present invention without departing from the spirit and scope of the invention described in the claims below. It will be appreciated.
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000032136A KR20000054561A (en) | 2000-06-12 | 2000-06-12 | A network-based video data retrieving system using a video indexing formula and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000032136A KR20000054561A (en) | 2000-06-12 | 2000-06-12 | A network-based video data retrieving system using a video indexing formula and operating method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20000054561A true KR20000054561A (en) | 2000-09-05 |
Family
ID=19671720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020000032136A Ceased KR20000054561A (en) | 2000-06-12 | 2000-06-12 | A network-based video data retrieving system using a video indexing formula and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20000054561A (en) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020048501A (en) * | 2000-12-18 | 2002-06-24 | 오길록 | Providing System and Method of Moving Picture contents |
KR20020067230A (en) * | 2001-02-16 | 2002-08-22 | 주식회사 리얼타임테크 | Edu-V |
KR20030004157A (en) * | 2002-10-01 | 2003-01-14 | 주식회사 비트컴퓨터 | Method for generating meta data to provide moving image educational information |
WO2003005239A1 (en) * | 2001-06-30 | 2003-01-16 | Kt Corporation | Apparatus and method for abstracting summarization video using shape information of object, and video summarization and indexing system and method using the same |
KR20030026404A (en) * | 2001-09-25 | 2003-04-03 | (주) 엘지텔레콤 | method for searching a specific moving picture using an internet |
KR100392257B1 (en) * | 2001-02-12 | 2003-07-22 | 한국전자통신연구원 | A Method of Summarizing Sports Video Based on Visual Features |
KR20030065684A (en) * | 2002-01-30 | 2003-08-09 | 주식회사 리얼타임테크 | Management System And Service Method For Moving Picture Content Over Index |
KR100404322B1 (en) * | 2001-01-16 | 2003-11-01 | 한국전자통신연구원 | A Method of Summarizing News Video Based on Multimodal Features |
KR20040037283A (en) * | 2002-10-28 | 2004-05-07 | 이재훈 | File type and player for Multimedia on demend system |
KR20040039113A (en) * | 2002-11-01 | 2004-05-10 | 주식회사 엠트로닉스 | PVR Set-top box system capable of indexing, searching and editing the moving picture |
KR20040052057A (en) * | 2002-12-13 | 2004-06-19 | 김정태 | System for selling moving picture and operating method thereof |
KR100436828B1 (en) * | 2001-10-09 | 2004-06-23 | 한국방송공사 | Video-on-demand service compression system |
KR100451004B1 (en) * | 2001-08-13 | 2004-10-06 | 한국전자통신연구원 | Apparatus and Method for Database Construction of News Video based on Closed Caption and Method of Content-based Retrieval/Serching It |
KR100464075B1 (en) * | 2001-12-28 | 2004-12-30 | 엘지전자 주식회사 | Video highlight generating system based on scene transition |
KR100486682B1 (en) * | 2001-09-28 | 2005-05-03 | 주식회사 아카넷티비 | Method for searching information in moving pictures |
KR100491724B1 (en) * | 2002-10-14 | 2005-05-27 | 한국전자통신연구원 | Spatial Image Information System and Method Supporting Efficient Storage and Retrieaval of Spatial Images |
KR100492446B1 (en) * | 2002-07-08 | 2005-07-01 | (주)화인에스아이 | System and method for pvr(personal video recorder) |
KR100671147B1 (en) * | 2005-05-11 | 2007-01-17 | 주식회사 케이티 | Myeong scene scene experience device and method |
KR100705900B1 (en) * | 2000-08-21 | 2007-04-10 | 엘지전자 주식회사 | Personal multimedia library systems and how to store and browse your personal multimedia library using them |
KR100736089B1 (en) * | 2005-12-02 | 2007-07-06 | 삼성전자주식회사 | Method for providing connection information of network device and apparatus therefor |
KR100765740B1 (en) * | 2001-06-26 | 2007-10-15 | 삼성전자주식회사 | A / V signal storage and retrieval method and apparatus |
US8056110B2 (en) | 2003-08-30 | 2011-11-08 | Lg Electronics Inc. | Service system of thumbnail image and transmitting/receiving method thereof |
KR101447606B1 (en) * | 2010-04-14 | 2014-10-06 | 지티이 코포레이션 | Method and device for storing audio data |
US9021538B2 (en) | 1998-07-14 | 2015-04-28 | Rovi Guides, Inc. | Client-server based interactive guide with server recording |
US9125169B2 (en) | 2011-12-23 | 2015-09-01 | Rovi Guides, Inc. | Methods and systems for performing actions based on location-based rules |
US9215504B2 (en) | 2006-10-06 | 2015-12-15 | Rovi Guides, Inc. | Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications |
US9264777B2 (en) | 2012-10-30 | 2016-02-16 | Kt Corporation | Control video content play speed |
US9294799B2 (en) | 2000-10-11 | 2016-03-22 | Rovi Guides, Inc. | Systems and methods for providing storage of data on servers in an on-demand media delivery system |
US9369741B2 (en) | 2003-01-30 | 2016-06-14 | Rovi Guides, Inc. | Interactive television systems with digital video recording and adjustable reminders |
US10063934B2 (en) | 2008-11-25 | 2018-08-28 | Rovi Technologies Corporation | Reducing unicast session duration with restart TV |
KR20190114548A (en) * | 2018-03-30 | 2019-10-10 | 주식회사 엘지유플러스 | Apparatus and method for controlling contents, or content control apparatus and method thereof |
KR20210062281A (en) | 2019-11-21 | 2021-05-31 | 아이브스 주식회사 | Appartus and method for making summary video and video summary search system using the same |
CN113505263A (en) * | 2021-07-09 | 2021-10-15 | 洛阳师范学院 | Video news retrieval method and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10243389A (en) * | 1997-02-24 | 1998-09-11 | Hitachi Ltd | Video quick image creation device, video quick image creation method, and video data search system |
KR20000007558A (en) * | 1998-07-04 | 2000-02-07 | 구자홍 | Moving picture searching system by summary to be written out as text |
KR20000038291A (en) * | 1998-12-05 | 2000-07-05 | 구자홍 | Relationship-oriented video retrieval data structure and search method of characters |
KR20010008773A (en) * | 1999-07-03 | 2001-02-05 | 구자홍 | Video browsing system based on multi level object information |
-
2000
- 2000-06-12 KR KR1020000032136A patent/KR20000054561A/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10243389A (en) * | 1997-02-24 | 1998-09-11 | Hitachi Ltd | Video quick image creation device, video quick image creation method, and video data search system |
KR20000007558A (en) * | 1998-07-04 | 2000-02-07 | 구자홍 | Moving picture searching system by summary to be written out as text |
KR20000038291A (en) * | 1998-12-05 | 2000-07-05 | 구자홍 | Relationship-oriented video retrieval data structure and search method of characters |
KR20010008773A (en) * | 1999-07-03 | 2001-02-05 | 구자홍 | Video browsing system based on multi level object information |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9118948B2 (en) | 1998-07-14 | 2015-08-25 | Rovi Guides, Inc. | Client-server based interactive guide with server recording |
US9021538B2 (en) | 1998-07-14 | 2015-04-28 | Rovi Guides, Inc. | Client-server based interactive guide with server recording |
US10075746B2 (en) | 1998-07-14 | 2018-09-11 | Rovi Guides, Inc. | Client-server based interactive television guide with server recording |
US9055319B2 (en) | 1998-07-14 | 2015-06-09 | Rovi Guides, Inc. | Interactive guide with recording |
US9232254B2 (en) | 1998-07-14 | 2016-01-05 | Rovi Guides, Inc. | Client-server based interactive television guide with server recording |
US9055318B2 (en) | 1998-07-14 | 2015-06-09 | Rovi Guides, Inc. | Client-server based interactive guide with server storage |
US9154843B2 (en) | 1998-07-14 | 2015-10-06 | Rovi Guides, Inc. | Client-server based interactive guide with server recording |
US9226006B2 (en) | 1998-07-14 | 2015-12-29 | Rovi Guides, Inc. | Client-server based interactive guide with server recording |
KR100705900B1 (en) * | 2000-08-21 | 2007-04-10 | 엘지전자 주식회사 | Personal multimedia library systems and how to store and browse your personal multimedia library using them |
US9294799B2 (en) | 2000-10-11 | 2016-03-22 | Rovi Guides, Inc. | Systems and methods for providing storage of data on servers in an on-demand media delivery system |
KR20020048501A (en) * | 2000-12-18 | 2002-06-24 | 오길록 | Providing System and Method of Moving Picture contents |
KR100404322B1 (en) * | 2001-01-16 | 2003-11-01 | 한국전자통신연구원 | A Method of Summarizing News Video Based on Multimodal Features |
KR100392257B1 (en) * | 2001-02-12 | 2003-07-22 | 한국전자통신연구원 | A Method of Summarizing Sports Video Based on Visual Features |
KR20020067230A (en) * | 2001-02-16 | 2002-08-22 | 주식회사 리얼타임테크 | Edu-V |
KR100765740B1 (en) * | 2001-06-26 | 2007-10-15 | 삼성전자주식회사 | A / V signal storage and retrieval method and apparatus |
WO2003005239A1 (en) * | 2001-06-30 | 2003-01-16 | Kt Corporation | Apparatus and method for abstracting summarization video using shape information of object, and video summarization and indexing system and method using the same |
KR100451004B1 (en) * | 2001-08-13 | 2004-10-06 | 한국전자통신연구원 | Apparatus and Method for Database Construction of News Video based on Closed Caption and Method of Content-based Retrieval/Serching It |
KR20030026404A (en) * | 2001-09-25 | 2003-04-03 | (주) 엘지텔레콤 | method for searching a specific moving picture using an internet |
KR100486682B1 (en) * | 2001-09-28 | 2005-05-03 | 주식회사 아카넷티비 | Method for searching information in moving pictures |
KR100436828B1 (en) * | 2001-10-09 | 2004-06-23 | 한국방송공사 | Video-on-demand service compression system |
KR100464075B1 (en) * | 2001-12-28 | 2004-12-30 | 엘지전자 주식회사 | Video highlight generating system based on scene transition |
KR20030065684A (en) * | 2002-01-30 | 2003-08-09 | 주식회사 리얼타임테크 | Management System And Service Method For Moving Picture Content Over Index |
KR100492446B1 (en) * | 2002-07-08 | 2005-07-01 | (주)화인에스아이 | System and method for pvr(personal video recorder) |
KR20030004157A (en) * | 2002-10-01 | 2003-01-14 | 주식회사 비트컴퓨터 | Method for generating meta data to provide moving image educational information |
KR100491724B1 (en) * | 2002-10-14 | 2005-05-27 | 한국전자통신연구원 | Spatial Image Information System and Method Supporting Efficient Storage and Retrieaval of Spatial Images |
KR20040037283A (en) * | 2002-10-28 | 2004-05-07 | 이재훈 | File type and player for Multimedia on demend system |
KR20040039113A (en) * | 2002-11-01 | 2004-05-10 | 주식회사 엠트로닉스 | PVR Set-top box system capable of indexing, searching and editing the moving picture |
KR20040052057A (en) * | 2002-12-13 | 2004-06-19 | 김정태 | System for selling moving picture and operating method thereof |
US9369741B2 (en) | 2003-01-30 | 2016-06-14 | Rovi Guides, Inc. | Interactive television systems with digital video recording and adjustable reminders |
US8056110B2 (en) | 2003-08-30 | 2011-11-08 | Lg Electronics Inc. | Service system of thumbnail image and transmitting/receiving method thereof |
KR100671147B1 (en) * | 2005-05-11 | 2007-01-17 | 주식회사 케이티 | Myeong scene scene experience device and method |
KR100736089B1 (en) * | 2005-12-02 | 2007-07-06 | 삼성전자주식회사 | Method for providing connection information of network device and apparatus therefor |
US9215504B2 (en) | 2006-10-06 | 2015-12-15 | Rovi Guides, Inc. | Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications |
US10063934B2 (en) | 2008-11-25 | 2018-08-28 | Rovi Technologies Corporation | Reducing unicast session duration with restart TV |
USRE50355E1 (en) | 2008-11-25 | 2025-03-25 | Adeia Technologies Inc. | Reducing unicast session duration with restart TV |
KR101447606B1 (en) * | 2010-04-14 | 2014-10-06 | 지티이 코포레이션 | Method and device for storing audio data |
US9125169B2 (en) | 2011-12-23 | 2015-09-01 | Rovi Guides, Inc. | Methods and systems for performing actions based on location-based rules |
US9264777B2 (en) | 2012-10-30 | 2016-02-16 | Kt Corporation | Control video content play speed |
KR20190114548A (en) * | 2018-03-30 | 2019-10-10 | 주식회사 엘지유플러스 | Apparatus and method for controlling contents, or content control apparatus and method thereof |
KR20210062281A (en) | 2019-11-21 | 2021-05-31 | 아이브스 주식회사 | Appartus and method for making summary video and video summary search system using the same |
CN113505263A (en) * | 2021-07-09 | 2021-10-15 | 洛阳师范学院 | Video news retrieval method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20000054561A (en) | A network-based video data retrieving system using a video indexing formula and operating method thereof | |
US11197036B2 (en) | Multimedia stream analysis and retrieval | |
KR101109023B1 (en) | Method and apparatus for summarizing a music video using content analysis | |
US8750681B2 (en) | Electronic apparatus, content recommendation method, and program therefor | |
KR101644789B1 (en) | Apparatus and Method for providing information related to broadcasting program | |
Dimitrova et al. | Applications of video-content analysis and retrieval | |
KR100965457B1 (en) | Increase of content based on personal profile | |
KR100794152B1 (en) | Method and apparatus for selecting audio / data / visual information | |
JP5371083B2 (en) | Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium | |
JP5691289B2 (en) | Information processing apparatus, information processing method, and program | |
You et al. | A multiple visual models based perceptive analysis framework for multilevel video summarization | |
WO2012020667A1 (en) | Information processing device, information processing method, and program | |
JP2005514841A (en) | Method and apparatus for segmenting multi-mode stories to link multimedia content | |
JP2002533841A (en) | Personal video classification and search system | |
KR20050057578A (en) | Commercial recommender | |
JP2008533580A (en) | Summary of audio and / or visual data | |
JP2009239729A (en) | Device, method and program for informing content scene appearance | |
US20100272411A1 (en) | Playback apparatus and playback method | |
Gagnon et al. | Towards computer-vision software tools to increase production and accessibility of video description for people with vision loss | |
EP2336900A2 (en) | Search device and search method | |
US20080016068A1 (en) | Media-personality information search system, media-personality information acquiring apparatus, media-personality information search apparatus, and method and program therefor | |
CN117319765A (en) | Video processing method, device, computing equipment and computer storage medium | |
KR100404322B1 (en) | A Method of Summarizing News Video Based on Multimodal Features | |
Rasheed et al. | Video categorization using semantics and semiotics | |
Adami et al. | The ToCAI description scheme for indexing and retrieval of multimedia documents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20000612 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
Patent event date: 20020419 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20021130 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20030222 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20021130 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |