[go: up one dir, main page]

WO2015122162A1 - Video search device - Google Patents

Video search device Download PDF

Info

Publication number
WO2015122162A1
WO2015122162A1 PCT/JP2015/000530 JP2015000530W WO2015122162A1 WO 2015122162 A1 WO2015122162 A1 WO 2015122162A1 JP 2015000530 W JP2015000530 W JP 2015000530W WO 2015122162 A1 WO2015122162 A1 WO 2015122162A1
Authority
WO
WIPO (PCT)
Prior art keywords
search
metadata
unit
input
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/000530
Other languages
French (fr)
Japanese (ja)
Inventor
公則 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of WO2015122162A1 publication Critical patent/WO2015122162A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to a metadata confirmation device, a video search device, a video search method, and a program.
  • the purpose of installing the surveillance camera includes a purpose as a crime deterrent by making the person think that he / she has taken a picture, and a purpose as a record for on-site verification when a crime occurs.
  • surveillance cameras for example, when violent crimes occur, there are many cases in which the criminal images shown on these surveillance cameras lead to criminal clearance.
  • Various effects are exhibited by installing the surveillance camera in this way. For this reason, surveillance cameras are expected to be used more frequently as a tool for solving problems.
  • Patent Document 1 discloses a technique for quickly and accurately searching for target video data from a huge amount of video data.
  • Patent Document 1 describes a technique for generating metadata from a combined image obtained by combining a plurality of images, and collating an object included in the image based on the generated metadata.
  • Patent Document 2 metadata generation means for generating metadata from image data, metadata display control means for displaying metadata on a display unit, metadata correction means for accepting correction of displayed metadata, A scanner device is described.
  • the scanner apparatus described in Patent Document 2 has the above-described configuration, so that the user can check the processing result of the scanned image data without scanning again.
  • the search conditions can be input as sample images instead of text.
  • a search is performed using a sample image
  • a person recognizes that they are yellow clothes
  • the video search device that performs the search contains many red components. It may be judged that it is red clothes.
  • a search condition is input as image data
  • a search condition different from the search condition intended by the user may be input.
  • the video search device may search for a user's unexpected one.
  • the user can recognize that the search condition is different from the intended one only after confirming the search result. Therefore, after confirming the search result, it is necessary to replace the image data serving as a search condition and perform another search. As a result, there has been a problem that it takes time to perform a search under an appropriate search condition.
  • Patent Document 2 is a technique related to a scanner, and cannot be applied to an apparatus that simply searches for image data.
  • Patent Document 2 does not describe anything about shortening the time taken to perform a search under desired conditions.
  • the object of the present invention is the above-described problem, where there are cases where the search cannot be performed with the search condition intended by the user, and it takes time until the search is performed with the search condition intended by the user. It is an object of the present invention to provide a video search apparatus that solves the problem that there is a case where the video search ends.
  • An image data input unit for inputting image data
  • a search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit
  • a search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information; Is provided.
  • a video search apparatus A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside; A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source; An image data input unit for inputting image data; A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit; A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata; A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information; Is provided.
  • a video search method includes: Extract metadata of a predetermined type from video data input from the outside, store the metadata in association with the video data of the extraction source, Image data is input, search metadata of a predetermined type is extracted from the input image data, and the search metadata and search availability options are displayed as pre-search condition information.
  • the program which is the other form of this invention is: Video search device A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside; A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source; An image data input unit for inputting image data; A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit; A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata; This is a program for functioning as a search metadata confirmation unit that displays the search metadata and search availability options as pre-search condition information.
  • the present invention is configured as described above, and thus can provide a video search device that can perform a search with a search condition intended by the user in a short time.
  • 1 is a block diagram illustrating a configuration of a video search device according to a first embodiment of the present invention. It is a flowchart which shows an example of the operation
  • 7 is a flowchart illustrating an operation when the metadata extraction unit illustrated in FIG. 6 extracts metadata from video data. It is a flowchart which shows an example of the operation
  • It is a schematic block diagram which shows the outline of a structure of the video search device concerning the 3rd Embodiment of this invention.
  • a video search device 1 is a device that stores video data acquired by an external device such as a surveillance camera.
  • the video search device 1 according to the present embodiment is configured to be able to search video data stored therein by inputting image data to the video search device 1.
  • the video search device 1 in the present embodiment displays the search metadata on an output device such as a monitor before searching for video data using the search metadata extracted from the image data. Is configured to do.
  • the video search apparatus 1 includes a video data receiving unit 11, a metadata extracting unit 12, a metadata storage unit 13, a video data storage unit 14, The image data input unit 15, the search metadata extraction unit 16, the search metadata confirmation unit 17, the search processing unit 18 (search processing unit), and a search result display unit 19 are included.
  • the video search device 1 is an information processing device including an arithmetic device and a storage device. The video search device 1 realizes each of the above functions when the arithmetic device executes a program stored in the storage device.
  • the video data receiving unit 11 has a function of receiving video data from an external device such as a surveillance camera. Specifically, the video data receiving unit 11 is connected to an external device such as a monitoring camera via an external network, for example, and receives video data from the external device via the external network. Alternatively, the video data receiving unit 11 acquires video data from an external device such as a monitoring camera directly connected to the video data receiving unit 11. Then, the video data receiving unit 11 performs processing necessary to process the received video data, and then transmits the video data to the metadata extraction unit 12 and the video data storage unit 14.
  • the metadata extraction unit 12 has a function of extracting a predetermined type of metadata from the video data.
  • the metadata extraction unit 12 receives the video data transmitted by the video data reception unit 11. Subsequently, the metadata extraction unit 12 extracts a predetermined type of metadata from the received video data.
  • the predetermined type of metadata is metadata for identifying video data or a person in the video data.
  • metadata extracted by the metadata extraction unit 12 for example, the facial features, age, gender, clothing color of the upper body and the lower body of a person can be considered.
  • the metadata extraction unit 12 can be configured to extract, for example, the image shooting date and time, the shooting location, the title and comment set by the user, and the name of the person as metadata.
  • the metadata extraction unit 12 can extract various types of metadata for identifying video data and persons.
  • the metadata extraction unit 12 extracts a predetermined type of metadata from the video data. Then, the metadata extraction unit 12 transmits the extracted metadata to the metadata storage unit 13.
  • the metadata extraction unit 12 can retrieve the source video data from a predetermined type of metadata extracted by the metadata extraction unit 12 (extraction of the metadata and the metadata). Extract metadata (so that it can be associated with the original video data). For example, the metadata extraction unit 12 adds information for identifying video data from which the metadata is extracted to metadata extracted from the video data (for example, a shooting date and a shooting location). Further, at that time, the metadata extraction unit 12 can include information (for example, information indicating the time when the person is shown) necessary for reproducing the video data from the portion where the person shown by the image data is shown. By including such information in the metadata, as described later, it becomes possible to output video data corresponding to the retrieved metadata.
  • the metadata storage unit 13 includes a storage device such as a hard disk or a RAM (Random Access Memory).
  • the metadata storage unit 13 receives the metadata transmitted by the metadata extraction unit 12.
  • the metadata storage unit 13 stores the received metadata. Thereafter, the metadata storage unit 13 transmits the metadata stored therein to the search processing unit 18 in response to an instruction from the search processing unit 18.
  • the metadata stored in the metadata storage unit 13 includes information for identifying the video data from which the metadata is extracted. That is, the metadata storage unit 13 stores the metadata in association with the source video data.
  • the video data storage unit 14 includes a storage device such as a hard disk or a RAM (Random Access Memory).
  • the video data storage unit 14 receives the video data transmitted by the video data receiving unit 11. Then, the video data storage unit 14 stores the received video data. Thereafter, the video data storage unit 14 transmits the video data stored therein to the search result display unit (or the search processing unit 18) in response to an instruction from the search result display unit 19 (or the search processing unit 18). .
  • the metadata storage unit 13 stores metadata associated with video data. Therefore, when metadata is searched for in the search processing unit 18 described later, the video data from which the metadata is extracted is searched from the video data storage unit 14 using information for identifying the video data included in the metadata. It becomes possible to do.
  • the image data input unit 15 has a function of inputting image data.
  • the image data input unit 15 is configured to acquire image data from an external network or to be connected to an external device such as a digital camera, for example. Then, one or a plurality of image data is input to the image data input unit 15 through the external device such as the external network or the digital camera. In this way, the image data input unit 15 can input image data using various methods for inputting image data.
  • the image data input unit 15 transmits the input image data to the search metadata extraction unit 16.
  • the search metadata extraction unit 16 has a function of extracting a predetermined type of search metadata from the image data.
  • the search metadata extraction unit 16 receives the image data transmitted from the image data input unit 15. Then, the search metadata extraction unit 16 extracts a predetermined type of search metadata from the received image data.
  • the predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 12 described above.
  • the metadata extraction unit 12 and the search metadata extraction unit 16 include, for example, the same metadata extraction engine, and are configured to be able to extract the same type of metadata.
  • the metadata extracted by the search metadata extraction unit 16 is the same as the metadata extracted by the metadata extraction unit 12, and therefore, detailed description thereof is omitted.
  • the search metadata extraction unit 16 extracts the same type of search metadata as the metadata extracted by the metadata extraction unit 12. Then, the search metadata extraction unit 16 transmits the extracted search metadata to the search metadata confirmation unit 17.
  • the search metadata confirmation unit 17 has a function of displaying the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata.
  • the search metadata confirmation unit 17 receives the search metadata transmitted by the search metadata extraction unit 16. Then, the search metadata confirmation unit 17 displays the received search metadata on an output device such as a monitor connected to the video search device 1, for example.
  • the search metadata confirmation unit 17 selects whether to search the metadata storage unit 13 by the search processing unit 18 to be described later using the search metadata according to the displayed pre-search condition information. Configured to be able to. That is, when the pre-search condition information displayed by the search metadata confirmation unit 17 is different from what the user intended, the user performs a search using the search metadata indicated by the different pre-search condition information. It is possible to instruct the search metadata confirmation unit 17 to stop performing. On the other hand, when the pre-search condition information displayed by the search metadata confirmation unit 17 is what the user intended, the user performs a search using the search metadata indicated by the pre-search condition information. The search metadata confirmation unit 17 can be instructed. Such a function, for example, when displaying the search metadata on an output device such as a monitor, displays a button for selecting whether or not to perform a search (displays a search possibility option). This can be realized by configuring the data confirmation unit 17.
  • the search metadata confirmation unit 17 can be configured so that the search metadata displayed as the pre-search condition information can be corrected according to the input from the user.
  • the search metadata check unit 17 is configured to correct the search metadata by reinserting the image data into the image data input unit 15.
  • the search metadata confirmation unit 17 may be configured so that the search metadata displayed on the output device can be directly corrected by using a keyboard or the like connected to the video search device 1.
  • the search metadata confirmation unit 17 can have various modifications. Note that when the search metadata check unit 17 corrects the search metadata, the corrected search metadata is displayed on an output device such as a monitor. Therefore, as described later, the search by the search processing unit 18 is performed using the corrected search metadata.
  • the search metadata confirmation unit 17 displays the search metadata as pre-search condition information on an output device such as a monitor. Further, the search metadata confirmation unit 17 accepts correction of the displayed search metadata. Thereafter, when execution of the search is selected by the user, the search metadata confirmation unit 17 searches the search metadata (search metadata displayed on the output device or the like) instructed to execute the search. The data is transmitted to the processing unit 18. On the other hand, when search cancellation is selected by the user, the search metadata confirmation unit 17 discards, for example, the search metadata for which search cancellation has been selected. Then, it waits for input of new image data (reception of search metadata).
  • the search processing unit 18 has a function of searching the metadata storage unit 13 using the search metadata displayed as the pre-search condition information.
  • the search processing unit 18 receives the search metadata transmitted by the search metadata confirmation unit 17. Subsequently, the search processing unit 18 searches the metadata storage unit 13 for metadata corresponding to the search metadata using the received search metadata.
  • the search processing unit 18 may be configured to search the metadata storage unit 13 for metadata that matches the search metadata.
  • the search processing unit 18 may be configured to search the metadata storage unit 13 for metadata that is the same as or similar to the search metadata.
  • the search processing unit 18 can be configured to determine the similarity between the search metadata and the metadata stored in the metadata storage unit 13 using various general methods. Specifically, for example, a search is performed so that the distance between the search metadata and the metadata is determined by a numerical value as a distance, and the search metadata and the metadata are determined to be similar when the distance is equal to or less than a threshold value. It is conceivable to configure the processing unit 18. In addition to adopting the method as described above, the search processing unit 18 may be configured to determine whether or not they are similar using various general criteria for determining similarity. I can do it.
  • the search processing unit 18 searches the metadata storage unit 13 for metadata corresponding to the search metadata. Then, the search processing unit 18 transmits the searched metadata to the search result display unit 19.
  • the search result display unit 19 is connected to an external device such as a monitor.
  • the search result display unit 19 has a function of acquiring video data related to the metadata searched by the search processing unit 18 from the video data storage unit 14 and displaying the acquired video data on an external device such as the monitor.
  • the search result display unit 19 receives the metadata transmitted by the search processing unit 18. Subsequently, the search result display unit 19 acquires video data related to the received metadata from the video data storage unit 14 using information included in the received metadata. Thereafter, the search result display unit 19 displays the acquired video data on an output device such as a monitor.
  • the output device such as a monitor on which the search result display unit 19 displays video data may be the same as the output device such as a monitor on which the search metadata confirmation unit 17 displays pre-search condition information. It does not matter if they are different.
  • the search result display unit 19 acquires video data related to metadata from the video data storage unit 14.
  • the search processing unit 18 may be configured to acquire video data related to metadata.
  • the search result display unit 19 can be configured to receive only video data, or can be configured to receive video data and metadata.
  • the present invention includes a device that receives video data from an external device such as a monitoring camera, extracts and stores metadata, a device that inputs image data and checks search metadata before performing a search, It can also be implemented by providing the two information processing apparatuses.
  • the present invention may be configured from a plurality of information processing apparatuses.
  • the video search apparatus 1 displays the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata. I can do it. As a result, the user confirms the displayed pre-search condition information, so that it is possible to confirm whether or not the search condition is intended by the user before the actual search is performed.
  • the video search device 1 includes the metadata storage unit 13 and the video data storage unit 14 separately.
  • the video search device 1 may be configured to include one storage device that stores metadata and video data.
  • the video data is input to the video data receiving unit 11 of the video search device 1 (S101). Then, the video data receiving unit 11 to which the video data is input performs processing necessary for processing the video data, and then transmits the video data to the video data storage unit 14 and the metadata extraction unit 12. .
  • the video data transmitted to the video data storage unit 14 is stored in the video data storage unit 14.
  • the video data transmitted by the video data receiving unit 11 is received by the metadata extracting unit 12. Then, the metadata extraction unit 12 extracts a predetermined type of metadata from the received video data (S102). Thereafter, the metadata extraction unit 12 transmits the extracted metadata to the metadata storage unit 13.
  • the predetermined type of metadata is metadata for identifying video data and a person in the video data. Details of the metadata extracted by the metadata extraction unit have already been described, and will not be described.
  • the metadata extraction unit 12 can retrieve the source video data from a predetermined type of metadata extracted by the metadata extraction unit 12 (extraction of metadata and the metadata). Extract metadata (so that it can be associated with the original video data). For example, the metadata extraction unit 12 adds information for identifying video data from which the metadata is extracted to metadata extracted from the video data (for example, a shooting date and a shooting location). Further, the metadata extraction unit 12 gives information (for example, information indicating the time when the person is shown) necessary for reproducing the video data from the portion where the person shown by the image data is shown. The metadata extraction unit 12 transmits the metadata generated in this way to the metadata storage unit 13.
  • the metadata storage unit 13 receives the metadata transmitted by the metadata extraction unit 12. Then, the metadata storage unit 13 stores the received metadata.
  • the metadata stored in the metadata storage unit 13 includes information for identifying video data from which the metadata is extracted. That is, the metadata storage unit 13 stores the metadata in association with the source video data (S103).
  • the video search device 1 can acquire a predetermined type of metadata from video data input from an external device such as a surveillance camera, and store the acquired metadata. Further, the metadata stored in the video search device 1 is associated with the video data from which the metadata is extracted. Next, an operation when searching for video data stored in the video search device 1 will be described.
  • image data is input to the image data input unit 15 of the video search device 1 (S201). Then, the image data input unit 15 to which the image data is input transmits the input image data to the search metadata extraction unit 16.
  • the search metadata extraction unit 16 receives the image data transmitted by the image data input unit 15. Then, the search metadata extraction unit 16 extracts a predetermined type of search metadata from the received image data (S202). Thereafter, the search metadata extraction unit 16 transmits the extracted search metadata to the search metadata confirmation unit 17.
  • the predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 12 (stored in the metadata storage unit 13). That is, the metadata extraction unit 12 and the search metadata extraction unit 16 include, for example, the same metadata extraction engine, and extract the same type of metadata.
  • the search metadata confirmation unit 17 receives the search metadata transmitted by the search metadata extraction unit 16. Then, the search metadata confirmation unit 17 displays the search metadata as pre-search condition information on an output device such as a monitor before performing a search on the metadata storage unit 13 using the search metadata. (S203). As a result, it becomes possible for the user who has seen the pre-search condition information displayed on the output device to determine whether to perform a search using the search metadata displayed as the pre-search condition information. (S204).
  • the user When it is determined that the user does not perform the search using the pre-search condition information displayed on the output device (S204, NO), the user does not perform the search using the pre-search condition information displayed on the output device.
  • the search metadata confirmation unit 17 In this case, for example, the user replaces the image data and starts again from the input of the image data.
  • the operation here is not limited to the case of replacing image data.
  • the search metadata may be corrected using a keyboard connected to the video search device 1.
  • the search metadata confirmation unit 17 displays the pre-search condition information displayed on the output device.
  • the search metadata shown is transmitted to the search processing unit 18.
  • the search processing unit 18 that has received the search metadata transmitted by the search metadata confirmation unit 17 searches the metadata stored in the metadata storage unit 13 using the search metadata. (S205).
  • the search processing unit 18 transmits the metadata searched from the metadata storage unit 13 to the search result display unit 19 using the search metadata. Then, the search result display unit 19 that has received the metadata transmitted by the search processing unit 18 acquires video data related to the received metadata from the video data storage unit 14 and displays the acquired video data ( S206).
  • the video search device 1 can search the video data stored in itself using the input image data.
  • the video search apparatus 1 includes the search metadata check unit 17.
  • the video search apparatus 1 can display the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata.
  • the search metadata As a result, it is possible to check the search metadata as pre-search condition information before searching for metadata using search metadata that requires time, and the search intended by the user in a short time. It becomes possible to search by condition.
  • the suspicion for the device with respect to the search result can be solved.
  • the search metadata confirmation unit 17 when the search metadata confirmation unit 17 is not provided, the result of the metadata search using the search metadata that takes a long time is associated with the searched metadata. Only when the video data is displayed, it can be determined whether or not the search result is intended. In other words, if the search metadata confirmation unit 17 is not provided, it is possible to determine whether or not the search can be performed with the search condition intended by the user if the search that is necessary for a long time is not performed. Absent. As a result, it takes a long time to perform a search under a search condition intended by the user.
  • the video search device 2 includes a video data receiving unit 21, a video data processing unit 22, a metadata extraction unit 23, a metadata storage unit 24, The video data storage unit 25, the search condition input unit 26, the search processing unit 27, and the search result display unit 28 are included.
  • the search condition input unit 26 includes a search condition input item unit 31 (part of which is an image data input unit), a search metadata extraction unit 32, and a search condition comparison unit 33 (search metadata check unit). And a search condition display unit 34 (a part of the search metadata confirmation unit).
  • the video search device 2 in the present embodiment is an information processing device including an arithmetic device and a storage device.
  • the video search device 2 realizes the above functions by causing the arithmetic device to execute a program stored in the storage device.
  • the video data receiving unit 21 has a function of receiving video data from an external device such as an IP camera.
  • the video data receiving unit 21 receives video data from one external device or a plurality of external devices, for example, via an external network. Then, the video data receiving unit 21 transmits the received video data to the video data processing unit 22.
  • the video data processing unit 22 has a function of performing processing necessary for extracting metadata from video data received from the video data receiving unit 21 from the video data. For example, the video data processing unit 22 performs AD conversion (Analog / Digital) on the received video data. In addition, the video data processing unit 22 can perform various other processes necessary for processing video data. Then, the video data processing unit 22 transmits the video data subjected to necessary processing to the metadata extraction unit 23 and the video data storage unit 25.
  • AD conversion Analog / Digital
  • the metadata extraction unit 23 has a function of extracting a predetermined type of metadata from the video data.
  • the metadata extraction unit 23 receives metadata transmitted by the video data processing unit 22. Subsequently, the metadata extraction unit 23 extracts a predetermined type of metadata from the received video data. Thereafter, the metadata extraction unit 23 transmits the extracted metadata to the metadata storage unit 24.
  • the metadata extraction unit 23 has a function including an analysis engine common base 41, an action detection ENG (ENGINE) 42, a face identification ENG 43, an age and gender identification ENG 44, and a clothing color identification ENG 45. provide.
  • ENGINE action detection ENG
  • the analysis engine common base 41 has a function as a base common to an action detection ENG 42, a face identification ENG 43, an age and gender identification ENG 44, and a clothing color identification ENG 45, which will be described later.
  • the analysis engine common base 41 receives video data from the video data processing unit 22.
  • the analysis engine common base 41 transmits the metadata extracted by each engine to the metadata storage unit 24.
  • the behavior detection ENG 42 has a function of detecting a moving person from the video data. Specifically, the behavior detection ENG 42 extracts image data one by one from the video data and takes a difference between successive image data. Subsequently, the behavior detection ENG 42 extracts a person who is a moving object from the difference between the image data. Then, the behavior detection ENG 42 detects the extracted face image and clothes image of the person using techniques such as pattern recognition and area division. Thereafter, the behavior detection ENG 42 passes the detected face image to the face identification ENG 43 and the age / sex identification ENG 44. In addition, the behavior detection ENG 42 passes the detected clothing image to the clothing color identification ENG 45.
  • the face identification ENG 43 has a function of using the face image passed from the behavior detection ENG 42 to extract the feature of the person's face reflected in the face image as metadata.
  • the facial feature extraction by the face identification ENG 43 may be configured to extract a prominent feature from the facial image, or may be configured to extract the entire facial feature using the facial image itself as one pattern. Absent. Further, the face identification ENG 43 may be configured to identify an individual from the extracted facial features and extract, for example, the name of the identified person stored in a person information storage unit (not shown) as metadata. I can do it.
  • Age gender identification ENG44 has a function of using the face image passed from action detection ENG42 to extract the estimated age and gender data of the person reflected in the face image. It is conceivable that the age and sex data are extracted from, for example, facial shape features such as eyebrows and facial features that show wrinkles.
  • the clothing color identification ENG45 has a function of extracting the clothing color data of the upper body and the clothing color data of the lower body, which are reflected by the clothing image, using the clothing image passed from the behavior detection ENG42. For example, the clothing color identification ENG 45 acquires the clothing color data of the upper body and the clothing color data of the lower body as specific numerical values indicating the clothing color of the upper body and the clothing color of the lower body.
  • the movement detection ENG 42 detects a moving person from the video data. Then, the metadata of the person detected by the behavior detection ENG42 is extracted by the face identification ENG43, the age / sex identification ENG44, and the clothing color identification ENG45.
  • the metadata extraction unit 23 can extract predetermined types of metadata, which is metadata for identifying video data and a person in the video data, from the video data. Note that the metadata extracted by the metadata extraction unit 23 includes information for identifying the moving image from which the metadata is extracted. Details of the predetermined metadata types have already been described and will not be described.
  • the metadata storage unit 24 is configured by a storage device such as a hard disk or a RAM (Random Access Memory), and receives and stores metadata transmitted by the metadata extraction unit 23.
  • the video data storage unit 25 is configured by a storage device such as a hard disk or a RAM (Random Access Memory), and receives and stores video data transmitted by the video data processing unit 22.
  • a storage device such as a hard disk or a RAM (Random Access Memory)
  • the metadata stored in the metadata storage unit 24 includes information for identifying the video data from which the metadata is extracted (stored in the video data storage unit 25). Therefore, metadata associated with video data stored in the video data storage unit 25 is stored in the metadata storage unit 24.
  • the search condition input unit 26 has a function of inputting image data and keywords for searching video data stored in the video search device 2.
  • the search condition input unit 26 compares the search metadata extracted from the input image data with the search metadata by the keyword, and uses the search metadata as pre-search condition information before executing the search. It has a function to display.
  • the search condition input unit 26 may be configured to be able to modify the search metadata displayed as pre-search condition information in accordance with an input from the user.
  • the search condition input unit 26 includes the search condition input item unit 31, the search metadata extraction unit 32, the search condition comparison unit 33, and the search condition display unit 34.
  • the search condition input item unit 31 has a function of inputting a search condition for searching for video data stored in the video search device 2 (the video data storage unit 25).
  • the search condition input item unit 31 includes an image data input unit 51 and a keyword input unit 52.
  • the image data input unit 51 has a function of inputting image data as a search condition.
  • the image data input to the image data input unit 51 is transmitted to the search metadata extraction unit 32.
  • a plurality of images may be input to the image data input unit 51, such as inputting three pieces of image data of the face, upper body, and lower body.
  • the image data input unit 51 may input, for example, a photograph of the entire person showing the face, the upper body, and the lower body. In this case, the face, upper body, and lower body are identified by the search metadata extraction unit 32 described later. Note that the detailed description of the configuration of the image data input unit 51 is the same as in the first embodiment, and is omitted.
  • the keyword input unit 52 has a function of inputting keywords.
  • the keyword input unit 52 includes an input device such as a keyboard and a touch panel, and is configured to be able to input a keyword by operating the input device.
  • the keyword input to the keyword input unit 52 is to be compared with metadata extracted from image data as search metadata by the keyword.
  • the keyword input unit 52 may input a keyword for the purpose of comparison with the search metadata extracted from the image data. For example, a search to be performed regardless of the search metadata extracted from the image data. Metadata may be input as a keyword.
  • the keyword input unit 52 transmits the keyword input to the keyword input unit 52 to the search condition comparison unit 33.
  • the search metadata extraction unit 32 has a function of extracting search metadata from image data.
  • the search metadata extraction unit 32 receives the image data transmitted from the image data input unit 51. Then, the search metadata extraction unit 32 extracts a predetermined type of search metadata from the received image data. Thereafter, the search metadata extraction unit 32 transmits the extracted search metadata to the search condition comparison unit 33.
  • the search metadata extraction unit 32 provides a function including an analysis engine common base 41, an action detection ENG 42, a face identification ENG 43, an age / sex identification ENG 44, and a clothing color identification ENG 45. . That is, the search metadata extraction unit 32 has the same configuration as the metadata extraction unit 23. Thus, the metadata extraction unit 23 and the search metadata extraction unit 32 have the same configuration, so that the metadata extraction unit 23 and the search metadata extraction unit 32 extract the same type of metadata. It becomes possible to do. As a result, the metadata extracted by the metadata extraction unit 23 can be searched using the search metadata extracted by the search metadata extraction unit 32. Note that the search metadata extraction unit 32 may not necessarily have the same configuration as long as it can extract the same type of search metadata as the metadata extracted by the metadata extraction unit 23. .
  • the search condition comparison unit 33 has a function of comparing search metadata extracted from image data with search metadata based on keywords. As described above, a predetermined type of search metadata is extracted from the image data. Therefore, the search condition comparison unit 33 compares the search metadata extracted from the image data and the search metadata using keywords for each predetermined type. Then, the search condition comparison unit 33 transmits the comparison result to the search condition display unit 34.
  • the search condition display unit 34 has a function of displaying the comparison result transmitted from the search condition comparison unit 33 on an external device such as a monitor.
  • the display of the comparison result by the search condition display unit 34 is performed before the search for the metadata storage unit 24 using the search metadata.
  • the search condition display unit 34 displays, for example, an image illustration display, image metadata information, and keyword metadata information.
  • the metadata information of the image is search metadata extracted by the search metadata extraction unit 32 from the image data input to the image data input unit 51.
  • the image metadata information for example, the presence / absence of a facial feature indicated by the image data, age, gender, upper body color, and lower body color are displayed.
  • the image illustration display is a simple display corresponding to the image data input to the image data input unit 51. The facial features, the upper body (torso and arm) clothing color, and the lower body clothing color are displayed. This is a simple illustration.
  • the keyword metadata information is search metadata based on keywords input to the keyword input unit 52.
  • keywords input to the keyword input unit 52 for example, age, sex, clothes color, and the like are displayed.
  • image metadata information, and keyword metadata information can be compared horizontally, for example, in three categories of face, upper body, and lower body. They will be displayed side by side.
  • the search condition display unit 34 displays a display of comparison information in addition to, for example, an image illustration display, image metadata information, and keyword metadata information. It can be configured as follows.
  • the display of the comparison information information that can be obtained by comparing the metadata information of the image and the metadata information of the keyword is displayed.
  • the display of the comparison information includes, for example, the presence / absence of facial features and the difference between the metadata information of the image and the metadata information of the keyword.
  • the search condition comparison unit 34 may be configured to display the matching point between the image metadata information and the keyword metadata information for displaying the comparison information.
  • the search condition display unit 34 can be configured to compare the metadata information of the image and the metadata information of the keyword by the same type and display the result of the comparison.
  • the search condition display unit 34 displays a reference illustration display in addition to, for example, an image illustration display, image metadata information, and keyword metadata information. It can be configured as follows.
  • the reference illustration display an illustration showing image data necessary for extracting the search metadata by the keyword from the image data is displayed for reference.
  • the search condition display unit 34 can be configured so that the image data necessary for inputting the metadata information of the keyword from the image data is represented by an illustration for reference.
  • the search condition display unit 34 displays the image metadata information and the keyword metadata information so that the matching points and the difference points are emphasized when the same type is compared. I can do it. Specifically, it may be possible to display different portions of the search metadata indicated by the metadata information of the image and the search metadata indicated by the keyword metadata information in red and bold.
  • the search condition display unit 34 displays the result of the comparison by various methods.
  • the search condition display unit 34 is not limited to the above case, and can adopt an expression method in which the user can easily recognize the comparison result.
  • the search condition display unit 34 is configured to be able to select whether or not to search the metadata storage unit 24 using the search metadata according to the displayed pre-search condition information. . Further, the search condition display unit 34 can be configured to be able to correct the search metadata displayed as the pre-search condition information in accordance with the input from the user. A detailed description of this configuration of the search condition display unit 34 is the same as that already described, and will be omitted.
  • the search condition display unit 34 displays search metadata as pre-search condition information on an output device such as a monitor.
  • the search condition display unit 34 accepts correction of the displayed search metadata. Thereafter, when execution of search is selected by the user, the search condition display unit 34 searches the search metadata (search metadata displayed on the output device or the like) instructed to execute the search. 27.
  • the search condition display unit 34 discards, for example, the search metadata for which the search is canceled. Then, it waits for input of new image data (reception of search metadata).
  • the pre-search condition information is displayed in three classifications: face, upper body, and lower body.
  • the present invention can be implemented without being limited to the above case.
  • the display method or the comparison method may be changed as appropriate, such as adding shoe information or hand information, or displaying the upper and lower body at a time.
  • the search condition display unit 34 is configured to determine whether or not the search metadata input from the keyword input unit 52 matches the search metadata input from the search metadata extraction unit 32. I can do it. Further, the search condition display unit 34 determines whether the search metadata input from the keyword input unit 52 matches the search metadata extracted by the search metadata extraction unit 32 as pre-search condition information. It can be configured to change the information displayed. For example, when the search metadata does not match, the search condition display unit 34 displays the search metadata and search availability options as pre-search condition information. On the other hand, when the search metadata matches, the search condition display unit 34 displays only the search metadata as the pre-search condition information. By configuring in this way, the search condition display unit 34 is configured to search before search when the search metadata input from the keyword input unit 52 matches the search metadata input from the search metadata extraction unit 32. After displaying the search metadata as the condition information, the search can be executed promptly.
  • the search processing unit 27 has a function of searching for metadata stored in the metadata storage unit 24 using the search metadata displayed as pre-search condition information. Referring to FIG. 13, the search processing unit 27 provides a function including a matching engine common base 61, an object matching ENG 62, a face matching ENG 63, an age-sex matching ENG 64, and a clothing color matching ENG 65.
  • the collation engine common base 61 of the search processing unit 27 receives the search metadata from the search condition display unit 34.
  • the collation engine common base 61 receives metadata stored in the metadata storage unit 24 from the metadata storage unit 24.
  • the face collation ENG 63, the age and gender collation ENG 64, and the clothing color collation ENG 65 respectively determine the sameness between the same type of metadata and the search metadata.
  • the object collation ENG 62 determines whether the metadata and the search metadata are the same. Judgment is made. Thereafter, the collation engine common base 61 transmits the search result to the search result accumulation unit 66.
  • the search processing unit 27 stores the search result in the search result storage unit 66. Thereafter, the search result (metadata) stored in the search result storage unit 66 is transmitted to the search result display unit 28, and the search result display unit 28 displays video data related to the metadata. . Since the flow of displaying the video data by the search result display unit 28 is the same as that already described, a description thereof will be omitted.
  • the search processing unit 27 can be configured to perform a search even when the search metadata extracted from the image data is different from the search metadata by the keyword. That is, for example, when the search execution is selected in a state where the search metadata extracted from the image data is different from the search metadata by the keyword, the search processing unit 27 uses each search metadata.
  • the metadata storage unit 24 can be configured to perform a search.
  • the search metadata extracted from the image data and the search metadata based on the keyword may be searched as an AND condition or may be searched as an OR condition.
  • the search processing unit 27 can be configured to perform a search on the metadata storage unit 24 using either one of the predetermined search metadata.
  • the search processing unit 27 may be configured to be able to select the various search methods described above.
  • the above is the configuration of the video search device 2.
  • the video search device 2 uses the search metadata and keywords extracted from the image data before searching the metadata storage unit 13 using the search metadata.
  • Search metadata can be displayed as pre-search condition information. As a result, it can be confirmed more reliably whether or not the pre-search condition information is intended by the user.
  • the video search device 2 includes the metadata storage unit 24 and the video data storage unit 25 separately.
  • the video search device 2 may be configured to include one storage device that stores metadata and video data.
  • the analysis engine common base 41 includes four engines.
  • the present invention is not limited to the case where the analysis engine common base 41 includes four engines.
  • the number of engines on the analysis engine common base 41 may be increased or decreased according to a predetermined type of metadata extracted from the image data.
  • the number of engines on the collation engine common base 61 may be increased or decreased according to the number of metadata to be searched.
  • the metadata extraction unit 23 receives video data from the video data processing unit 22, execution of the processing shown in FIG. 14 is started.
  • the analysis engine common base 41 of the metadata extraction unit 23 receives the video data.
  • the action detection ENG 42 detects the moving person by extracting the image data from the video data and taking the difference between the continuous image data (S301). Then, the action detection ENG 42 passes the face image of the moving person to the face identification ENG 43 and the age and gender identification ENG 44. In addition, the behavior detection ENG 42 passes the clothing image of the moving person to the clothing color identification ENG 45.
  • the face identification ENG 43 that has received the face image uses the face image passed from the behavior detection ENG 42 to extract the facial features of the person reflected by the face image as metadata (S302).
  • the extraction of facial features by the face identification ENG 43 may be configured to extract features that stand out from the facial image, or may be configured to extract facial features using the facial image itself as one pattern. Further, the face identification ENG 43 may identify an individual from the extracted facial features and extract the name of the identified person as metadata.
  • age and gender identification ENG 44 that has received the face image uses the face image passed from the behavior detection ENG 42 to extract the estimated age and gender data of the person shown by the face image (S303).
  • Age and gender data are extracted from, for example, facial shape features such as eyebrows and facial shading features.
  • the clothing color identification ENG 45 that has received the clothing image extracts the clothing color data of the upper body and the clothing color data of the lower body using the clothing image passed from the behavior detection ENG 42 (S304).
  • the movement detection ENG 42 detects a moving person, and extracts a predetermined type of metadata of the person detected by the face identification ENG 43, the age and gender identification ENG 44, and the clothing color identification ENG 45.
  • the metadata extracted by each engine is transmitted from the analysis engine common base 41 to the metadata storage unit 24 and stored in the metadata storage unit 24.
  • the metadata extracted by the metadata extraction unit 23 includes information for identifying the moving image from which the metadata is extracted.
  • the above is the operation when the metadata extraction unit 23 receives video data from the video data processing unit 22 and extracts metadata.
  • the operation when the search metadata extraction unit 32 extracts the search metadata from the image data is the same as the operation of the metadata extraction unit 23 described above. Next, an operation when searching for video data stored in the video search device 2 will be described.
  • image data is input to the image data input unit 51 (S401). Then, the image data input unit 51 that has received the image data transmits the input image data to the search metadata extraction unit 32.
  • the search metadata extraction unit 32 receives the image data transmitted by the image data input unit 51. Then, the search metadata extraction unit 32 extracts a predetermined type of search metadata from the received image data (S402). Thereafter, the search metadata extraction unit 32 transmits the extracted search metadata to the search condition comparison unit 33.
  • a keyword is input to the keyword input unit 52 simultaneously with the input of image data to the image data input unit 51 or before or after the input of the image data (S403). Then, the keyword input unit 52 to which the keyword has been input transmits the input keyword (search metadata by keyword) to the search condition comparison unit 33.
  • the search condition comparison unit 33 is transmitted with two search metadata, that is, search metadata extracted from the image data and search metadata by keywords. Therefore, the search condition comparison unit 33 compares the two types of search metadata, that is, the search metadata extracted from the received image data and the search metadata based on the keywords, with the same type (S404). Then, the search condition comparison unit 33 transmits the comparison result to the search condition display unit 34.
  • the search condition display unit 34 receives the result of comparison by the search condition comparison unit 33. Then, the search condition display unit 34 uses the search metadata to search the metadata for search extracted from the image data and the search metadata by keywords before performing a search for the metadata storage unit 24. Information is displayed on an output device such as a monitor (S405). Then, the search condition comparison unit 33 confirms whether or not to perform a search using the search metadata expressed as the displayed pre-search condition information (S406).
  • search condition comparison unit 33 displays the search metadata extracted from the image data and the search metadata based on keywords as pre-search condition information
  • the search condition comparison unit 33 has various information so that the user can easily confirm the comparison result. You can take an expression method.
  • the search condition comparison unit 33 is instructed.
  • the user replaces the image data and starts again from the input of the image data.
  • the operation here is not limited to the case of replacing image data.
  • the search metadata may be corrected using a keyboard or the like connected to the video search device 2.
  • the search condition comparison unit 33 performs the search indicated by the pre-search condition information displayed on the output device.
  • the metadata is transmitted to the search processing unit 27.
  • the search processing unit 27 that has received the search metadata searches for metadata stored in the metadata storage unit 24 using the search metadata (S407).
  • the search processing unit 27 stores the metadata searched from the metadata storage unit 24 using the search metadata in the search result storage unit 66. In addition, the search processing unit 27 transmits the searched metadata to the search result display unit 28. Then, the search result display unit 28 that has received the metadata transmitted by the search processing unit 27 acquires the video data related to the received metadata from the video data storage unit 25 and displays the acquired video data ( S408).
  • the video search device 2 can search the video data stored by itself using the input image data and keywords.
  • the video search device 2 in this embodiment includes the search condition display unit 34.
  • the video search apparatus 2 can display the search metadata as pre-search condition information before performing a search on the metadata storage unit 24 using the search metadata.
  • the video search device 2 in this embodiment includes an image data input unit 51 and a keyword input unit 52.
  • an image data input unit 51 an image data input unit 51 and a keyword input unit 52.
  • the search metadata extracted from the image data by the video search device 2 and the search metadata by the keyword input by the user can be displayed side by side, and the search metadata extracted from the image data and the user's Comparison with the intended search condition (search metadata by keyword) can be performed reliably.
  • the video search device 2 in the present embodiment includes a search condition comparison unit 33.
  • the video search device 2 compares the search metadata extracted from the image data with the search metadata by keywords, and displays the comparison result on the search condition display unit 34. It becomes possible. As a result, it becomes possible to clearly grasp the difference between the search metadata extracted from the image data and the search metadata based on the keyword, and the search can be performed more reliably with the search condition intended by the user. .
  • the video search apparatus capable of searching video data showing a desired person has been described.
  • the present invention can be practiced without being limited to a video search apparatus that searches for a person.
  • the present invention can be applied to a video search apparatus that searches video data using metadata extracted from image data.
  • a video search device 7 includes a metadata extraction unit 71, a metadata storage unit 72, an image data input unit 73, and a search metadata extraction unit 74. And a search metadata confirmation unit 75.
  • the metadata extraction unit 71 has a function of extracting a predetermined type of metadata from video data input from the outside.
  • the predetermined type of metadata is metadata for identifying video data and a person in the video data.
  • metadata extracted by the metadata extraction unit 71 for example, the facial features, age, gender, clothing color of the upper body and lower body of a person, and the like can be considered.
  • the metadata extraction unit 71 can be configured to extract, for example, the date and time of shooting of an image, the shooting location, the title and comment set by the user, the name of a person, and the like as metadata.
  • the metadata extraction unit 71 can extract various types of metadata for identifying video data and persons. Note that the metadata extraction unit 71 extracts metadata so that the metadata to be extracted includes information for identifying video data from which the metadata is extracted.
  • the metadata extraction unit 71 extracts a predetermined type of metadata from video data acquired from the outside. Then, the metadata extraction unit 71 transmits the extracted metadata to the metadata storage unit 72.
  • the metadata storage unit 72 includes a storage device such as a hard disk or a RAM (Random Access Memory).
  • the metadata storage unit 72 receives the metadata transmitted by the metadata extraction unit 71. Then, the metadata storage unit 72 stores the received metadata.
  • the metadata stored in the metadata storage unit 72 includes information for identifying video data from which the metadata is extracted. That is, the metadata storage unit 72 stores the metadata in association with the source video data.
  • the image data input unit 73 has a function of inputting image data.
  • the image data input unit 73 receives image data used when searching the video search device 7.
  • the search metadata extraction unit 74 has a function of extracting a predetermined type of search metadata from the image data input by the image data input unit 73.
  • the search metadata extraction unit 74 receives the image data transmitted from the image data input unit 73.
  • the search metadata extraction unit 74 then extracts a predetermined type of search metadata from the received image data.
  • the predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 71 described above. That is, the metadata extraction unit 71 and the search metadata extraction unit 74 are configured to be able to extract the same type of metadata. Then, the search metadata extraction unit 74 transmits the extracted search metadata to the search metadata confirmation unit 75.
  • the search metadata confirmation unit 75 searches the search metadata and searchable options before performing a search on the metadata storage unit 72 using the search metadata extracted by the search metadata extraction unit 74. It has a function to display as precondition information.
  • the search metadata confirmation unit 75 receives the search metadata transmitted by the search metadata extraction unit 74. Then, the search metadata confirmation unit 75 displays the received search metadata and search availability options on, for example, an output device such as a monitor connected to the video search device 7. Thereafter, in response to the display of the search metadata by the search metadata confirmation unit 75, it is determined whether or not to perform a search using the search metadata, and an actual search is performed.
  • a program according to another aspect of the present invention includes a metadata extraction unit that extracts a predetermined type of metadata from video data input from the outside, and a metadata extraction unit.
  • a metadata storage unit that stores the extracted metadata in association with the source video data, an image data input unit that inputs image data, and a predetermined type of search from image data input by the image data input unit
  • Search metadata extraction unit that extracts the metadata for search, and the search metadata is searched before using the search metadata extracted by the search metadata extraction unit before searching the metadata storage unit.
  • the video search method executed by the operation of the video search device 7 described above extracts metadata of a predetermined type from externally input video data, and extracts the metadata from the source video data. And storing image data, inputting image data, extracting search metadata of a predetermined type from the input image data, and extracting metadata extracted from video data using the search metadata. This is a method of displaying search metadata as pre-search condition information before performing a search.
  • the above-described object of the present invention can be achieved because it has the same operation as the video search device 7 described above.
  • the metadata confirmation apparatus 8 in the present embodiment includes an image data input unit 81, a search metadata extraction unit 82, and a search metadata confirmation unit 83.
  • the image data input unit 81 has a function of inputting image data.
  • the image data input unit 81 inputs image data used for searching.
  • the search metadata extraction unit 82 has a function of extracting a predetermined type of search metadata from the image data input by the image data input unit 81.
  • the search metadata extraction unit 82 receives the image data transmitted from the image data input unit 81. Then, the search metadata extraction unit 82 extracts search metadata of a predetermined type from the received image data. Then, the search metadata extraction unit 82 transmits the extracted search metadata to the search metadata confirmation unit 83.
  • the metadata check device 8 is configured to be able to search, for example, video data stored in an external device using search metadata extracted by the search metadata extraction unit 82. Therefore, the metadata extraction unit 82 extracts search metadata so that video data can be searched from an external device.
  • the search metadata confirmation unit 83 has a function of displaying search metadata and search availability options as pre-search condition information.
  • the search metadata confirmation unit 83 receives the search metadata transmitted by the search metadata extraction unit 82.
  • the search metadata check unit 83 displays the received search metadata and search availability options on, for example, an output device such as a monitor connected to the metadata check device 8. Thereafter, in response to the display of the search metadata by the search metadata confirmation unit 83, it is determined whether or not to perform a search using the search metadata, and an actual search is performed.
  • a search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
  • a metadata confirmation apparatus comprising:
  • the search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. Metadata confirmation device.
  • the search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit, and displays the comparison result.
  • the metadata confirmation apparatus according to attachment 2.
  • the search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information.
  • the metadata confirmation apparatus according to any one of appendices 2 to 4.
  • Appendix 6 The metadata check device according to any one of appendices 1 to 5, wherein the search metadata check unit corrects the search metadata displayed as the pre-search condition information in accordance with an input from a user.
  • Appendix 7 The metadata confirmation apparatus according to any one of appendices 1 to 5, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.
  • a metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
  • a metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
  • An image data input unit for inputting image data;
  • a search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
  • a search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
  • a search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
  • a video search device comprising:
  • the video search device includes the search metadata confirmation unit.
  • the video search apparatus can display the search metadata as pre-search condition information before performing a search on the metadata storage unit using the search metadata.
  • the search metadata can be confirmed as pre-search condition information before searching for metadata using the search metadata that requires time.
  • the suspicion (for the device) with respect to the search result can be solved.
  • the search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information.
  • the video search device includes a keyword input unit.
  • a keyword input unit it is possible to input a keyword when inputting image data.
  • the search metadata extracted from the image data by the video search device and the search metadata by the keyword input by the user can be displayed side by side, and the search metadata extracted from the image data and the user's intention can be displayed. It is possible to reliably compare with the search condition (search metadata by keyword) to be performed.
  • the search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit between the same types, and compares the comparison results.
  • the video search device according to appendix 9, which displays.
  • the search metadata confirmation unit compares the search metadata extracted from the image data and the search metadata by the keyword with the same type, and displays the comparison result.
  • the video search apparatus can display the search metadata as a result of the comparison after comparing the search metadata extracted from the image data with the search metadata based on the keyword. Become. As a result, it becomes possible to clearly grasp the difference between the search metadata extracted from the image data and the search metadata based on the keyword, and the search can be performed more reliably with the search condition intended by the user. .
  • the search metadata confirmation unit displays an image required when the search metadata extraction unit extracts the search metadata when the search metadata input to the keyword input unit is displayed.
  • the video search device according to appendix 9 or 10, wherein data is displayed as a reference image.
  • the search metadata confirmation unit is required when the search metadata extraction unit extracts the search metadata when displaying the search metadata input to the keyword input unit.
  • the reference image is displayed when the search metadata based on the keyword is displayed.
  • the search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information.
  • the video search device according to any one of appendices 9 to 11.
  • the search metadata confirmation unit corrects the search metadata displayed as the pre-search condition information according to the input from the user.
  • the search metadata can be directly corrected.
  • the search metadata can be corrected without re-inserting the image data, and the search can be performed with the search condition intended by the user in a shorter time.
  • Appendix 14 14. The video search device according to any one of appendices 8 to 13, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.
  • Video search device A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside; A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source; An image data input unit for inputting image data; A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit; A search metadata confirmation unit that displays the search metadata as pre-search condition information before performing a search on the metadata storage unit using the search metadata extracted by the search metadata extraction unit Program to function as.
  • the search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information.
  • the search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit between the same types, and compares the comparison results.
  • the programs described in the above embodiments and supplementary notes are stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.
  • Video search device 11 21 Video data receiving unit 12, 23, 71 Metadata extraction unit 13, 24, 72 Metadata storage unit 14, 25 Video data storage unit 15, 51, 73, 81 Image data input Units 16, 32, 74, 82 Search metadata extraction units 17, 75, 83 Search metadata confirmation units 18, 27 Search processing units 19, 28 Search result display unit 22 Video data processing unit 26 Search condition input unit 31 Search Condition input item part 33 Search condition comparison part 34 Search condition display part 41 Analysis engine common base 42 Action detection ENG 43 Face Identification ENG 44 Age Gender Identification ENG 45 Clothing color identification ENG 52 Keyword Input Unit 61 Collation Engine Common Base 62 Object Collation ENG 63 Face verification ENG 64 Age gender verification ENG 65 Clothing color matching ENG 66 Search Result Accumulation Unit 8 Metadata Confirmation Device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A video search device is provided with: a metadata extraction unit that extracts a predetermined type of metadata from video data that is input from the outside; a metadata storage unit that associates the metadata that is extracted by the metadata extraction unit with the video data of the extraction source and stores the result; an image data input unit that inputs image data; a search metadata extraction unit that extracts a predetermined type of search metadata from the image data that is input by the image data input unit; a search processing unit that searches for metadata that is associated with the search metadata on the basis of the search metadata and the metadata; and a search metadata verification unit that displays the search metadata and a choice relating to search advisability as search precondition information.

Description

映像検索装置Video search device

 本発明は、メタデータ確認装置、映像検索装置、映像検索方法、プログラム、に関する。 The present invention relates to a metadata confirmation device, a video search device, a video search method, and a program.

 近年、市街地や店舗などの各所に監視カメラが多く設置されるようになっている。監視カメラを設置する目的には、自身が撮影されていると思わせることによる犯罪の抑止力としての目的や犯罪が発生した際に現場検証するための記録としての目的などがある。 In recent years, many surveillance cameras have been installed in various places such as urban areas and stores. The purpose of installing the surveillance camera includes a purpose as a crime deterrent by making the person think that he / she has taken a picture, and a purpose as a record for on-site verification when a crime occurs.

 また、監視カメラを設置することで、例えば凶悪犯罪が発生した際に、これらの監視カメラに映った犯人の映像から検挙に繋がるケースも多く発生するようになっている。このように監視カメラを設置することで様々な効果が発揮されることになる。そのため、監視カメラは、問題解決の1つのツールとして今後も活用頻度が高くなると考えられる。 Also, by installing surveillance cameras, for example, when violent crimes occur, there are many cases in which the criminal images shown on these surveillance cameras lead to criminal clearance. Various effects are exhibited by installing the surveillance camera in this way. For this reason, surveillance cameras are expected to be used more frequently as a tool for solving problems.

 一方で、各所に設置した監視カメラからは膨大な映像データが送信されてくることになる。そのため、膨大な量の映像データから早く正確に目的の映像データを検索するための技術が必要となっていた。 On the other hand, a vast amount of video data will be transmitted from surveillance cameras installed in various places. For this reason, a technique for quickly and accurately searching for target video data from an enormous amount of video data is required.

 このように膨大な量の映像データから早く正確に目的の映像データを検索する技術として、例えば、特許文献1がある。特許文献1には、複数の画像を合成した合成画像からメタデータを生成し、当該生成したメタデータに基づいて、画像に含まれる対象物の照合を行う技術が記載されている。 For example, Patent Document 1 discloses a technique for quickly and accurately searching for target video data from a huge amount of video data. Patent Document 1 describes a technique for generating metadata from a combined image obtained by combining a plurality of images, and collating an object included in the image based on the generated metadata.

 また、画像データからメタデータを抽出する際の技術として、例えば特許文献2がある。特許文献2には、画像データからメタデータを生成するメタデータ生成手段と、メタデータを表示部に表示するメタデータ表示制御手段と、表示されたメタデータの修正を受け付けるメタデータ修正手段と、を備えるスキャナ装置が記載されている。特許文献2に記載のスキャナ装置は上記構成を備えることで、再度スキャンすることなく、スキャンされた画像データの加工結果をユーザがチェックすることが可能となる。 Also, as a technique for extracting metadata from image data, for example, there is Patent Document 2. In Patent Literature 2, metadata generation means for generating metadata from image data, metadata display control means for displaying metadata on a display unit, metadata correction means for accepting correction of displayed metadata, A scanner device is described. The scanner apparatus described in Patent Document 2 has the above-described configuration, so that the user can check the processing result of the scanned image data without scanning again.

特開2009-055444号公報JP 2009-0554444 A 特開2009-021861号公報JP 2009-021861 A

 ところで、膨大な量の映像データから早く正確に目的の映像データを検索する際には、検索条件をテキストではなくサンプル画像で入力できると利便性が高い。しかしながら、サンプル画像を用いて検索を行う場合、ユーザと映像データの検索を行う映像検索装置との間に認識の違いが生じることがある。具体的には、例えば、夕日に照らされている黄色の服を写したサンプル画像では、人(ユーザ)は黄色い服であると認識し、一方、検索を行う映像検索装置は赤い成分が多く含まれていると判断し赤い服と判断する場合がある。また、その逆の場合もある。このように、検索条件を画像データで入力する場合、ユーザの意図した検索条件と異なる検索条件が入力されてしまうことがあった。 By the way, when searching for target video data quickly and accurately from an enormous amount of video data, it is highly convenient if the search conditions can be input as sample images instead of text. However, when a search is performed using a sample image, there may be a difference in recognition between the user and the video search device that searches for video data. Specifically, for example, in a sample image showing yellow clothes illuminated by the sunset, a person (user) recognizes that they are yellow clothes, while the video search device that performs the search contains many red components. It may be judged that it is red clothes. The reverse is also true. As described above, when a search condition is input as image data, a search condition different from the search condition intended by the user may be input.

 このような場合、例えば特許文献1に記載の技術では、映像検索装置がユーザの想定外のものを検索してしまうことがあった。また、このような場合には、ユーザは検索結果を確認した後に初めて、検索条件が意図したものと異なっていると認識することが出来る。そのため、検索結果を確認した後に検索条件となる画像データの差し替えを行い再度の検索を行うことが必要となる。その結果、適切な検索条件で検索を行うまでに時間がかかってしまうという問題が生じていた。 In such a case, for example, in the technique described in Patent Document 1, the video search device may search for a user's unexpected one. In such a case, the user can recognize that the search condition is different from the intended one only after confirming the search result. Therefore, after confirming the search result, it is necessary to replace the image data serving as a search condition and perform another search. As a result, there has been a problem that it takes time to perform a search under an appropriate search condition.

 また、特許文献2に記載されている技術はスキャナに関する技術であり、これを単純に画像データの検索を行う装置に適用することは出来ない。特に、特許文献2には、所望の条件で検索を行うまでにかかる時間を短縮するという事に関しては何ら記載されていない。 Further, the technique described in Patent Document 2 is a technique related to a scanner, and cannot be applied to an apparatus that simply searches for image data. In particular, Patent Document 2 does not describe anything about shortening the time taken to perform a search under desired conditions.

 このように、人と装置との間には認識の違いがあるため、ユーザが意図している検索条件で検索を行うことが出来ないことがあるという問題が生じていた。また、ユーザが意図している検索条件で検索を行うまでに時間がかかってしまうことがあるという問題が生じていた。 As described above, since there is a difference in recognition between a person and an apparatus, there has been a problem that a search may not be performed under a search condition intended by the user. In addition, there has been a problem that it may take time until a search is performed under a search condition intended by the user.

 そこで、本発明の目的は、上述した課題である、ユーザが意図している検索条件で検索を行うことが出来ない場合があり、ユーザが意図する検索条件で検索を行うまでに時間がかかってしまう場合があるという問題を解決する映像検索装置を提供することにある。 Therefore, the object of the present invention is the above-described problem, where there are cases where the search cannot be performed with the search condition intended by the user, and it takes time until the search is performed with the search condition intended by the user. It is an object of the present invention to provide a video search apparatus that solves the problem that there is a case where the video search ends.

 かかる目的を達成するため本発明の一形態であるメタデータ確認装置は、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える。
In order to achieve such an object, a metadata checking apparatus according to one aspect of the present invention is provided.
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
Is provided.

 また、本発明の他の形態である映像検索装置は、
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータと前記メタデータに基づき、前記検索用メタデータに関連する前記メタデータを検索する検索処理部と、
 前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える。
In addition, a video search apparatus according to another embodiment of the present invention
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
Is provided.

 また、本発明の他の形態である映像検索方法は、
 外部から入力された映像データから予め定められた種類のメタデータを抽出し、当該メタデータを抽出元の前記映像データと関連付けて記憶し、
 画像データを入力し、当該入力された画像データから予め定められた種類の検索用メタデータを抽出し、前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する。
In addition, a video search method according to another aspect of the present invention includes:
Extract metadata of a predetermined type from video data input from the outside, store the metadata in association with the video data of the extraction source,
Image data is input, search metadata of a predetermined type is extracted from the input image data, and the search metadata and search availability options are displayed as pre-search condition information.

 また、本発明の他の形態であるプログラムは、
 映像検索装置を、
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータと前記メタデータに基づき、前記検索用メタデータに関連する前記メタデータを検索する検索処理部と、
 前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と
して機能させるためのプログラムである。
Moreover, the program which is the other form of this invention is:
Video search device
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
This is a program for functioning as a search metadata confirmation unit that displays the search metadata and search availability options as pre-search condition information.

 本発明は、以上のように構成されることにより、短時間でユーザが意図する検索条件で検索を行うことが可能な映像検索装置を提供することが出来る。 The present invention is configured as described above, and thus can provide a video search device that can perform a search with a search condition intended by the user in a short time.

本発明の第1の実施形態に係る映像検索装置の概略を説明する図である。It is a figure explaining the outline of the video search device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る映像検索装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a video search device according to a first embodiment of the present invention. 本発明の第1の実施形態に係る映像検索装置がメタデータと映像データとを記憶する際の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement at the time of the video search device which concerns on the 1st Embodiment of this invention memorize | stores metadata and video data. 本発明の第1の実施形態に係る映像検索装置が映像データを検索する際の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement at the time of the video search apparatus concerning the 1st Embodiment of this invention searching video data. 本発明に関連する映像検索装置が映像データを検索する際の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement at the time of the video search apparatus relevant to this invention searching video data. 本発明の第2の実施形態に係る映像検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video search apparatus which concerns on the 2nd Embodiment of this invention. 図6で示す映像検索装置が備えるメタデータ抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of the metadata extraction part with which the video search device shown in FIG. 6 is provided. 図6で示す映像検索装置が備える検索条件入力項目部の構成を示すブロック図である。It is a block diagram which shows the structure of the search condition input item part with which the video search device shown in FIG. 6 is provided. 図6で示す映像検索装置が備える照合用メタデータ生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the metadata production | generation part for collation with which the video search device shown in FIG. 6 is provided. 検索条件表示部の表示を説明するための図である。It is a figure for demonstrating the display of a search condition display part. 検索条件表示部の表示を説明するための図である。It is a figure for demonstrating the display of a search condition display part. 検索条件表示部の表示を説明するための図である。It is a figure for demonstrating the display of a search condition display part. 図6で示す映像検索装置が備える検索処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the search process part with which the video search device shown in FIG. 6 is provided. 図6で示すメタデータ抽出部が映像データからメタデータを抽出する際の動作を示すフローチャートである。7 is a flowchart illustrating an operation when the metadata extraction unit illustrated in FIG. 6 extracts metadata from video data. 本発明の第2の実施形態に係る映像検索装置が映像データを検索する際の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement at the time of the video search apparatus concerning the 2nd Embodiment of this invention searching video data. 本発明の第3の実施形態に係る映像検索装置の構成の概略を示す概略ブロック図である。It is a schematic block diagram which shows the outline of a structure of the video search device concerning the 3rd Embodiment of this invention. 本発明の第4の実施形態に係るメタデータ確認装置の構成の概略を示す概略ブロック図である。It is a schematic block diagram which shows the outline of a structure of the metadata confirmation apparatus which concerns on the 4th Embodiment of this invention.

 次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
 図1を参照すると、本発明の第1の実施形態に係る映像検索装置1は、監視カメラなどの外部装置が取得した映像データを記憶する装置である。後述するように、本実施形態における映像検索装置1は、当該映像検索装置1に画像データを入力することで自身が記憶する映像データを検索することが可能なよう構成されている。また、本実施形態における映像検索装置1は、後述するように、画像データから抽出した検索用メタデータを用いて映像データを検索する前に、当該検索用メタデータをモニタ等の出力装置に表示するように構成されている。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
[First embodiment]
Referring to FIG. 1, a video search device 1 according to a first embodiment of the present invention is a device that stores video data acquired by an external device such as a surveillance camera. As will be described later, the video search device 1 according to the present embodiment is configured to be able to search video data stored therein by inputting image data to the video search device 1. In addition, as described later, the video search device 1 in the present embodiment displays the search metadata on an output device such as a monitor before searching for video data using the search metadata extracted from the image data. Is configured to do.

 図2を参照すると、本発明の第1の実施形態に係る映像検索装置1は、映像データ受信部11と、メタデータ抽出部12と、メタデータ記憶部13と、映像データ蓄積部14と、画像データ入力部15と、検索用メタデータ抽出部16と、検索用メタデータ確認部17と、検索処理部18(検索処理部)と、検索結果表示部19と、を有する。なお、映像検索装置1は、演算装置と記憶装置とを備える情報処理装置である。映像検索装置1は、記憶装置が記憶するプログラムを演算装置が実行することで、上記各機能を実現することになる。 Referring to FIG. 2, the video search apparatus 1 according to the first embodiment of the present invention includes a video data receiving unit 11, a metadata extracting unit 12, a metadata storage unit 13, a video data storage unit 14, The image data input unit 15, the search metadata extraction unit 16, the search metadata confirmation unit 17, the search processing unit 18 (search processing unit), and a search result display unit 19 are included. Note that the video search device 1 is an information processing device including an arithmetic device and a storage device. The video search device 1 realizes each of the above functions when the arithmetic device executes a program stored in the storage device.

 映像データ受信部11は、監視カメラなどの外部装置から映像データを受信する機能を有する。具体的には、映像データ受信部11は、監視カメラなどの外部装置と例えば外部のネットワークを介して接続されており、当該外部のネットワークを介して外部装置から映像データを受信する。又は、映像データ受信部11は、当該映像データ受信部11と直接接続された監視カメラなどの外部装置から映像データを取得する。そして、映像データ受信部11は、当該受信した映像データを処理するために必要な処理を施した上で、映像データをメタデータ抽出部12と映像データ蓄積部14へと送信する。 The video data receiving unit 11 has a function of receiving video data from an external device such as a surveillance camera. Specifically, the video data receiving unit 11 is connected to an external device such as a monitoring camera via an external network, for example, and receives video data from the external device via the external network. Alternatively, the video data receiving unit 11 acquires video data from an external device such as a monitoring camera directly connected to the video data receiving unit 11. Then, the video data receiving unit 11 performs processing necessary to process the received video data, and then transmits the video data to the metadata extraction unit 12 and the video data storage unit 14.

 メタデータ抽出部12は、映像データから予め定められた種類のメタデータを抽出する機能を有する。メタデータ抽出部12は、映像データ受信部11が送信する映像データを受信する。続いて、メタデータ抽出部12は、受信した映像データから予め定められた種類のメタデータを抽出する。 The metadata extraction unit 12 has a function of extracting a predetermined type of metadata from the video data. The metadata extraction unit 12 receives the video data transmitted by the video data reception unit 11. Subsequently, the metadata extraction unit 12 extracts a predetermined type of metadata from the received video data.

 ここで、予め定められた種類のメタデータとは、映像データや映像データ中の人物を識別するためのメタデータのことである。メタデータ抽出部12が抽出するメタデータとしては、例えば、人物の顔の特徴や年齢、性別、上半身や下半身の服色などが考えられる。また、メタデータ抽出部12は、例えば、画像の撮影日時や撮影場所、ユーザが設定したタイトル及びコメント、人物の氏名などをメタデータとして抽出するよう構成することが出来る。メタデータ抽出部12は、上記説明した以外にも映像データや人物を識別するための様々な種類のメタデータを抽出することが出来る。 Here, the predetermined type of metadata is metadata for identifying video data or a person in the video data. As metadata extracted by the metadata extraction unit 12, for example, the facial features, age, gender, clothing color of the upper body and the lower body of a person can be considered. In addition, the metadata extraction unit 12 can be configured to extract, for example, the image shooting date and time, the shooting location, the title and comment set by the user, and the name of the person as metadata. In addition to the above description, the metadata extraction unit 12 can extract various types of metadata for identifying video data and persons.

 このように、メタデータ抽出部12は、映像データから予め定められた種類のメタデータを抽出する。そして、メタデータ抽出部12は、当該抽出したメタデータをメタデータ記憶部13へと送信する。 In this manner, the metadata extraction unit 12 extracts a predetermined type of metadata from the video data. Then, the metadata extraction unit 12 transmits the extracted metadata to the metadata storage unit 13.

 なお、メタデータ抽出部12は、当該メタデータ抽出部12が抽出する予め定められた種類のメタデータから抽出元の映像データを検索することが可能なように(メタデータと当該メタデータの抽出元の映像データとを関連付けることが可能なように)メタデータを抽出する。例えば、メタデータ抽出部12は、映像データから抽出するメタデータに当該メタデータの抽出元の映像データを識別するための情報を付与する(例えば、撮影日時や撮影場所)。また、メタデータ抽出部12は、その際に、画像データが示す人物が映る箇所から映像データを再生するために必要となる情報(例えば人物が映る時刻を示す情報など)を含めることが出来る。このような情報をメタデータに含ませることで、後述するように、検索したメタデータに応じた映像データを出力することが可能になる。 Note that the metadata extraction unit 12 can retrieve the source video data from a predetermined type of metadata extracted by the metadata extraction unit 12 (extraction of the metadata and the metadata). Extract metadata (so that it can be associated with the original video data). For example, the metadata extraction unit 12 adds information for identifying video data from which the metadata is extracted to metadata extracted from the video data (for example, a shooting date and a shooting location). Further, at that time, the metadata extraction unit 12 can include information (for example, information indicating the time when the person is shown) necessary for reproducing the video data from the portion where the person shown by the image data is shown. By including such information in the metadata, as described later, it becomes possible to output video data corresponding to the retrieved metadata.

 メタデータ記憶部13は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成される。メタデータ記憶部13は、メタデータ抽出部12が送信したメタデータを受信する。そして、メタデータ記憶部13は、受信したメタデータを記憶する。その後、メタデータ記憶部13は、検索処理部18からの指示に応じて、自身が記憶するメタデータを検索処理部18へと送信する。 The metadata storage unit 13 includes a storage device such as a hard disk or a RAM (Random Access Memory). The metadata storage unit 13 receives the metadata transmitted by the metadata extraction unit 12. The metadata storage unit 13 stores the received metadata. Thereafter, the metadata storage unit 13 transmits the metadata stored therein to the search processing unit 18 in response to an instruction from the search processing unit 18.

 なお、上述したように、メタデータ記憶部13が記憶するメタデータには、当該メタデータの抽出元の映像データを識別するための情報が含まれている。つまり、メタデータ記憶部13は、メタデータを抽出元の映像データと関連付けて記憶していることになる。 As described above, the metadata stored in the metadata storage unit 13 includes information for identifying the video data from which the metadata is extracted. That is, the metadata storage unit 13 stores the metadata in association with the source video data.

 映像データ蓄積部14は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成される。映像データ蓄積部14は、映像データ受信部11が送信する映像データを受信する。そして、映像データ蓄積部14は、受信した映像データを記憶する。その後、映像データ蓄積部14は、検索結果表示部19(若しくは検索処理部18)からの指示に応じて、自身が記憶する映像データを検索結果表示部(若しくは検索処理部18)へと送信する。 The video data storage unit 14 includes a storage device such as a hard disk or a RAM (Random Access Memory). The video data storage unit 14 receives the video data transmitted by the video data receiving unit 11. Then, the video data storage unit 14 stores the received video data. Thereafter, the video data storage unit 14 transmits the video data stored therein to the search result display unit (or the search processing unit 18) in response to an instruction from the search result display unit 19 (or the search processing unit 18). .

 上述したように、メタデータ記憶部13には、メタデータが映像データに関連付けられて記憶されている。そのため、後述する検索処理部18においてメタデータが検索されると、当該メタデータに含まれる映像データを識別するための情報を用いて映像データ蓄積部14からメタデータの抽出元の映像データを検索することが可能となる。 As described above, the metadata storage unit 13 stores metadata associated with video data. Therefore, when metadata is searched for in the search processing unit 18 described later, the video data from which the metadata is extracted is searched from the video data storage unit 14 using information for identifying the video data included in the metadata. It becomes possible to do.

 画像データ入力部15は、画像データを入力する機能を有する。画像データ入力部15は、例えば、外部のネットワークから画像データを取得したり、デジタルカメラなどの外部装置と接続したりすることが出来るよう構成されている。そして、画像データ入力部15には、上記外部のネットワークやデジタルカメラなどの外部装置を通して1つ又は複数の画像データが入力されることになる。このように、画像データ入力部15には、画像データを入力するための様々な方法を用いて画像データを入力することが出来る。そして、このような様々な方法を用いて画像データ入力部15に画像データを入力すると、画像データ入力部15は、当該入力された画像データを検索用メタデータ抽出部16へと送信する。 The image data input unit 15 has a function of inputting image data. The image data input unit 15 is configured to acquire image data from an external network or to be connected to an external device such as a digital camera, for example. Then, one or a plurality of image data is input to the image data input unit 15 through the external device such as the external network or the digital camera. In this way, the image data input unit 15 can input image data using various methods for inputting image data. When image data is input to the image data input unit 15 using such various methods, the image data input unit 15 transmits the input image data to the search metadata extraction unit 16.

 検索用メタデータ抽出部16は、画像データから予め定められた種類の検索用メタデータを抽出する機能を有する。検索用メタデータ抽出部16は、画像データ入力部15から送信される画像データを受信する。そして、検索用メタデータ抽出部16は、受信した画像データから予め定められた種類の検索用メタデータを抽出する。 The search metadata extraction unit 16 has a function of extracting a predetermined type of search metadata from the image data. The search metadata extraction unit 16 receives the image data transmitted from the image data input unit 15. Then, the search metadata extraction unit 16 extracts a predetermined type of search metadata from the received image data.

 ここで、予め定められた種類の検索用メタデータとは、上述したメタデータ抽出部12で抽出されるメタデータと同じ種類のメタデータのことをいう。つまり、メタデータ抽出部12と検索用メタデータ抽出部16とは、例えば同一のメタデータ抽出用エンジンを備えており、同一の種類のメタデータを抽出することが出来るように構成されている。検索用メタデータ抽出部16が抽出するメタデータは、メタデータ抽出部12が抽出するメタデータと同様のものとなるため、詳細についての説明は省略する。 Here, the predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 12 described above. In other words, the metadata extraction unit 12 and the search metadata extraction unit 16 include, for example, the same metadata extraction engine, and are configured to be able to extract the same type of metadata. The metadata extracted by the search metadata extraction unit 16 is the same as the metadata extracted by the metadata extraction unit 12, and therefore, detailed description thereof is omitted.

 このように、検索用メタデータ抽出部16は、メタデータ抽出部12が抽出したメタデータと同じ種類の検索用メタデータを抽出する。そして、検索用メタデータ抽出部16は、当該抽出した検索用メタデータを検索用メタデータ確認部17へと送信する。 In this manner, the search metadata extraction unit 16 extracts the same type of search metadata as the metadata extracted by the metadata extraction unit 12. Then, the search metadata extraction unit 16 transmits the extracted search metadata to the search metadata confirmation unit 17.

 検索用メタデータ確認部17は、検索用メタデータを使用してメタデータ記憶部13に対する検索を行う前に、検索用メタデータを検索前条件情報として表示する機能を有する。検索用メタデータ確認部17は、検索用メタデータ抽出部16が送信する検索用メタデータを受信する。そして、検索用メタデータ確認部17は、当該受信した検索用メタデータを例えば、映像検索装置1と接続されたモニタ等の出力装置に表示する。 The search metadata confirmation unit 17 has a function of displaying the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata. The search metadata confirmation unit 17 receives the search metadata transmitted by the search metadata extraction unit 16. Then, the search metadata confirmation unit 17 displays the received search metadata on an output device such as a monitor connected to the video search device 1, for example.

 また、検索用メタデータ確認部17は、表示された検索前条件情報に応じて、検索用メタデータを使用して後述する検索処理部18でメタデータ記憶部13を検索するか否か選択することが出来るように構成される。つまり、検索用メタデータ確認部17により表示された検索前条件情報がユーザの意図していたものと異なっていた場合、ユーザは当該異なる検索前条件情報が示す検索用メタデータを用いて検索を行うことを止めるよう検索用メタデータ確認部17へ指示することが出来る。一方、検索用メタデータ確認部17により表示された検索前条件情報がユーザの意図していたものである場合、ユーザは当該検索前条件情報が示す検索用メタデータを用いて検索の実行を行うよう検索用メタデータ確認部17に指示することが出来る。このような機能は、例えば、検索用メタデータをモニタ等の出力装置に表示する際に、検索を行うか否かを選択するボタンを表示する(検索可否の選択肢を表示する)よう検索用メタデータ確認部17を構成することで実現することが出来る。 Further, the search metadata confirmation unit 17 selects whether to search the metadata storage unit 13 by the search processing unit 18 to be described later using the search metadata according to the displayed pre-search condition information. Configured to be able to. That is, when the pre-search condition information displayed by the search metadata confirmation unit 17 is different from what the user intended, the user performs a search using the search metadata indicated by the different pre-search condition information. It is possible to instruct the search metadata confirmation unit 17 to stop performing. On the other hand, when the pre-search condition information displayed by the search metadata confirmation unit 17 is what the user intended, the user performs a search using the search metadata indicated by the pre-search condition information. The search metadata confirmation unit 17 can be instructed. Such a function, for example, when displaying the search metadata on an output device such as a monitor, displays a button for selecting whether or not to perform a search (displays a search possibility option). This can be realized by configuring the data confirmation unit 17.

 また、検索用メタデータ確認部17は、利用者からの入力に従って検索前条件情報として表示された検索用メタデータの修正を行うことが出来るように構成することが出来る。検索用メタデータの修正は、例えば、画像データ入力部15に画像データを入れ直すことで行うよう検索用メタデータ確認部17を構成することが考えられる。また、映像検索装置1と接続されたキーボードなどを用いて、出力装置に表示されている検索用メタデータを直接修正することが出来るように検索用メタデータ確認部17を構成しても構わない。検索用メタデータ確認部17は、上記説明した場合の他にも様々な修正のための構成を備えることが出来る。なお、検索用メタデータ確認部17において検索用メタデータの修正が行われた場合には、当該修正された検索用メタデータがモニタなどの出力装置に表示されていることになる。そのため、後述するように、検索処理部18による検索は、修正された検索用メタデータを使用して行われることになる。 Further, the search metadata confirmation unit 17 can be configured so that the search metadata displayed as the pre-search condition information can be corrected according to the input from the user. For example, it is conceivable that the search metadata check unit 17 is configured to correct the search metadata by reinserting the image data into the image data input unit 15. Further, the search metadata confirmation unit 17 may be configured so that the search metadata displayed on the output device can be directly corrected by using a keyboard or the like connected to the video search device 1. . In addition to the case described above, the search metadata confirmation unit 17 can have various modifications. Note that when the search metadata check unit 17 corrects the search metadata, the corrected search metadata is displayed on an output device such as a monitor. Therefore, as described later, the search by the search processing unit 18 is performed using the corrected search metadata.

 このように、検索用メタデータ確認部17は、モニタ等の出力装置に検索用メタデータを検索前条件情報として表示する。また、検索用メタデータ確認部17は、当該表示された検索用メタデータの修正などを受け付ける。その後、ユーザにより検索の実行が選択されると、検索用メタデータ確認部17は、当該検索の実行が指示された検索用メタデータ(出力装置などに表示されている検索用メタデータ)を検索処理部18へと送信する。一方、ユーザにより検索の中止が選択された場合、検索用メタデータ確認部17は、当該検索の中止が選択された検索用メタデータを例えば廃棄する。そして、新たな画像データの入力(検索用メタデータの受信)を待つことになる。 Thus, the search metadata confirmation unit 17 displays the search metadata as pre-search condition information on an output device such as a monitor. Further, the search metadata confirmation unit 17 accepts correction of the displayed search metadata. Thereafter, when execution of the search is selected by the user, the search metadata confirmation unit 17 searches the search metadata (search metadata displayed on the output device or the like) instructed to execute the search. The data is transmitted to the processing unit 18. On the other hand, when search cancellation is selected by the user, the search metadata confirmation unit 17 discards, for example, the search metadata for which search cancellation has been selected. Then, it waits for input of new image data (reception of search metadata).

 検索処理部18は、検索前条件情報として表示された検索用メタデータを使用してメタデータ記憶部13を検索する機能を有する。検索処理部18は、検索用メタデータ確認部17が送信する検索用メタデータを受信する。続いて、検索処理部18は、受信した検索用メタデータを使用して、当該検索用メタデータに応じたメタデータをメタデータ記憶部13から検索する。 The search processing unit 18 has a function of searching the metadata storage unit 13 using the search metadata displayed as the pre-search condition information. The search processing unit 18 receives the search metadata transmitted by the search metadata confirmation unit 17. Subsequently, the search processing unit 18 searches the metadata storage unit 13 for metadata corresponding to the search metadata using the received search metadata.

 ここで、検索処理部18は、例えば、検索用メタデータと一致するメタデータをメタデータ記憶部13から検索するように構成することが考えられる。または、検索処理部18は、例えば、検索用メタデータと同一又は類似するメタデータをメタデータ記憶部13から検索するように構成しても構わない。 Here, for example, the search processing unit 18 may be configured to search the metadata storage unit 13 for metadata that matches the search metadata. Alternatively, for example, the search processing unit 18 may be configured to search the metadata storage unit 13 for metadata that is the same as or similar to the search metadata.

 なお、検索用メタデータとメタデータ記憶部13が記憶するメタデータとの類似は、一般的な様々な方法を用いて判断するように検索処理部18を構成することが出来る。具体的には例えば、検索用メタデータとメタデータとの離れ具合を距離として数値で判断し、当該離れ具合が閾値以下の場合に検索用メタデータとメタデータとが類似すると判断するように検索処理部18を構成することが考えられる。上記のような方法を採る場合以外にも、類似性を判断するための様々な一般的な基準を用いて類似であるか否かの判断を行うように、検索処理部18を構成することが出来る。 It should be noted that the search processing unit 18 can be configured to determine the similarity between the search metadata and the metadata stored in the metadata storage unit 13 using various general methods. Specifically, for example, a search is performed so that the distance between the search metadata and the metadata is determined by a numerical value as a distance, and the search metadata and the metadata are determined to be similar when the distance is equal to or less than a threshold value. It is conceivable to configure the processing unit 18. In addition to adopting the method as described above, the search processing unit 18 may be configured to determine whether or not they are similar using various general criteria for determining similarity. I can do it.

 このように、検索処理部18は、検索用メタデータに応じたメタデータをメタデータ記憶部13から検索する。そして、検索処理部18は、当該検索したメタデータを検索結果表示部19へと送信する。 In this way, the search processing unit 18 searches the metadata storage unit 13 for metadata corresponding to the search metadata. Then, the search processing unit 18 transmits the searched metadata to the search result display unit 19.

 検索結果表示部19は、モニタなどの外部装置と接続されている。検索結果表示部19は、検索処理部18が検索したメタデータに関連する映像データを映像データ蓄積部14から取得し、当該取得した映像データを上記モニタなどの外部装置に表示する機能を有する。検索結果表示部19は、検索処理部18が送信するメタデータを受信する。続いて、検索結果表示部19は、受信したメタデータに含まれる情報を用いて、当該受信したメタデータに関連する映像データを映像データ蓄積部14から取得する。その後、検索結果表示部19は、取得した映像データを、モニタ等の出力装置に表示する。 The search result display unit 19 is connected to an external device such as a monitor. The search result display unit 19 has a function of acquiring video data related to the metadata searched by the search processing unit 18 from the video data storage unit 14 and displaying the acquired video data on an external device such as the monitor. The search result display unit 19 receives the metadata transmitted by the search processing unit 18. Subsequently, the search result display unit 19 acquires video data related to the received metadata from the video data storage unit 14 using information included in the received metadata. Thereafter, the search result display unit 19 displays the acquired video data on an output device such as a monitor.

 なお、検索結果表示部19が映像データを表示するモニタ等の出力装置は、検索用メタデータ確認部17が検索前条件情報を表示するモニタなどの出力装置と同一のものであっても構わないし、異なるものであっても構わない。 Note that the output device such as a monitor on which the search result display unit 19 displays video data may be the same as the output device such as a monitor on which the search metadata confirmation unit 17 displays pre-search condition information. It does not matter if they are different.

 また、本実施形態においては、検索結果表示部19が映像データ蓄積部14からメタデータに関連する映像データを取得するとした。しかしながら、メタデータに関連する映像データの取得は、検索処理部18が行うように構成しても構わない。この場合には、検索結果表示部19は、映像データのみを受信するように構成することも出来るし、映像データとメタデータとを受信するように構成することも出来る。 In the present embodiment, the search result display unit 19 acquires video data related to metadata from the video data storage unit 14. However, the search processing unit 18 may be configured to acquire video data related to metadata. In this case, the search result display unit 19 can be configured to receive only video data, or can be configured to receive video data and metadata.

 また、本実施形態においては、監視カメラなどの外部装置から受信した映像データの記憶と、当該記憶する映像データの検索とが一つの映像検索装置1で実施される場合について説明した。しかしながら、本発明は、そのような構成を備える場合に限定されない。例えば、本発明は、監視カメラなどの外部装置から映像データを受信してメタデータを抽出し記憶する装置と、画像データを入力して検索実行前に検索用メタデータの確認を行う装置と、の2つの情報処理装置を備えることでも実施可能である。このように、本発明は、複数の情報処理装置から構成されていても構わない。 Further, in the present embodiment, the case has been described where the storage of video data received from an external device such as a surveillance camera and the search of the stored video data are performed by one video search device 1. However, the present invention is not limited to a case having such a configuration. For example, the present invention includes a device that receives video data from an external device such as a monitoring camera, extracts and stores metadata, a device that inputs image data and checks search metadata before performing a search, It can also be implemented by providing the two information processing apparatuses. Thus, the present invention may be configured from a plurality of information processing apparatuses.

 以上が、映像検索装置1の構成である。上記構成を映像検索装置1が備えることで、映像検索装置1は、検索用メタデータを使用してメタデータ記憶部13に対する検索を行う前に、検索用メタデータを検索前条件情報として表示することが出来る。その結果、表示された検索前条件情報をユーザが確認することで、実際に検索を行う前に検索の条件がユーザの意図したものであるか否か確認することが出来るようになる。 The above is the configuration of the video search device 1. By providing the video search apparatus 1 with the above configuration, the video search apparatus 1 displays the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata. I can do it. As a result, the user confirms the displayed pre-search condition information, so that it is possible to confirm whether or not the search condition is intended by the user before the actual search is performed.

 なお、本実施形態においては、映像検索装置1は、メタデータ記憶部13と映像データ蓄積部14とを別々に備えるとした。しかしながら、映像検索装置1は、メタデータと映像データとを記憶する一つの記憶装置を備えるように構成しても構わない。 In the present embodiment, the video search device 1 includes the metadata storage unit 13 and the video data storage unit 14 separately. However, the video search device 1 may be configured to include one storage device that stores metadata and video data.

 次に、本実施形態に係る映像検索装置1の動作を説明する。 Next, the operation of the video search device 1 according to this embodiment will be described.

 まず、監視カメラなどの外部装置から入力された映像データから予め定められた種類のメタデータを取得して、当該取得したメタデータを記憶する際の動作について説明する。 First, an operation for acquiring a predetermined type of metadata from video data input from an external device such as a monitoring camera and storing the acquired metadata will be described.

 図3を参照すると、映像検索装置1の映像データ受信部11に映像データを入力する(S101)。すると、映像データを入力された映像データ受信部11は、当該映像データを処理するために必要な処理を施した上で、映像データを映像データ蓄積部14とメタデータ抽出部12へと送信する。映像データ蓄積部14に送信された映像データは映像データ蓄積部14で記憶されることになる。 Referring to FIG. 3, the video data is input to the video data receiving unit 11 of the video search device 1 (S101). Then, the video data receiving unit 11 to which the video data is input performs processing necessary for processing the video data, and then transmits the video data to the video data storage unit 14 and the metadata extraction unit 12. . The video data transmitted to the video data storage unit 14 is stored in the video data storage unit 14.

 映像データ受信部11が送信した映像データは、メタデータ抽出部12が受信する。そして、メタデータ抽出部12は、受信した映像データから予め定められた種類のメタデータを抽出する(S102)。その後メタデータ抽出部12は、抽出したメタデータをメタデータ記憶部13へと送信する。 The video data transmitted by the video data receiving unit 11 is received by the metadata extracting unit 12. Then, the metadata extraction unit 12 extracts a predetermined type of metadata from the received video data (S102). Thereafter, the metadata extraction unit 12 transmits the extracted metadata to the metadata storage unit 13.

 なお、予め定められた種類のメタデータとは、映像データや映像データ中の人物を識別するためのメタデータのことである。メタデータ抽出部が抽出するメタデータの詳細については既に説明したため省略する。 Note that the predetermined type of metadata is metadata for identifying video data and a person in the video data. Details of the metadata extracted by the metadata extraction unit have already been described, and will not be described.

 また、メタデータ抽出部12は、当該メタデータ抽出部12が抽出する予め定められた種類のメタデータから抽出元の映像データを検索することが可能なように(メタデータと当該メタデータの抽出元の映像データとを関連付けることが可能なように)メタデータを抽出する。例えば、メタデータ抽出部12は、映像データから抽出するメタデータに当該メタデータの抽出元の映像データを識別するための情報を付与する(例えば、撮影日時や撮影場所)。また、メタデータ抽出部12は、画像データが示す人物が映る箇所から映像データを再生するために必要となる情報(例えば人物が映る時刻を示す情報など)を付与する。メタデータ抽出部12はこのようにして生成したメタデータをメタデータ記憶部13へと送信することになる。 In addition, the metadata extraction unit 12 can retrieve the source video data from a predetermined type of metadata extracted by the metadata extraction unit 12 (extraction of metadata and the metadata). Extract metadata (so that it can be associated with the original video data). For example, the metadata extraction unit 12 adds information for identifying video data from which the metadata is extracted to metadata extracted from the video data (for example, a shooting date and a shooting location). Further, the metadata extraction unit 12 gives information (for example, information indicating the time when the person is shown) necessary for reproducing the video data from the portion where the person shown by the image data is shown. The metadata extraction unit 12 transmits the metadata generated in this way to the metadata storage unit 13.

 その後、メタデータ抽出部12が送信したメタデータをメタデータ記憶部13が受信する。すると、メタデータ記憶部13は、当該受信したメタデータを記憶する。ここで、上記のように、メタデータ記憶部13が記憶するメタデータには、当該メタデータの抽出元の映像データを識別するための情報が含まれている。つまり、メタデータ記憶部13は、メタデータを抽出元の映像データと関連付けて記憶することになる(S103)。 Thereafter, the metadata storage unit 13 receives the metadata transmitted by the metadata extraction unit 12. Then, the metadata storage unit 13 stores the received metadata. Here, as described above, the metadata stored in the metadata storage unit 13 includes information for identifying video data from which the metadata is extracted. That is, the metadata storage unit 13 stores the metadata in association with the source video data (S103).

 このような動作により、映像検索装置1は、監視カメラなどの外部装置から入力された映像データから予め定められた種類のメタデータを取得して、当該取得したメタデータを記憶することが出来る。また、映像検索装置1が記憶するメタデータには当該メタデータの抽出元の映像データが関連付けられていることになる。次に、映像検索装置1が記憶する映像データを検索する際の動作について説明する。 By such an operation, the video search device 1 can acquire a predetermined type of metadata from video data input from an external device such as a surveillance camera, and store the acquired metadata. Further, the metadata stored in the video search device 1 is associated with the video data from which the metadata is extracted. Next, an operation when searching for video data stored in the video search device 1 will be described.

 図4を参照すると、映像検索装置1の画像データ入力部15に画像データを入力する(S201)。すると、画像データを入力された画像データ入力部15は、当該入力された画像データを検索用メタデータ抽出部16へと送信する。 Referring to FIG. 4, image data is input to the image data input unit 15 of the video search device 1 (S201). Then, the image data input unit 15 to which the image data is input transmits the input image data to the search metadata extraction unit 16.

 次に、画像データ入力部15が送信した画像データを検索用メタデータ抽出部16が受信する。そして、検索用メタデータ抽出部16は、当該受信した画像データから予め定められた種類の検索用メタデータを抽出する(S202)。その後、検索用メタデータ抽出部16は、抽出した検索用メタデータを検索用メタデータ確認部17へと送信する。 Next, the search metadata extraction unit 16 receives the image data transmitted by the image data input unit 15. Then, the search metadata extraction unit 16 extracts a predetermined type of search metadata from the received image data (S202). Thereafter, the search metadata extraction unit 16 transmits the extracted search metadata to the search metadata confirmation unit 17.

 なお、予め定められた種類の検索用メタデータとは、上述したメタデータ抽出部12で抽出される(メタデータ記憶部13に記憶される)メタデータと同じ種類のメタデータのことをいう。つまり、メタデータ抽出部12と検索用メタデータ抽出部16とは、例えば同一のメタデータ抽出用エンジンを備えており、同一の種類のメタデータを抽出することになる。 The predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 12 (stored in the metadata storage unit 13). That is, the metadata extraction unit 12 and the search metadata extraction unit 16 include, for example, the same metadata extraction engine, and extract the same type of metadata.

 続いて、検索用メタデータ抽出部16が送信した検索用メタデータを検索用メタデータ確認部17が受信する。そして、検索用メタデータ確認部17は、検索用メタデータを使用してメタデータ記憶部13に対する検索を行う前に、検索用メタデータを検索前条件情報として例えばモニタなどの出力装置に表示する(S203)。その結果、出力装置に表示される検索前条件情報を見たユーザが当該検索前条件情報として表示された検索用メタデータを使用して検索を行うか否かの判断を行うことが可能になる(S204)。 Subsequently, the search metadata confirmation unit 17 receives the search metadata transmitted by the search metadata extraction unit 16. Then, the search metadata confirmation unit 17 displays the search metadata as pre-search condition information on an output device such as a monitor before performing a search on the metadata storage unit 13 using the search metadata. (S203). As a result, it becomes possible for the user who has seen the pre-search condition information displayed on the output device to determine whether to perform a search using the search metadata displayed as the pre-search condition information. (S204).

 ユーザが出力装置に表示される検索前条件情報を使用して検索を行わないと判断した場合(S204、NO)、ユーザは出力装置に表示される検索前条件情報を用いて検索を行わないように検索用メタデータ確認部17へ指示する。この場合、ユーザは、例えば画像データの差し替えを行い、画像データの入力からやり直すことになる。なお、ここの動作は、画像データの差し替えを行う場合に限定されない。例えば、映像検索装置1と接続されたキーボードなどを用いて検索用メタデータを修正するようにしても構わない。 When it is determined that the user does not perform the search using the pre-search condition information displayed on the output device (S204, NO), the user does not perform the search using the pre-search condition information displayed on the output device. To the search metadata confirmation unit 17. In this case, for example, the user replaces the image data and starts again from the input of the image data. The operation here is not limited to the case of replacing image data. For example, the search metadata may be corrected using a keyboard connected to the video search device 1.

 一方、ユーザが出力装置に表示される検索前情報を使用して検索を行うと判断した場合(S204、YES)、検索用メタデータ確認部17は、出力装置に表示された検索前条件情報が示す検索用メタデータを検索処理部18へと送信する。そして、検索用メタデータ確認部17が送信した検索用メタデータを受信した検索処理部18が、当該検索用メタデータを使用してメタデータ記憶部13が記憶するメタデータの検索を行うことになる(S205)。 On the other hand, when it is determined that the user performs a search using the pre-search information displayed on the output device (S204, YES), the search metadata confirmation unit 17 displays the pre-search condition information displayed on the output device. The search metadata shown is transmitted to the search processing unit 18. Then, the search processing unit 18 that has received the search metadata transmitted by the search metadata confirmation unit 17 searches the metadata stored in the metadata storage unit 13 using the search metadata. (S205).

 その後、検索処理部18は、検索用メタデータを使用してメタデータ記憶部13から検索されたメタデータを検索結果表示部19へと送信する。そして、検索処理部18が送信するメタデータを受信した検索結果表示部19が、当該受信したメタデータに関連する映像データを映像データ蓄積部14から取得して、取得した映像データを表示する(S206)。 Thereafter, the search processing unit 18 transmits the metadata searched from the metadata storage unit 13 to the search result display unit 19 using the search metadata. Then, the search result display unit 19 that has received the metadata transmitted by the search processing unit 18 acquires video data related to the received metadata from the video data storage unit 14 and displays the acquired video data ( S206).

 このような動作により、映像検索装置1は自身が記憶する映像データを入力された画像データを使用して検索することが出来る。 By such an operation, the video search device 1 can search the video data stored in itself using the input image data.

 このように、本実施形態における映像検索装置1は、検索用メタデータ確認部17を備えている。このような構成を備えることで、映像検索装置1は、検索用メタデータを使用してメタデータ記憶部13に対する検索を行う前に検索用メタデータを検索前条件情報として表示することが出来る。その結果、時間が必要となる検索用メタデータを使用したメタデータの検索の前に、検索用メタデータを検索前条件情報として確認することが出来るようになり、短時間でユーザが意図する検索条件で検索を行うことが可能となる。また、検索用メタデータを確認した上での検索が行われることになるため、検索結果に対する(装置に対する)疑義を解消することが出来る。 As described above, the video search apparatus 1 according to this embodiment includes the search metadata check unit 17. With such a configuration, the video search apparatus 1 can display the search metadata as pre-search condition information before performing a search on the metadata storage unit 13 using the search metadata. As a result, it is possible to check the search metadata as pre-search condition information before searching for metadata using search metadata that requires time, and the search intended by the user in a short time. It becomes possible to search by condition. In addition, since the search is performed after the search metadata is confirmed, the suspicion (for the device) with respect to the search result can be solved.

 一方、図5を参照すると、検索用メタデータ確認部17を備えていない場合には、長時間かかる検索用メタデータを使用したメタデータの検索の結果の後、検索されたメタデータに関連する映像データが表示された段階で初めて、検索結果が意図したものであったのか否か判断することが出来ることが分かる。つまり、検索用メタデータ確認部17を備えていない場合には、長時間必要となる検索を行わないとユーザが意図する検索条件で検索を行うことが出来ているのか否か判断することが出来ない。その結果、ユーザが意図する検索条件で検索を行うまでに長時間必要となってしまうことになる。 On the other hand, referring to FIG. 5, when the search metadata confirmation unit 17 is not provided, the result of the metadata search using the search metadata that takes a long time is associated with the searched metadata. Only when the video data is displayed, it can be determined whether or not the search result is intended. In other words, if the search metadata confirmation unit 17 is not provided, it is possible to determine whether or not the search can be performed with the search condition intended by the user if the search that is necessary for a long time is not performed. Absent. As a result, it takes a long time to perform a search under a search condition intended by the user.

[第2の実施形態]
 次に本発明の第2の実施形態について図面を参照して詳細に説明する。第2の実施形態では、画像データとキーワードとを用いて自身が記憶する映像データを検索する映像検索装置について説明する。なお、本実施形態においては、所望の人物が映る映像データを検索可能な映像検索装置について説明する。また、本実施形態における映像検索装置は、第1の実施形態で説明した映像検索装置と一部同様の構成を備えている。そのため、本実施形態においては、第1の実施形態と異なる部分について重点的に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In the second embodiment, a video search device that searches video data stored by itself using image data and keywords will be described. In the present embodiment, a video search device capable of searching video data showing a desired person will be described. In addition, the video search apparatus according to the present embodiment has a part of the same configuration as the video search apparatus described in the first embodiment. Therefore, in the present embodiment, portions different from the first embodiment will be mainly described.

 図6を参照すると、本発明の第2の実施形態に係る映像検索装置2は、映像データ受信部21と、映像データ処理部22と、メタデータ抽出部23と、メタデータ記憶部24と、映像データ蓄積部25と、検索条件入力部26と、検索処理部27と、検索結果表示部28と、を有する。また、検索条件入力部26は、検索条件入力項目部31(画像データ入力部が一部を構成する)と、検索用メタデータ抽出部32と、検索条件比較部33(検索用メタデータ確認部の一部)と、検索条件表示部34(検索用メタデータ確認部の一部)と、を有する。 Referring to FIG. 6, the video search device 2 according to the second embodiment of the present invention includes a video data receiving unit 21, a video data processing unit 22, a metadata extraction unit 23, a metadata storage unit 24, The video data storage unit 25, the search condition input unit 26, the search processing unit 27, and the search result display unit 28 are included. The search condition input unit 26 includes a search condition input item unit 31 (part of which is an image data input unit), a search metadata extraction unit 32, and a search condition comparison unit 33 (search metadata check unit). And a search condition display unit 34 (a part of the search metadata confirmation unit).

 本実施形態における映像検索装置2は、演算装置と記憶装置とを備える情報処理装置である。映像検索装置2は、記憶装置が記憶するプログラムを演算装置が実行することで、上記各機能を実現することになる。 The video search device 2 in the present embodiment is an information processing device including an arithmetic device and a storage device. The video search device 2 realizes the above functions by causing the arithmetic device to execute a program stored in the storage device.

 映像データ受信部21は、IPカメラなどの外部装置から映像データを受信する機能を有する。映像データ受信部21は、1つの外部装置若しくは複数の外部装置から例えば外部のネットワークを介して映像データを受信する。そして、映像データ受信部21は、当該受信した映像データを映像データ処理部22へと送信する。 The video data receiving unit 21 has a function of receiving video data from an external device such as an IP camera. The video data receiving unit 21 receives video data from one external device or a plurality of external devices, for example, via an external network. Then, the video data receiving unit 21 transmits the received video data to the video data processing unit 22.

 映像データ処理部22は、映像データ受信部21から受信した映像データに当該映像データからメタデータを抽出する際に必要となる処理を行う機能を有する。映像データ処理部22は、例えば、受信した映像データにAD変換(Analog/Digital)を行う。また、映像データ処理部22は、その他にも、映像データを処理するために必要となる様々な処理を行うことが出来る。そして、映像データ処理部22は、必要な処理を施した映像データをメタデータ抽出部23と映像データ蓄積部25へと送信する。 The video data processing unit 22 has a function of performing processing necessary for extracting metadata from video data received from the video data receiving unit 21 from the video data. For example, the video data processing unit 22 performs AD conversion (Analog / Digital) on the received video data. In addition, the video data processing unit 22 can perform various other processes necessary for processing video data. Then, the video data processing unit 22 transmits the video data subjected to necessary processing to the metadata extraction unit 23 and the video data storage unit 25.

 メタデータ抽出部23は、映像データから予め定められた種類のメタデータを抽出する機能を有する。メタデータ抽出部23は、映像データ処理部22が送信するメタデータを受信する。続いて、メタデータ抽出部23は、受信した映像データから予め定められた種類のメタデータを抽出する。その後、メタデータ抽出部23は、抽出したメタデータをメタデータ記憶部24へと送信する。 The metadata extraction unit 23 has a function of extracting a predetermined type of metadata from the video data. The metadata extraction unit 23 receives metadata transmitted by the video data processing unit 22. Subsequently, the metadata extraction unit 23 extracts a predetermined type of metadata from the received video data. Thereafter, the metadata extraction unit 23 transmits the extracted metadata to the metadata storage unit 24.

 ここで、映像データからメタデータを抽出するための具体的な構成の一例について説明する。図7を参照すると、メタデータ抽出部23は、解析エンジン共通基盤41と、行動検知ENG(ENGINE)42と、顔識別ENG43と、年齢性別識別ENG44と、服色識別ENG45と、からなる機能を提供する。 Here, an example of a specific configuration for extracting metadata from video data will be described. Referring to FIG. 7, the metadata extraction unit 23 has a function including an analysis engine common base 41, an action detection ENG (ENGINE) 42, a face identification ENG 43, an age and gender identification ENG 44, and a clothing color identification ENG 45. provide.

 解析エンジン共通基盤41は、後述する行動検知ENG42と、顔識別ENG43と、年齢性別識別ENG44と、服色識別ENG45と、に共通する基盤となる機能を有する。解析エンジン共通基盤41は、映像データ処理部22から映像データを受信する。また、解析エンジン共通基盤41は、上記各エンジンにより抽出されたメタデータをメタデータ記憶部24へと送信する。 The analysis engine common base 41 has a function as a base common to an action detection ENG 42, a face identification ENG 43, an age and gender identification ENG 44, and a clothing color identification ENG 45, which will be described later. The analysis engine common base 41 receives video data from the video data processing unit 22. The analysis engine common base 41 transmits the metadata extracted by each engine to the metadata storage unit 24.

 行動検知ENG42は、映像データから移動する人物を検出する機能を有する。具体的には、行動検知ENG42は、映像データから画像データを一枚ずつ抽出し、連続する画像データの差分を取る。続いて、行動検知ENG42は、画像データの差分から、移動する物体である人物を抽出する。そして、行動検知ENG42は、例えばパターン認識や領域分割などの技術により、抽出した人物の顔画像や服画像を検出する。その後、行動検知ENG42は、検出した顔画像を顔識別ENG43と年齢性別識別ENG44へと渡す。また、行動検知ENG42は、検出した服画像を服色識別ENG45へと渡す。 The behavior detection ENG 42 has a function of detecting a moving person from the video data. Specifically, the behavior detection ENG 42 extracts image data one by one from the video data and takes a difference between successive image data. Subsequently, the behavior detection ENG 42 extracts a person who is a moving object from the difference between the image data. Then, the behavior detection ENG 42 detects the extracted face image and clothes image of the person using techniques such as pattern recognition and area division. Thereafter, the behavior detection ENG 42 passes the detected face image to the face identification ENG 43 and the age / sex identification ENG 44. In addition, the behavior detection ENG 42 passes the detected clothing image to the clothing color identification ENG 45.

 顔識別ENG43は、行動検知ENG42から渡された顔画像を用いて、当該顔画像が映す人物の顔の特徴をメタデータとして抽出する機能を有する。顔識別ENG43による顔の特徴の抽出は、顔画像から目立つ特徴を抽出するよう構成しても構わないし、顔画像そのものを1つのパターンとして全体の顔の特徴を抽出するように構成しても構わない。また、顔識別ENG43は、抽出した顔の特徴から個人を特定し、例えば、図示しない人物情報記憶部に記憶されている当該特定した人物の氏名等をメタデータとして抽出するように構成することが出来る。 The face identification ENG 43 has a function of using the face image passed from the behavior detection ENG 42 to extract the feature of the person's face reflected in the face image as metadata. The facial feature extraction by the face identification ENG 43 may be configured to extract a prominent feature from the facial image, or may be configured to extract the entire facial feature using the facial image itself as one pattern. Absent. Further, the face identification ENG 43 may be configured to identify an individual from the extracted facial features and extract, for example, the name of the identified person stored in a person information storage unit (not shown) as metadata. I can do it.

 年齢性別識別ENG44は、行動検知ENG42から渡された顔画像を用いて、当該顔画像が映す人物の推定年齢や性別データを抽出する機能を有する。年齢や性別データは、例えば、眉などの顔の形状の特徴やしわを示す顔の濃淡の特徴などから抽出することが考えられる。 Age gender identification ENG44 has a function of using the face image passed from action detection ENG42 to extract the estimated age and gender data of the person reflected in the face image. It is conceivable that the age and sex data are extracted from, for example, facial shape features such as eyebrows and facial features that show wrinkles.

 服色識別ENG45は、行動検知ENG42から渡された服画像を用いて、当該服画像が映す上半身の服色データと下半身の服色データとを抽出する機能を有する。服色識別ENG45は、例えば、上半身の服色データと下半身の服色データとを、当該上半身の服色と下半身の服色とを示す具体的な数値として取得する。 The clothing color identification ENG45 has a function of extracting the clothing color data of the upper body and the clothing color data of the lower body, which are reflected by the clothing image, using the clothing image passed from the behavior detection ENG42. For example, the clothing color identification ENG 45 acquires the clothing color data of the upper body and the clothing color data of the lower body as specific numerical values indicating the clothing color of the upper body and the clothing color of the lower body.

 このように、行動検知ENG42により映像データから移動する人物の検出が行われる。そして、顔識別ENG43と、年齢性別識別ENG44と、服色識別ENG45とにより、行動検知ENG42が検出した人物のメタデータの抽出が行われる。このような構成により、メタデータ抽出部23は、映像データから映像データや映像データ中の人物を識別するためのメタデータである予め定められた種類のメタデータを抽出することが出来る。なお、メタデータ抽出部23が抽出するメタデータには、当該メタデータの抽出元の動画を識別するための情報が含まれているものとする。また、予め定められたメタデータの種類の詳細については、既に説明したため省略する。 In this way, the movement detection ENG 42 detects a moving person from the video data. Then, the metadata of the person detected by the behavior detection ENG42 is extracted by the face identification ENG43, the age / sex identification ENG44, and the clothing color identification ENG45. With this configuration, the metadata extraction unit 23 can extract predetermined types of metadata, which is metadata for identifying video data and a person in the video data, from the video data. Note that the metadata extracted by the metadata extraction unit 23 includes information for identifying the moving image from which the metadata is extracted. Details of the predetermined metadata types have already been described and will not be described.

 メタデータ記憶部24は、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成されており、メタデータ抽出部23が送信するメタデータを受信して記憶する。 The metadata storage unit 24 is configured by a storage device such as a hard disk or a RAM (Random Access Memory), and receives and stores metadata transmitted by the metadata extraction unit 23.

 また、映像データ蓄積部25は、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成されており、映像データ処理部22が送信する映像データを受信して記憶する。 The video data storage unit 25 is configured by a storage device such as a hard disk or a RAM (Random Access Memory), and receives and stores video data transmitted by the video data processing unit 22.

 上述したように、メタデータ記憶部24が記憶するメタデータには、当該メタデータの抽出元の映像データ(映像データ蓄積部25に蓄積される)を識別するための情報が含まれている。そのため、メタデータ記憶部24には、映像データ蓄積部25が記憶する映像データと関連付けられたメタデータが記憶されていることになる。 As described above, the metadata stored in the metadata storage unit 24 includes information for identifying the video data from which the metadata is extracted (stored in the video data storage unit 25). Therefore, metadata associated with video data stored in the video data storage unit 25 is stored in the metadata storage unit 24.

 検索条件入力部26は、映像検索装置2が記憶する映像データを検索するための画像データやキーワードを入力する機能を有する。また、検索条件入力部26は、入力された画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを比較して、検索実行の前に当該検索用メタデータを検索前条件情報として表示する機能を有する。検索条件入力部26は、利用者からの入力に従って検索前条件情報として表示された検索用メタデータを修正することが出来るよう構成しても構わない。上述したように、検索条件入力部26は、検索条件入力項目部31と、検索用メタデータ抽出部32と、検索条件比較部33と、検索条件表示部34と、を有している。 The search condition input unit 26 has a function of inputting image data and keywords for searching video data stored in the video search device 2. In addition, the search condition input unit 26 compares the search metadata extracted from the input image data with the search metadata by the keyword, and uses the search metadata as pre-search condition information before executing the search. It has a function to display. The search condition input unit 26 may be configured to be able to modify the search metadata displayed as pre-search condition information in accordance with an input from the user. As described above, the search condition input unit 26 includes the search condition input item unit 31, the search metadata extraction unit 32, the search condition comparison unit 33, and the search condition display unit 34.

 検索条件入力項目部31は、映像検索装置2(の映像データ蓄積部25)が記憶する映像データを検索するための検索条件を入力する機能を有する。図8を参照すると、検索条件入力項目部31は、画像データ入力部51と、キーワード入力部52と、を有する。 The search condition input item unit 31 has a function of inputting a search condition for searching for video data stored in the video search device 2 (the video data storage unit 25). Referring to FIG. 8, the search condition input item unit 31 includes an image data input unit 51 and a keyword input unit 52.

 画像データ入力部51は、検索条件として画像データを入力する機能を有する。画像データ入力部51に入力された画像データは、検索用メタデータ抽出部32へと送信されることになる。画像データ入力部51には、例えば、顔と上半身と下半身との3つの画像データを入力するなど複数の画像を入力することが考えられる。また、画像データ入力部51には、例えば顔と上半身と下半身とが映る人物全体の写真を入力しても構わない。この場合には、後述する検索用メタデータ抽出部32で、顔と上半身と下半身との識別が行われることになる。なお、画像データ入力部51の構成の詳細についての説明は、第1の実施形態と同様であるため省略する。 The image data input unit 51 has a function of inputting image data as a search condition. The image data input to the image data input unit 51 is transmitted to the search metadata extraction unit 32. For example, a plurality of images may be input to the image data input unit 51, such as inputting three pieces of image data of the face, upper body, and lower body. In addition, the image data input unit 51 may input, for example, a photograph of the entire person showing the face, the upper body, and the lower body. In this case, the face, upper body, and lower body are identified by the search metadata extraction unit 32 described later. Note that the detailed description of the configuration of the image data input unit 51 is the same as in the first embodiment, and is omitted.

 キーワード入力部52は、キーワードを入力する機能を有する。キーワード入力部52は、キーボードやタッチパネルなどの入力装置を備えており、当該入力装置を操作することでキーワードを入力することが出来るように構成されている。後述するように、キーワード入力部52に入力されたキーワードは、キーワードによる検索用メタデータとして画像データから抽出したメタデータとの比較の対象になることになる。キーワード入力部52には、画像データから抽出する検索用メタデータとの比較の目的でキーワードを入力しても構わないし、例えば、画像データから抽出する検索用メタデータに関わらず検索を行いたい検索用メタデータをキーワードとして入力しても構わない。キーワード入力部52は、当該キーワード入力部52に入力されたキーワードを検索条件比較部33へと送信することになる。 The keyword input unit 52 has a function of inputting keywords. The keyword input unit 52 includes an input device such as a keyboard and a touch panel, and is configured to be able to input a keyword by operating the input device. As will be described later, the keyword input to the keyword input unit 52 is to be compared with metadata extracted from image data as search metadata by the keyword. The keyword input unit 52 may input a keyword for the purpose of comparison with the search metadata extracted from the image data. For example, a search to be performed regardless of the search metadata extracted from the image data. Metadata may be input as a keyword. The keyword input unit 52 transmits the keyword input to the keyword input unit 52 to the search condition comparison unit 33.

 検索用メタデータ抽出部32は、画像データから検索用メタデータを抽出する機能を有する。検索用メタデータ抽出部32は、画像データ入力部51から送信される画像データを受信する。そして、検索用メタデータ抽出部32は、受信した画像データから予め定められた種類の検索用メタデータを抽出する。その後、検索用メタデータ抽出部32は、抽出した検索用メタデータを検索条件比較部33へと送信する。 The search metadata extraction unit 32 has a function of extracting search metadata from image data. The search metadata extraction unit 32 receives the image data transmitted from the image data input unit 51. Then, the search metadata extraction unit 32 extracts a predetermined type of search metadata from the received image data. Thereafter, the search metadata extraction unit 32 transmits the extracted search metadata to the search condition comparison unit 33.

 ここで、画像データから検索用メタデータを抽出するための具体的な構成の一例について説明する。図9を参照すると、検索用メタデータ抽出部32は、解析エンジン共通基盤41と、行動検知ENG42と、顔識別ENG43と、年齢性別識別ENG44と、服色識別ENG45と、からなる機能を提供する。つまり、検索用メタデータ抽出部32は、メタデータ抽出部23と同様の構成を備えていることになる。このように、メタデータ抽出部23と検索用メタデータ抽出部32とが同様の構成を備えることで、メタデータ抽出部23と検索用メタデータ抽出部32とが同様の種類のメタデータを抽出することが可能になる。その結果、メタデータ抽出部23が抽出したメタデータを、検索用メタデータ抽出部32が抽出した検索用メタデータを用いて検索することが出来るようになる。なお、検索用メタデータ抽出部32は、メタデータ抽出部23が抽出するメタデータと同じ種類の検索用メタデータを抽出可能に構成されていれば、必ずしも同じ構成を備えていなくても構わない。 Here, an example of a specific configuration for extracting search metadata from image data will be described. Referring to FIG. 9, the search metadata extraction unit 32 provides a function including an analysis engine common base 41, an action detection ENG 42, a face identification ENG 43, an age / sex identification ENG 44, and a clothing color identification ENG 45. . That is, the search metadata extraction unit 32 has the same configuration as the metadata extraction unit 23. Thus, the metadata extraction unit 23 and the search metadata extraction unit 32 have the same configuration, so that the metadata extraction unit 23 and the search metadata extraction unit 32 extract the same type of metadata. It becomes possible to do. As a result, the metadata extracted by the metadata extraction unit 23 can be searched using the search metadata extracted by the search metadata extraction unit 32. Note that the search metadata extraction unit 32 may not necessarily have the same configuration as long as it can extract the same type of search metadata as the metadata extracted by the metadata extraction unit 23. .

 検索条件比較部33は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを比較する機能を有する。上述したように、画像データからは予め定められた種類の検索用メタデータが抽出される。そこで、検索条件比較部33は、当該予め定められた種類ごとの、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの比較を行う。そして、検索条件比較部33は、当該比較の結果を検索条件表示部34へと送信する。 The search condition comparison unit 33 has a function of comparing search metadata extracted from image data with search metadata based on keywords. As described above, a predetermined type of search metadata is extracted from the image data. Therefore, the search condition comparison unit 33 compares the search metadata extracted from the image data and the search metadata using keywords for each predetermined type. Then, the search condition comparison unit 33 transmits the comparison result to the search condition display unit 34.

 検索条件表示部34は、検索条件比較部33から送信された比較の結果をモニタなどの外部装置に表示する機能を有する。検索条件表示部34による比較の結果の表示は、検索用メタデータを使用してメタデータ記憶部24に対する検索を行う前に行われることになる。 The search condition display unit 34 has a function of displaying the comparison result transmitted from the search condition comparison unit 33 on an external device such as a monitor. The display of the comparison result by the search condition display unit 34 is performed before the search for the metadata storage unit 24 using the search metadata.

 ここで、検索条件表示部34により表示される比較の結果の表示の具体的な一例について説明する。図10を参照すると、検索条件表示部34には、例えば、画像のイラスト表示と、画像のメタデータ情報と、キーワードのメタデータ情報と、が表示される。ここで、画像のメタデータ情報とは、画像データ入力部51に入力された画像データから検索用メタデータ抽出部32が抽出した検索用メタデータのことである。画像のメタデータ情報には、例えば、画像データが示す顔の特徴の有無、年齢、性別や上半身、下半身の服色などが表示されることになる。また、画像のイラスト表示とは、画像データ入力部51に入力された画像データに応じた簡易表示のことであり、顔の特徴や上半身(胴体と腕部)の服色や下半身の服色を簡易的にイラストで表示しているものである。また、キーワードのメタデータ情報とは、キーワード入力部52に入力されたキーワードによる検索用メタデータのことである。キーワードのメタデータ情報には、キーワード入力部52に入力されたキーワード、例えば、年齢や性別、服色などが表示されることになる。検索条件表示部34には、このような画像のイラスト表示と画像のメタデータ情報とキーワードのメタデータ情報とが、例えば、顔と上半身と下半身との3つの分類でそれぞれ比較可能なよう横に並べられて表示されることになる。 Here, a specific example of the display of the comparison result displayed by the search condition display unit 34 will be described. Referring to FIG. 10, the search condition display unit 34 displays, for example, an image illustration display, image metadata information, and keyword metadata information. Here, the metadata information of the image is search metadata extracted by the search metadata extraction unit 32 from the image data input to the image data input unit 51. In the image metadata information, for example, the presence / absence of a facial feature indicated by the image data, age, gender, upper body color, and lower body color are displayed. The image illustration display is a simple display corresponding to the image data input to the image data input unit 51. The facial features, the upper body (torso and arm) clothing color, and the lower body clothing color are displayed. This is a simple illustration. The keyword metadata information is search metadata based on keywords input to the keyword input unit 52. In the keyword metadata information, keywords input to the keyword input unit 52, for example, age, sex, clothes color, and the like are displayed. In the search condition display section 34, such an image illustration display, image metadata information, and keyword metadata information can be compared horizontally, for example, in three categories of face, upper body, and lower body. They will be displayed side by side.

 また、図11を参照すると、検索条件表示部34は、例えば、画像のイラスト表示と、画像のメタデータ情報と、キーワードのメタデータ情報と、に追加して、比較情報の表示が表示されるように構成することが出来る。ここで、比較情報の表示には、画像のメタデータ情報とキーワードのメタデータ情報とを比較することで得ることの出来る情報が表示される。比較情報の表示には、例えば、顔の特徴の有無や画像のメタデータ情報とキーワードのメタデータ情報との差異点が表示される。また、比較情報の表示には、画像のメタデータ情報とキーワードのメタデータ情報との一致点が表示されるよう検索条件比較部34を構成しても構わない。このように、検索条件表示部34は、画像のメタデータ情報とキーワードのメタデータ情報とを同じ種類どうしで比較し、その比較の結果が表示されるように構成することが出来る。 Referring to FIG. 11, the search condition display unit 34 displays a display of comparison information in addition to, for example, an image illustration display, image metadata information, and keyword metadata information. It can be configured as follows. Here, in the display of the comparison information, information that can be obtained by comparing the metadata information of the image and the metadata information of the keyword is displayed. The display of the comparison information includes, for example, the presence / absence of facial features and the difference between the metadata information of the image and the metadata information of the keyword. Further, the search condition comparison unit 34 may be configured to display the matching point between the image metadata information and the keyword metadata information for displaying the comparison information. As described above, the search condition display unit 34 can be configured to compare the metadata information of the image and the metadata information of the keyword by the same type and display the result of the comparison.

 また、図12を参照すると、検索条件表示部34は、例えば、画像のイラスト表示と、画像のメタデータ情報と、キーワードのメタデータ情報と、に追加して、参考用イラスト表示が表示されるように構成することが出来る。ここで、参考用イラスト表示には、キーワードによる検索用メタデータを画像データから抽出する際に必要となる画像データを示すイラストが参考用として表示される。このように、検索条件表示部34は、キーワードのメタデータ情報を画像データから入力する際に必要となる画像データをイラストで参考用に表すよう構成することが出来る。 Referring to FIG. 12, the search condition display unit 34 displays a reference illustration display in addition to, for example, an image illustration display, image metadata information, and keyword metadata information. It can be configured as follows. Here, in the reference illustration display, an illustration showing image data necessary for extracting the search metadata by the keyword from the image data is displayed for reference. As described above, the search condition display unit 34 can be configured so that the image data necessary for inputting the metadata information of the keyword from the image data is represented by an illustration for reference.

 また、検索条件表示部34は、例えば、画像のメタデータ情報と、キーワードのメタデータ情報と、を、同じ種類どうしで比較した際に、一致点や差異点が強調されるように表示することが出来る。具体的には、画像のメタデータ情報が示す検索用メタデータとキーワードのメタデータ情報が示す検索用メタデータとのうち異なっている部分を赤字かつ太字で表示することなどが考えられる。 Also, the search condition display unit 34 displays the image metadata information and the keyword metadata information so that the matching points and the difference points are emphasized when the same type is compared. I can do it. Specifically, it may be possible to display different portions of the search metadata indicated by the metadata information of the image and the search metadata indicated by the keyword metadata information in red and bold.

 このように、検索条件表示部34は、様々な方法で比較の結果を表示する。検索条件表示部34は、上記場合に限られず、ユーザが比較の結果を認識しやすい形の表現方法を採ることが出来る。 Thus, the search condition display unit 34 displays the result of the comparison by various methods. The search condition display unit 34 is not limited to the above case, and can adopt an expression method in which the user can easily recognize the comparison result.

 また、検索条件表示部34は、表示された検索前条件情報に応じて、検索用メタデータを使用してメタデータ記憶部24を検索するか否か選択することが出来るように構成されている。また、検索条件表示部34は、利用者からの入力に従って検索前条件情報として表示された検索用メタデータの修正を行うことが出来るように構成することが出来る。検索条件表示部34のこの構成についての詳細な説明は、既に説明したものと同様であるため省略する。 Further, the search condition display unit 34 is configured to be able to select whether or not to search the metadata storage unit 24 using the search metadata according to the displayed pre-search condition information. . Further, the search condition display unit 34 can be configured to be able to correct the search metadata displayed as the pre-search condition information in accordance with the input from the user. A detailed description of this configuration of the search condition display unit 34 is the same as that already described, and will be omitted.

 このように、検索条件表示部34は、モニタ等の出力装置に検索用メタデータを検索前条件情報として表示する。また、検索条件表示部34は、当該表示された検索用メタデータの修正などを受け付ける。その後、ユーザにより検索の実行が選択されると、検索条件表示部34は、当該検索の実行が指示された検索用メタデータ(出力装置などに表示されている検索用メタデータ)を検索処理部27へと送信する。一方、ユーザにより検索の中止が選択された場合、検索条件表示部34は、当該検索の中止が選択された検索用メタデータを例えば廃棄する。そして、新たな画像データの入力(検索用メタデータの受信)を待つことになる。 Thus, the search condition display unit 34 displays search metadata as pre-search condition information on an output device such as a monitor. In addition, the search condition display unit 34 accepts correction of the displayed search metadata. Thereafter, when execution of search is selected by the user, the search condition display unit 34 searches the search metadata (search metadata displayed on the output device or the like) instructed to execute the search. 27. On the other hand, when the user selects to cancel the search, the search condition display unit 34 discards, for example, the search metadata for which the search is canceled. Then, it waits for input of new image data (reception of search metadata).

 なお、本実施形態に置いては、顔と、上半身と、下半身と、の3つの分類で検索前条件情報を表示する場合について説明した。しかしながら、本発明は上記場合に限定されず実施可能である。例えば、靴情報や手情報を追加する、上半身と下半身を一度に表示するなど、表示の方法や比較の方法は適宜変更しても構わない。 In the present embodiment, the case has been described where the pre-search condition information is displayed in three classifications: face, upper body, and lower body. However, the present invention can be implemented without being limited to the above case. For example, the display method or the comparison method may be changed as appropriate, such as adding shoe information or hand information, or displaying the upper and lower body at a time.

 また、検索条件表示部34は、キーワード入力部52から入力された検索用メタデータが、検索用メタデータ抽出部32から入力された検索用メタデータと一致するか否か判定するように構成することが出来る。また、検索条件表示部34は、キーワード入力部52から入力された検索用メタデータと検索用メタデータ抽出部32が抽出した検索用メタデータとが一致しているか否かで検索前条件情報として表示される情報を変更するよう構成することが出来る。例えば、検索条件表示部34は、検索用メタデータが一致していない場合、検索用メタデータと検索可否の選択肢を検索前条件情報として表示する。一方で、検索条件表示部34は、検索用メタデータが一致している場合、検索用メタデータのみを検索前条件情報として表示する。このように構成することで、検索条件表示部34は、キーワード入力部52から入力された検索用メタデータが検索用メタデータ抽出部32から入力された検索用メタデータと一致する場合、検索前条件情報として検索用メタデータを表示した後、速やかに検索を実行することが出来る。 Further, the search condition display unit 34 is configured to determine whether or not the search metadata input from the keyword input unit 52 matches the search metadata input from the search metadata extraction unit 32. I can do it. Further, the search condition display unit 34 determines whether the search metadata input from the keyword input unit 52 matches the search metadata extracted by the search metadata extraction unit 32 as pre-search condition information. It can be configured to change the information displayed. For example, when the search metadata does not match, the search condition display unit 34 displays the search metadata and search availability options as pre-search condition information. On the other hand, when the search metadata matches, the search condition display unit 34 displays only the search metadata as the pre-search condition information. By configuring in this way, the search condition display unit 34 is configured to search before search when the search metadata input from the keyword input unit 52 matches the search metadata input from the search metadata extraction unit 32. After displaying the search metadata as the condition information, the search can be executed promptly.

 検索処理部27は、検索前条件情報として表示された検索用メタデータを使用してメタデータ記憶部24が記憶するメタデータの検索を行う機能を有する。図13を参照すると、検索処理部27は照合エンジン共通基盤61と、物体照合ENG62と、顔照合ENG63と、年齢性別照合ENG64と、服色照合ENG65と、からなる機能を提供する。 The search processing unit 27 has a function of searching for metadata stored in the metadata storage unit 24 using the search metadata displayed as pre-search condition information. Referring to FIG. 13, the search processing unit 27 provides a function including a matching engine common base 61, an object matching ENG 62, a face matching ENG 63, an age-sex matching ENG 64, and a clothing color matching ENG 65.

 検索処理部27の照合エンジン共通基盤61は、検索条件表示部34から検索用メタデータを受信する。また、照合エンジン共通基盤61は、メタデータ記憶部24から当該メタデータ記憶部24が記憶するメタデータを受信する。続いて、顔照合ENG63と年齢性別照合ENG64と服色照合ENG65とがそれぞれ、同一の種類のメタデータと検索用メタデータとの同一性を判断する。そして、同一の種類のメタデータと検索用メタデータとの間の同一性の判断が行われた後、物体照合ENG62が、メタデータと検索用メタデータとの全体が一致するものであるか否かの判断を行う。その後、照合エンジン共通基盤61は、検索の結果を検索結果蓄積部66へと送信する。 The collation engine common base 61 of the search processing unit 27 receives the search metadata from the search condition display unit 34. The collation engine common base 61 receives metadata stored in the metadata storage unit 24 from the metadata storage unit 24. Subsequently, the face collation ENG 63, the age and gender collation ENG 64, and the clothing color collation ENG 65 respectively determine the sameness between the same type of metadata and the search metadata. After the determination of the identity between the same type of metadata and the search metadata, the object collation ENG 62 determines whether the metadata and the search metadata are the same. Judgment is made. Thereafter, the collation engine common base 61 transmits the search result to the search result accumulation unit 66.

 そして、検索処理部27は、検索結果を検索結果蓄積部66に記憶する。その後、検索結果蓄積部66に記憶された検索結果(メタデータ)は検索結果表示部28へと送信され、検索結果表示部28にて当該メタデータに関連する映像データが表示されることになる。検索結果表示部28による映像データを表示する際の流れは、既に説明したものと同様のため省略する。 Then, the search processing unit 27 stores the search result in the search result storage unit 66. Thereafter, the search result (metadata) stored in the search result storage unit 66 is transmitted to the search result display unit 28, and the search result display unit 28 displays video data related to the metadata. . Since the flow of displaying the video data by the search result display unit 28 is the same as that already described, a description thereof will be omitted.

 なお、検索処理部27は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとが異なっている場合にも検索の実行を行うことが出来るよう構成することが出来る。つまり、検索処理部27は、例えば、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとが異なっている状態で検索の実行が選択された場合、それぞれの検索用メタデータを使用してメタデータ記憶部24に対する検索を行うように構成することが出来る。また、この際には、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを、AND条件として検索を行っても構わないしOR条件として検索を行っても構わない。また、検索処理部27は、上記のような場合には、予め定められたどちらか一方の検索用メタデータを使用してメタデータ記憶部24に対する検索を行うように構成することが出来る。検索処理部27は、上記説明した様々な検索方式を選択することが出来るように構成しても構わない。 Note that the search processing unit 27 can be configured to perform a search even when the search metadata extracted from the image data is different from the search metadata by the keyword. That is, for example, when the search execution is selected in a state where the search metadata extracted from the image data is different from the search metadata by the keyword, the search processing unit 27 uses each search metadata. Thus, the metadata storage unit 24 can be configured to perform a search. In this case, the search metadata extracted from the image data and the search metadata based on the keyword may be searched as an AND condition or may be searched as an OR condition. In the above case, the search processing unit 27 can be configured to perform a search on the metadata storage unit 24 using either one of the predetermined search metadata. The search processing unit 27 may be configured to be able to select the various search methods described above.

 以上が、映像検索装置2の構成である。上記構成を映像検索装置2が備えることで、検索用メタデータを使用してメタデータ記憶部13に対する検索を行う前に、映像検索装置2は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを検索前条件情報として表示することが出来る。その結果、検索前条件情報がユーザの意図したものであるか否かをより確実に確認することが出来る。 The above is the configuration of the video search device 2. By providing the video search device 2 with the above configuration, the video search device 2 uses the search metadata and keywords extracted from the image data before searching the metadata storage unit 13 using the search metadata. Search metadata can be displayed as pre-search condition information. As a result, it can be confirmed more reliably whether or not the pre-search condition information is intended by the user.

 なお、本実施形態においては、映像検索装置2は、メタデータ記憶部24と映像データ蓄積部25とを別々に備えるとした。しかしながら、映像検索装置2は、メタデータと映像データとを記憶する一つの記憶装置を備えるように構成しても構わない。 In the present embodiment, the video search device 2 includes the metadata storage unit 24 and the video data storage unit 25 separately. However, the video search device 2 may be configured to include one storage device that stores metadata and video data.

 また、本実施形態においては、解析エンジン共通基盤41が4つのエンジンを備えるとした。しかしながら、本発明は解析エンジン共通基盤41が4つのエンジンを備える場合に限定されない。解析エンジン共通基盤41上のエンジンの数は、画像データから抽出する予め定められたメタデータの種類に応じて増減しても構わない。同様に、照合エンジン共通基盤61上のエンジンの数も検索を行うメタデータの数に応じて増減しても構わない。 Further, in this embodiment, the analysis engine common base 41 includes four engines. However, the present invention is not limited to the case where the analysis engine common base 41 includes four engines. The number of engines on the analysis engine common base 41 may be increased or decreased according to a predetermined type of metadata extracted from the image data. Similarly, the number of engines on the collation engine common base 61 may be increased or decreased according to the number of metadata to be searched.

 次に、本実施形態に係る映像検索装置2の動作を説明する。本実施形態においては、本実施形態において特に特徴的な動作について説明する。 Next, the operation of the video search apparatus 2 according to this embodiment will be described. In the present embodiment, operations that are particularly characteristic in the present embodiment will be described.

 まず、メタデータ抽出部23が映像データ処理部22から映像データを受信してメタデータを抽出する際の動作について説明する。 First, an operation when the metadata extraction unit 23 receives video data from the video data processing unit 22 and extracts metadata will be described.

 メタデータ抽出部23が映像データ処理部22から映像データを受信すると、図14に示す処理の実行を開始する。メタデータ抽出部23の解析エンジン共通基盤41が映像データを受信する。次に、行動検知ENG42が映像データから画像データを抽出し連続する画像データの差分を取ることで移動する人物を検出する(S301)。そして、行動検知ENG42は、移動する人物の顔画像を顔識別ENG43と、年齢性別識別ENG44へと渡す。また、行動検知ENG42は、移動する人物の服画像を服色識別ENG45へと渡す。 When the metadata extraction unit 23 receives video data from the video data processing unit 22, execution of the processing shown in FIG. 14 is started. The analysis engine common base 41 of the metadata extraction unit 23 receives the video data. Next, the action detection ENG 42 detects the moving person by extracting the image data from the video data and taking the difference between the continuous image data (S301). Then, the action detection ENG 42 passes the face image of the moving person to the face identification ENG 43 and the age and gender identification ENG 44. In addition, the behavior detection ENG 42 passes the clothing image of the moving person to the clothing color identification ENG 45.

 顔画像を受け取った顔識別ENG43は、行動検知ENG42から渡された顔画像を用いて、当該顔画像が映す人物の顔の特徴をメタデータとして抽出する(S302)。顔識別ENG43による顔の特徴の抽出は、顔画像から目立つ特徴を抽出するよう構成しても構わないし、顔画像そのものを1つのパターンとして顔の特徴を抽出するように構成しても構わない。また、顔識別ENG43は、抽出した顔の特徴から個人を特定し、特定した人物の氏名等をメタデータとして抽出しても構わない。 The face identification ENG 43 that has received the face image uses the face image passed from the behavior detection ENG 42 to extract the facial features of the person reflected by the face image as metadata (S302). The extraction of facial features by the face identification ENG 43 may be configured to extract features that stand out from the facial image, or may be configured to extract facial features using the facial image itself as one pattern. Further, the face identification ENG 43 may identify an individual from the extracted facial features and extract the name of the identified person as metadata.

 また、顔画像を受け取った年齢性別識別ENG44は、行動検知ENG42から渡された顔画像を用いて、当該顔画像が映す人物の推定年齢や性別データを抽出する(S303)。年齢や性別データは、例えば、眉などの顔の形状の特徴や顔の濃淡の特徴などから抽出する。 Also, the age and gender identification ENG 44 that has received the face image uses the face image passed from the behavior detection ENG 42 to extract the estimated age and gender data of the person shown by the face image (S303). Age and gender data are extracted from, for example, facial shape features such as eyebrows and facial shading features.

 また、服画像を受け取った服色識別ENG45は、行動検知ENG42から渡された服画像を用いて、当該服画像が映す上半身の服色データと下半身の服色データとを抽出する(S304)。 Also, the clothing color identification ENG 45 that has received the clothing image extracts the clothing color data of the upper body and the clothing color data of the lower body using the clothing image passed from the behavior detection ENG 42 (S304).

 このように、行動検知ENG42が移動する人物の検出を行い、顔識別ENG43と年齢性別識別ENG44と服色識別ENG45とが検出した人物の予め定められた種類のメタデータの抽出を行う。そして、それぞれのエンジンが抽出したメタデータは解析エンジン共通基盤41からメタデータ記憶部24へと送信され、メタデータ記憶部24において記憶されることになる。なお、メタデータ抽出部23が抽出するメタデータには、当該メタデータの抽出元の動画を識別するための情報が含まれているものとする。 In this way, the movement detection ENG 42 detects a moving person, and extracts a predetermined type of metadata of the person detected by the face identification ENG 43, the age and gender identification ENG 44, and the clothing color identification ENG 45. The metadata extracted by each engine is transmitted from the analysis engine common base 41 to the metadata storage unit 24 and stored in the metadata storage unit 24. Note that the metadata extracted by the metadata extraction unit 23 includes information for identifying the moving image from which the metadata is extracted.

 以上が、メタデータ抽出部23が映像データ処理部22から映像データを受信してメタデータを抽出する際の動作である。なお、検索用メタデータ抽出部32が画像データから検索用メタデータを抽出する際の動作は、上記説明したメタデータ抽出部23の動作と同様のものとなる。次に、映像検索装置2に記憶されている映像データを検索する際の動作について説明する。 The above is the operation when the metadata extraction unit 23 receives video data from the video data processing unit 22 and extracts metadata. The operation when the search metadata extraction unit 32 extracts the search metadata from the image data is the same as the operation of the metadata extraction unit 23 described above. Next, an operation when searching for video data stored in the video search device 2 will be described.

 図15を参照すると、画像データ入力部51に画像データの入力を行う(S401)。すると、画像データを入力された画像データ入力部51は、当該入力された画像データを検索用メタデータ抽出部32へと送信する。 Referring to FIG. 15, image data is input to the image data input unit 51 (S401). Then, the image data input unit 51 that has received the image data transmits the input image data to the search metadata extraction unit 32.

 次に、画像データ入力部51が送信した画像データを検索用メタデータ抽出部32が受信する。そして、検索用メタデータ抽出部32は、当該受信した画像データから予め定められた種類の検索用メタデータを抽出する(S402)。その後、検索用メタデータ抽出部32は、抽出した検索用メタデータを検索条件比較部33へと送信する。 Next, the search metadata extraction unit 32 receives the image data transmitted by the image data input unit 51. Then, the search metadata extraction unit 32 extracts a predetermined type of search metadata from the received image data (S402). Thereafter, the search metadata extraction unit 32 transmits the extracted search metadata to the search condition comparison unit 33.

 また、画像データ入力部51に対する画像データの入力と同時に、又は、画像データの入力と前後して、キーワード入力部52にキーワードの入力を行う(S403)。すると、キーワードを入力されたキーワード入力部52は、当該入力されたキーワード(キーワードによる検索用メタデータ)を検索条件比較部33へと送信する。 Also, a keyword is input to the keyword input unit 52 simultaneously with the input of image data to the image data input unit 51 or before or after the input of the image data (S403). Then, the keyword input unit 52 to which the keyword has been input transmits the input keyword (search metadata by keyword) to the search condition comparison unit 33.

 上記動作により、検索条件比較部33には、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの2つの検索用メタデータが送信されることになる。そこで、検索条件比較部33は、受信した画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの2つの検索用メタデータを同じ種類どうしで比較する(S404)。そして、検索条件比較部33は、当該比較した結果を検索条件表示部34へと送信する。 By the above operation, the search condition comparison unit 33 is transmitted with two search metadata, that is, search metadata extracted from the image data and search metadata by keywords. Therefore, the search condition comparison unit 33 compares the two types of search metadata, that is, the search metadata extracted from the received image data and the search metadata based on the keywords, with the same type (S404). Then, the search condition comparison unit 33 transmits the comparison result to the search condition display unit 34.

 続いて、検索条件比較部33が比較した結果を検索条件表示部34が受信する。そして、検索条件表示部34は、検索用メタデータを使用してメタデータ記憶部24に対する検索を行う前に、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを検索前条件情報としてモニタなどの出力装置に表示する(S405)。そして、検索条件比較部33は、当該表示されている検索前条件情報として表された検索用メタデータを用いて検索を行うか否かの確認を行う(S406)。 Subsequently, the search condition display unit 34 receives the result of comparison by the search condition comparison unit 33. Then, the search condition display unit 34 uses the search metadata to search the metadata for search extracted from the image data and the search metadata by keywords before performing a search for the metadata storage unit 24. Information is displayed on an output device such as a monitor (S405). Then, the search condition comparison unit 33 confirms whether or not to perform a search using the search metadata expressed as the displayed pre-search condition information (S406).

 なお、検索条件比較部33が画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを検索前条件情報として表示する際には、ユーザが比較結果を確認しやすくなるように様々な表現方法を採ることが出来る。 Note that when the search condition comparison unit 33 displays the search metadata extracted from the image data and the search metadata based on keywords as pre-search condition information, the search condition comparison unit 33 has various information so that the user can easily confirm the comparison result. You can take an expression method.

 ユーザが出力装置に表示される検索前条件情報を使用して検索を行わないと判断した場合(S406、NO)、ユーザは出力装置に表示される検索前条件情報を用いて検索を行わないように検索条件比較部33へ指示する。この場合、ユーザは、例えば画像データの差し替えを行い、画像データの入力からやり直すことになる。なお、ここの動作は、画像データの差し替えを行う場合に限定されない。例えば、映像検索装置2と接続されたキーボードなどを用いて検索用メタデータを修正するようにしても構わない。 When it is determined that the user does not perform the search using the pre-search condition information displayed on the output device (S406, NO), the user does not perform the search using the pre-search condition information displayed on the output device. The search condition comparison unit 33 is instructed. In this case, for example, the user replaces the image data and starts again from the input of the image data. The operation here is not limited to the case of replacing image data. For example, the search metadata may be corrected using a keyboard or the like connected to the video search device 2.

 一方、ユーザが出力装置に表示される検索前情報を使用して検索を行うと判断した場合(S406、YES)、検索条件比較部33は、出力装置に表示された検索前条件情報が示す検索用メタデータを検索処理部27へと送信する。そして、検索用メタデータを受信した検索処理部27が、当該検索用メタデータを使用してメタデータ記憶部24が記憶するメタデータの検索を行うことになる(S407)。 On the other hand, when it is determined that the user performs a search using the pre-search information displayed on the output device (S406, YES), the search condition comparison unit 33 performs the search indicated by the pre-search condition information displayed on the output device. The metadata is transmitted to the search processing unit 27. Then, the search processing unit 27 that has received the search metadata searches for metadata stored in the metadata storage unit 24 using the search metadata (S407).

 その後、検索処理部27は、検索用メタデータを使用してメタデータ記憶部24から検索されたメタデータを検索結果蓄積部66に記憶する。また、検索処理部27は、検索されたメタデータを検索結果表示部28へと送信する。そして、検索処理部27が送信するメタデータを受信した検索結果表示部28が、当該受信したメタデータに関連する映像データを映像データ蓄積部25から取得して、取得した映像データを表示する(S408)。 Thereafter, the search processing unit 27 stores the metadata searched from the metadata storage unit 24 using the search metadata in the search result storage unit 66. In addition, the search processing unit 27 transmits the searched metadata to the search result display unit 28. Then, the search result display unit 28 that has received the metadata transmitted by the search processing unit 27 acquires the video data related to the received metadata from the video data storage unit 25 and displays the acquired video data ( S408).

 このような動作により、映像検索装置2は自身が記憶する映像データを入力された画像データとキーワードとを使用して検索することが出来る。 By such an operation, the video search device 2 can search the video data stored by itself using the input image data and keywords.

 このように、本実施形態における映像検索装置2は、検索条件表示部34を備えている。このような構成を備えることで、映像検索装置2は、検索用メタデータを使用してメタデータ記憶部24に対する検索を行う前に検索用メタデータを検索前条件情報として表示することが出来る。その結果、時間が必要となる検索用メタデータを使用したメタデータの検索の前に、検索用メタデータを検索前条件情報として確認することが出来るようになり、短時間でユーザが意図する検索条件で検索を行うことが可能となる。 As described above, the video search device 2 in this embodiment includes the search condition display unit 34. With such a configuration, the video search apparatus 2 can display the search metadata as pre-search condition information before performing a search on the metadata storage unit 24 using the search metadata. As a result, it is possible to check the search metadata as pre-search condition information before searching for metadata using search metadata that requires time, and the search intended by the user in a short time. It becomes possible to search by condition.

 また、本実施形態における映像検索装置2は、画像データ入力部51とキーワード入力部52とを備えている。このような構成により、画像データを入力する際にキーワードを入力することが可能になる。その結果、映像検索装置2が画像データから抽出した検索用メタデータとユーザが入力したキーワードによる検索用メタデータとを並べて表示することが可能となり、画像データから抽出した検索用メタデータとユーザの意図する検索条件(キーワードによる検索用メタデータ)との比較を確実に行うことが可能になる。 Also, the video search device 2 in this embodiment includes an image data input unit 51 and a keyword input unit 52. With this configuration, it is possible to input a keyword when inputting image data. As a result, the search metadata extracted from the image data by the video search device 2 and the search metadata by the keyword input by the user can be displayed side by side, and the search metadata extracted from the image data and the user's Comparison with the intended search condition (search metadata by keyword) can be performed reliably.

 また、本実施形態における映像検索装置2は、検索条件比較部33を備えている。このような構成を備えることで、映像検索装置2は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを比較した上で、当該比較結果を検索条件表示部34により表示することが可能になる。その結果、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの差異を明確に把握することが可能となり、より確実にユーザの意図する検索条件で検索を行うことが可能になる。 Further, the video search device 2 in the present embodiment includes a search condition comparison unit 33. With such a configuration, the video search device 2 compares the search metadata extracted from the image data with the search metadata by keywords, and displays the comparison result on the search condition display unit 34. It becomes possible. As a result, it becomes possible to clearly grasp the difference between the search metadata extracted from the image data and the search metadata based on the keyword, and the search can be performed more reliably with the search condition intended by the user. .

 なお、本実施形態においては、所望の人物が映る映像データを検索可能な映像検索装置について説明した。しかしながら、本発明は、人物を検索する映像検索装置に限定されず実施可能である。本発明は、画像データから抽出したメタデータを用いて映像データを検索する映像検索装置に適応できる。 In the present embodiment, the video search apparatus capable of searching video data showing a desired person has been described. However, the present invention can be practiced without being limited to a video search apparatus that searches for a person. The present invention can be applied to a video search apparatus that searches video data using metadata extracted from image data.

 次に本発明の第3の実施形態について図面を参照して説明する。第3の実施形態では、画像データを用いて自身が記憶する映像データを検索する映像検索装置について説明する。なお、本実施形態においては、映像検索装置の概略について説明する。
[第3の実施形態]
 図16を参照すると、本発明の第3の実施形態に係る映像検索装置7は、メタデータ抽出部71と、メタデータ記憶部72と、画像データ入力部73と、検索用メタデータ抽出部74と、検索用メタデータ確認部75と、を有する。
Next, a third embodiment of the present invention will be described with reference to the drawings. In the third embodiment, a video search apparatus that searches video data stored by itself using image data will be described. In this embodiment, an outline of the video search device will be described.
[Third embodiment]
Referring to FIG. 16, a video search device 7 according to the third embodiment of the present invention includes a metadata extraction unit 71, a metadata storage unit 72, an image data input unit 73, and a search metadata extraction unit 74. And a search metadata confirmation unit 75.

 メタデータ抽出部71は、外部から入力された映像データから予め定められた種類のメタデータを抽出する機能を有する。ここで、予め定められた種類のメタデータとは、映像データや映像データ中の人物を識別するためのメタデータのことである。メタデータ抽出部71が抽出するメタデータとしては、例えば、人物の顔の特徴や年齢、性別、上半身や下半身の服色などが考えられる。また、メタデータ抽出部71は、例えば、画像の撮影日時や撮影場所、ユーザが設定したタイトル及びコメント、人物の氏名などをメタデータとして抽出するよう構成することが出来る。メタデータ抽出部71は、上記説明した以外にも映像データや人物を識別するための様々な種類のメタデータを抽出することが出来る。なお、メタデータ抽出部71は、抽出するメタデータに当該メタデータの抽出元の映像データを識別するための情報が含まれるようにメタデータを抽出することになる。 The metadata extraction unit 71 has a function of extracting a predetermined type of metadata from video data input from the outside. Here, the predetermined type of metadata is metadata for identifying video data and a person in the video data. As metadata extracted by the metadata extraction unit 71, for example, the facial features, age, gender, clothing color of the upper body and lower body of a person, and the like can be considered. Further, the metadata extraction unit 71 can be configured to extract, for example, the date and time of shooting of an image, the shooting location, the title and comment set by the user, the name of a person, and the like as metadata. In addition to the above description, the metadata extraction unit 71 can extract various types of metadata for identifying video data and persons. Note that the metadata extraction unit 71 extracts metadata so that the metadata to be extracted includes information for identifying video data from which the metadata is extracted.

 このように、メタデータ抽出部71は、外部から取得した映像データから予め定められた種類のメタデータを抽出する。そして、メタデータ抽出部71は、当該抽出したメタデータをメタデータ記憶部72へと送信する。 In this way, the metadata extraction unit 71 extracts a predetermined type of metadata from video data acquired from the outside. Then, the metadata extraction unit 71 transmits the extracted metadata to the metadata storage unit 72.

 メタデータ記憶部72は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成される。メタデータ記憶部72は、メタデータ抽出部71が送信したメタデータを受信する。そして、メタデータ記憶部72は、受信したメタデータを記憶する。なお、メタデータ記憶部72が記憶するメタデータには、当該メタデータの抽出元の映像データを識別するための情報が含まれている。つまり、メタデータ記憶部72は、メタデータを抽出元の映像データと関連付けて記憶する。 The metadata storage unit 72 includes a storage device such as a hard disk or a RAM (Random Access Memory). The metadata storage unit 72 receives the metadata transmitted by the metadata extraction unit 71. Then, the metadata storage unit 72 stores the received metadata. Note that the metadata stored in the metadata storage unit 72 includes information for identifying video data from which the metadata is extracted. That is, the metadata storage unit 72 stores the metadata in association with the source video data.

 画像データ入力部73は、画像データを入力する機能を有する。画像データ入力部73には、映像検索装置7を検索する際に用いる画像データを入力することになる。 The image data input unit 73 has a function of inputting image data. The image data input unit 73 receives image data used when searching the video search device 7.

 検索用メタデータ抽出部74は、画像データ入力部73によって入力された画像データから予め定められた種類の検索用メタデータを抽出する機能を有する。検索用メタデータ抽出部74は、画像データ入力部73から送信される画像データを受信する。そして、検索用メタデータ抽出部74は、受信した画像データから予め定められた種類の検索用メタデータを抽出する。ここで、予め定められた種類の検索用メタデータとは、上述したメタデータ抽出部71で抽出されるメタデータと同じ種類のメタデータのことをいう。つまり、メタデータ抽出部71と検索用メタデータ抽出部74とは、同一の種類のメタデータを抽出することが出来るように構成されていることになる。そして、検索用メタデータ抽出部74は、抽出した検索用メタデータを検索用メタデータ確認部75に送信する。 The search metadata extraction unit 74 has a function of extracting a predetermined type of search metadata from the image data input by the image data input unit 73. The search metadata extraction unit 74 receives the image data transmitted from the image data input unit 73. The search metadata extraction unit 74 then extracts a predetermined type of search metadata from the received image data. Here, the predetermined type of search metadata refers to the same type of metadata as the metadata extracted by the metadata extraction unit 71 described above. That is, the metadata extraction unit 71 and the search metadata extraction unit 74 are configured to be able to extract the same type of metadata. Then, the search metadata extraction unit 74 transmits the extracted search metadata to the search metadata confirmation unit 75.

 検索用メタデータ確認部75は、検索用メタデータ抽出部74が抽出した検索用メタデータを使用してメタデータ記憶部72に対する検索を行う前に、検索用メタデータと検索可否の選択肢を検索前条件情報として表示する機能を有する。検索用メタデータ確認部75は、検索用メタデータ抽出部74が送信する検索用メタデータを受信する。そして、検索用メタデータ確認部75は、当該受信した検索用メタデータと検索可否の選択肢を例えば、映像検索装置7と接続されたモニタ等の出力装置に表示する。その後、検索用メタデータ確認部75による検索用メタデータの表示を受けて、当該検索用メタデータを用いて検索を行うか否かの判断が行われ実際の検索が行われることになる。 The search metadata confirmation unit 75 searches the search metadata and searchable options before performing a search on the metadata storage unit 72 using the search metadata extracted by the search metadata extraction unit 74. It has a function to display as precondition information. The search metadata confirmation unit 75 receives the search metadata transmitted by the search metadata extraction unit 74. Then, the search metadata confirmation unit 75 displays the received search metadata and search availability options on, for example, an output device such as a monitor connected to the video search device 7. Thereafter, in response to the display of the search metadata by the search metadata confirmation unit 75, it is determined whether or not to perform a search using the search metadata, and an actual search is performed.

 以上が、映像検索装置7の構成の概略である。 The above is the outline of the configuration of the video search device 7.

 また、上述した映像検索装置7は、当該映像検索装置7に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、映像検索装置を、外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、メタデータ抽出部が抽出したメタデータを抽出元の映像データと関連付けて記憶するメタデータ記憶部と、画像データを入力する画像データ入力部と、画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、検索用メタデータ抽出部が抽出した検索用メタデータを使用してメタデータ記憶部に対する検索を行う前に、検索用メタデータを検索前条件情報として表示する検索用メタデータ確認部として機能させるためのプログラムである。 Also, the video search device 7 described above can be realized by incorporating a predetermined program into the video search device 7. Specifically, a program according to another aspect of the present invention includes a metadata extraction unit that extracts a predetermined type of metadata from video data input from the outside, and a metadata extraction unit. A metadata storage unit that stores the extracted metadata in association with the source video data, an image data input unit that inputs image data, and a predetermined type of search from image data input by the image data input unit Search metadata extraction unit that extracts the metadata for search, and the search metadata is searched before using the search metadata extracted by the search metadata extraction unit before searching the metadata storage unit. This is a program for causing a search metadata confirmation unit to be displayed as information.

 また、上述した映像検索装置7が作動することにより実行される映像検索方法は、外部から入力された映像データから予め定められた種類のメタデータを抽出し、当該メタデータを抽出元の映像データと関連付けて記憶し、画像データを入力し、当該入力された画像データから予め定められた種類の検索用メタデータを抽出し、当該検索用メタデータを使用して映像データから抽出したメタデータの検索を行う前に、検索用メタデータを検索前条件情報として表示する、という方法である。 The video search method executed by the operation of the video search device 7 described above extracts metadata of a predetermined type from externally input video data, and extracts the metadata from the source video data. And storing image data, inputting image data, extracting search metadata of a predetermined type from the input image data, and extracting metadata extracted from video data using the search metadata This is a method of displaying search metadata as pre-search condition information before performing a search.

 上述した構成を有する、プログラム、又は、映像検索方法、の発明であっても、上記映像検索装置7と同様の作用を有するために、上述した本発明の目的を達成することができる。 Even in the invention of the program or the video search method having the above-described configuration, the above-described object of the present invention can be achieved because it has the same operation as the video search device 7 described above.

 次に本発明の第4の実施形態について図面を参照して説明する。第4の実施形態では、画像データを用いて映像データを検索するメタデータ確認装置8について説明する。なお、本実施形態においては、メタデータ確認装置8の概略について説明する。
[第4の実施形態]
 図17を参照すると、本実施形態におけるメタデータ確認装置8は、画像データ入力部81と、検索用メタデータ抽出部82と、検索用メタデータ確認部83と、を有している。
Next, a fourth embodiment of the present invention will be described with reference to the drawings. In the fourth embodiment, a metadata confirmation apparatus 8 that searches video data using image data will be described. In the present embodiment, an outline of the metadata confirmation apparatus 8 will be described.
[Fourth Embodiment]
Referring to FIG. 17, the metadata confirmation apparatus 8 in the present embodiment includes an image data input unit 81, a search metadata extraction unit 82, and a search metadata confirmation unit 83.

 画像データ入力部81は、画像データを入力する機能を有する。画像データ入力部81には、検索する際に用いる画像データを入力することになる。 The image data input unit 81 has a function of inputting image data. The image data input unit 81 inputs image data used for searching.

 検索用メタデータ抽出部82は、画像データ入力部81によって入力された画像データから予め定められた種類の検索用メタデータを抽出する機能を有する。検索用メタデータ抽出部82は、画像データ入力部81から送信される画像データを受信する。そして、検索用メタデータ抽出部82は、受信した画像データから予め定められた種類の検索用メタデータを抽出する。そして、検索用メタデータ抽出部82は、抽出した検索用メタデータを検索用メタデータ確認部83に送信する。なお、メタデータ確認装置8は、例えば外部装置に記憶されている映像データを検索用メタデータ抽出部82が抽出した検索用メタデータを用いて検索することが出来るよう構成されている。そのため、メタデータ抽出部82は、外部装置から映像データを検索できるように検索用メタデータを抽出する。 The search metadata extraction unit 82 has a function of extracting a predetermined type of search metadata from the image data input by the image data input unit 81. The search metadata extraction unit 82 receives the image data transmitted from the image data input unit 81. Then, the search metadata extraction unit 82 extracts search metadata of a predetermined type from the received image data. Then, the search metadata extraction unit 82 transmits the extracted search metadata to the search metadata confirmation unit 83. Note that the metadata check device 8 is configured to be able to search, for example, video data stored in an external device using search metadata extracted by the search metadata extraction unit 82. Therefore, the metadata extraction unit 82 extracts search metadata so that video data can be searched from an external device.

 検索用メタデータ確認部83は、検索用メタデータと検索可否の選択肢を検索前条件情報として表示する機能を有する。検索用メタデータ確認部83は、検索用メタデータ抽出部82が送信する検索用メタデータを受信する。そして、検索用メタデータ確認部83は、当該受信した検索用メタデータと検索可否の選択肢を例えば、メタデータ確認装置8と接続されたモニタ等の出力装置に表示する。その後、検索用メタデータ確認部83による検索用メタデータの表示を受けて、当該検索用メタデータを用いて検索を行うか否かの判断が行われ実際の検索が行われることになる。 The search metadata confirmation unit 83 has a function of displaying search metadata and search availability options as pre-search condition information. The search metadata confirmation unit 83 receives the search metadata transmitted by the search metadata extraction unit 82. Then, the search metadata check unit 83 displays the received search metadata and search availability options on, for example, an output device such as a monitor connected to the metadata check device 8. Thereafter, in response to the display of the search metadata by the search metadata confirmation unit 83, it is determined whether or not to perform a search using the search metadata, and an actual search is performed.

 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における映像検索装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
<Appendix>
Part or all of the above-described embodiment can be described as in the following supplementary notes. The outline of the video search apparatus and the like in the present invention will be described below. However, the present invention is not limited to the following configuration.

(付記1)
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える
メタデータ確認装置。
(Appendix 1)
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
A metadata confirmation apparatus comprising:

(付記2)
 キーワードによる検索用メタデータを入力するキーワード入力部を備え、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力された検索用メタデータとを前記検索前条件情報として表示する
付記1に記載のメタデータ確認装置。
(Appendix 2)
It has a keyword input part to input search metadata by keyword,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. Metadata confirmation device.

(付記3)
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力した検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
付記2に記載のメタデータ確認装置。
(Appendix 3)
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit, and displays the comparison result. The metadata confirmation apparatus according to attachment 2.

(付記4)
 前記検索用メタデータ確認部は、前記キーワード入力部に入力された検索用メタデータを表示する際に、当該キーワード入力部に入力された検索用メタデータを前記検索用メタデータ抽出部が抽出する場合に必要となる画像データを参考画像として表示する
付記2又は3に記載のメタデータ確認装置。
(Appendix 4)
When the search metadata input unit displays the search metadata input to the keyword input unit, the search metadata extraction unit extracts the search metadata input to the keyword input unit. The metadata confirmation apparatus according to appendix 2 or 3, wherein image data required in some cases is displayed as a reference image.

(付記5)
 前記検索用メタデータ確認部は、前記キーワード入力部から入力された検索用メタデータが前記検索用メタデータ抽出部が抽出した検索用メタデータと一致するか否か判定し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致していない場合、前記検索用メタデータと前記検索可否の選択肢を前記検索前条件情報として表示し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致している場合、前記検索用メタデータを前記検索前条件情報として表示する
付記2乃至4の何れかに記載のメタデータ確認装置。
(Appendix 5)
The search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information. The metadata confirmation apparatus according to any one of appendices 2 to 4.

(付記6)
 前記検索用メタデータ確認部は、利用者からの入力に従って前記検索前条件情報として表示された検索用メタデータの修正を行う
付記1乃至5の何れかに記載のメタデータ確認装置。
(Appendix 6)
The metadata check device according to any one of appendices 1 to 5, wherein the search metadata check unit corrects the search metadata displayed as the pre-search condition information in accordance with an input from a user.

(付記7)
 前記予め定められた種類のメタデータは、年齢、性別、服色の少なくとも一つである
付記1乃至5の何れかに記載のメタデータ確認装置。
(Appendix 7)
The metadata confirmation apparatus according to any one of appendices 1 to 5, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.

(付記8)
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータと前記メタデータに基づき、前記検索用メタデータに関連する前記メタデータを検索する検索処理部と、
 前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える
映像検索装置。
(Appendix 8)
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
A video search device comprising:

 この構成によると、映像検索装置が検索用メタデータ確認部を備えている。このような構成により、映像検索装置は、検索用メタデータを使用してメタデータ記憶部に対する検索を行う前に検索用メタデータを検索前条件情報として表示することが出来る。その結果、時間が必要となる検索用メタデータを使用したメタデータの検索の前に、検索用メタデータを検索前条件情報として確認することが出来るようになる。これにより、短時間でユーザが意図する検索条件で検索を行うことが可能となる。また、検索用メタデータを確認した上での検索が行われることになるため、検索結果に対する(装置に対する)疑義を解消することが出来る。 According to this configuration, the video search device includes the search metadata confirmation unit. With this configuration, the video search apparatus can display the search metadata as pre-search condition information before performing a search on the metadata storage unit using the search metadata. As a result, the search metadata can be confirmed as pre-search condition information before searching for metadata using the search metadata that requires time. As a result, it is possible to perform a search with a search condition intended by the user in a short time. In addition, since the search is performed after the search metadata is confirmed, the suspicion (for the device) with respect to the search result can be solved.

(付記9)
 キーワードによる検索用メタデータを入力するキーワード入力部を備え、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力された前記検索用メタデータとを前記検索前条件情報として表示する
付記8に記載の映像検索装置。
(Appendix 9)
It has a keyword input part to input search metadata by keyword,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. The video search device described in 1.

 この構成によると、映像検索装置がキーワード入力部を備えている。このような構成により、画像データを入力する際にキーワードを入力することが可能になる。その結果、映像検索装置が画像データから抽出した検索用メタデータとユーザが入力したキーワードによる検索用メタデータとを並べて表示することが可能となり、画像データから抽出した検索用メタデータとユーザの意図する検索条件(キーワードによる検索用メタデータ)との比較を確実に行うことが可能になる。 According to this configuration, the video search device includes a keyword input unit. With this configuration, it is possible to input a keyword when inputting image data. As a result, the search metadata extracted from the image data by the video search device and the search metadata by the keyword input by the user can be displayed side by side, and the search metadata extracted from the image data and the user's intention can be displayed. It is possible to reliably compare with the search condition (search metadata by keyword) to be performed.

(付記10)
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力した前記検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
付記9に記載の映像検索装置。
(Appendix 10)
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit between the same types, and compares the comparison results. The video search device according to appendix 9, which displays.

 この構成によると、検索用メタデータ確認部は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する。このような構成により、映像検索装置は、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとを比較した上で、当該比較した結果の検索用メタデータを表示することが可能になる。その結果、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの差異を明確に把握することが可能となり、より確実にユーザの意図する検索条件で検索を行うことが可能になる。 According to this configuration, the search metadata confirmation unit compares the search metadata extracted from the image data and the search metadata by the keyword with the same type, and displays the comparison result. With this configuration, the video search apparatus can display the search metadata as a result of the comparison after comparing the search metadata extracted from the image data with the search metadata based on the keyword. Become. As a result, it becomes possible to clearly grasp the difference between the search metadata extracted from the image data and the search metadata based on the keyword, and the search can be performed more reliably with the search condition intended by the user. .

(付記11)
 前記検索用メタデータ確認部は、前記キーワード入力部に入力された前記検索用メタデータを表示する際に、当該検索用メタデータを前記検索用メタデータ抽出部が抽出する場合に必要となる画像データを参考画像として表示する
付記9又は10に記載の映像検索装置。
(Appendix 11)
The search metadata confirmation unit displays an image required when the search metadata extraction unit extracts the search metadata when the search metadata input to the keyword input unit is displayed. The video search device according to appendix 9 or 10, wherein data is displayed as a reference image.

 この構成によると、検索用メタデータ確認部は、キーワード入力部に入力された検索用メタデータを表示する際に、当該検索用メタデータを検索用メタデータ抽出部が抽出する場合に必要となる画像データを参考画像として表示する。このような構成により、キーワードによる検索用メタデータか表示される際に参考画像が表示されることになる。その結果、画像データから抽出した検索用メタデータとキーワードによる検索用メタデータとの差異を明確に把握することが可能となり、より確実にユーザの意図する検索条件で検索を行うことが可能になる。 According to this configuration, the search metadata confirmation unit is required when the search metadata extraction unit extracts the search metadata when displaying the search metadata input to the keyword input unit. Display image data as a reference image. With this configuration, the reference image is displayed when the search metadata based on the keyword is displayed. As a result, it becomes possible to clearly grasp the difference between the search metadata extracted from the image data and the search metadata based on the keyword, and the search can be performed more reliably with the search condition intended by the user. .

(付記12)
 前記検索用メタデータ確認部は、前記キーワード入力部から入力された検索用メタデータが前記検索用メタデータ抽出部が抽出した検索用メタデータと一致するか否か判定し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致していない場合、前記検索用メタデータと前記検索可否の選択肢を前記検索前条件情報として表示し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致している場合、前記検索用メタデータを前記検索前条件情報として表示する
付記9乃至11の何れかに記載の映像検索装置。
(Appendix 12)
The search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information. The video search device according to any one of appendices 9 to 11.

(付記13)
 前記検索用メタデータ確認部は、利用者からの入力に従って前記検索前条件情報として表示された検索用メタデータの修正を行う
付記8乃至11の何れかに記載の映像検索装置。
(Appendix 13)
The video search device according to any one of appendices 8 to 11, wherein the search metadata confirmation unit corrects the search metadata displayed as the pre-search condition information in accordance with an input from a user.

 この構成によると、検索用メタデータ確認部は、利用者からの入力に従って検索前条件情報として表示された検索用メタデータの修正を行う。このような構成により、検索用メタデータ確認部により表示された検索前確認情報がユーザの意図していたものでなかった場合に、直接検索用メタデータの修正を行うことが可能になる。その結果、画像データの入れ直し等を行わずに検索用メタデータの修正を行うことが可能となり、より短時間でユーザが意図する検索条件で検索を行うことが可能となる。 According to this configuration, the search metadata confirmation unit corrects the search metadata displayed as the pre-search condition information according to the input from the user. With such a configuration, when the pre-search confirmation information displayed by the search metadata confirmation unit is not what the user intended, the search metadata can be directly corrected. As a result, the search metadata can be corrected without re-inserting the image data, and the search can be performed with the search condition intended by the user in a shorter time.

(付記14)
 前記予め定められた種類のメタデータは、年齢、性別、服色の少なくとも一つである
付記8乃至13の何れかに記載の映像検索装置。
(Appendix 14)
14. The video search device according to any one of appendices 8 to 13, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.

(付記15)
 外部から入力された映像データから予め定められた種類のメタデータを抽出し、当該メタデータを抽出元の前記映像データと関連付けて記憶し、
 画像データを入力し、当該入力された画像データから予め定められた種類の検索用メタデータを抽出し、当該検索用メタデータを使用して前記映像データから抽出したメタデータの検索を行う前に、前記検索用メタデータを検索前条件情報として表示する
映像検索方法。
(Appendix 15)
Extract metadata of a predetermined type from video data input from the outside, store the metadata in association with the video data of the extraction source,
Before inputting image data, extracting a predetermined type of search metadata from the input image data, and searching for metadata extracted from the video data using the search metadata A video search method for displaying the search metadata as pre-search condition information.

(付記16)
 キーワードによる検索用メタデータを入力し、
 前記画像データから抽出した前記検索用メタデータと前記キーワードによる前記検索用メタデータとを前記検索前条件情報として表示する
付記15に記載の映像検索方法。
(Appendix 16)
Enter search metadata by keyword,
The video search method according to claim 15, wherein the search metadata extracted from the image data and the search metadata based on the keyword are displayed as the pre-search condition information.

(付記17)
 前記画像データから抽出した前記検索用メタデータと前記キーワードによる前記検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
付記16に記載の映像検索方法。
(Appendix 17)
The video search method according to supplementary note 16, wherein the search metadata extracted from the image data and the search metadata by the keyword are compared with each other and the comparison result is displayed.

(付記18)
 映像検索装置を、
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータ抽出部が抽出した前記検索用メタデータを使用して前記メタデータ記憶部に対する検索を行う前に、前記検索用メタデータを検索前条件情報として表示する検索用メタデータ確認部と
して機能させるためのプログラム。
(Appendix 18)
Video search device
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search metadata confirmation unit that displays the search metadata as pre-search condition information before performing a search on the metadata storage unit using the search metadata extracted by the search metadata extraction unit Program to function as.

(付記19)
 キーワードによる検索用メタデータを入力するキーワード入力部と
して機能させ、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力された前記検索用メタデータとを前記検索前条件情報として表示する
付記18に記載のプログラム。
(Appendix 19)
It functions as a keyword input part for inputting search metadata by keywords,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. The program described in.

(付記20)
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力した前記検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
付記19に記載のプログラム。
(Appendix 20)
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit between the same types, and compares the comparison results. The program according to supplementary note 19 to be displayed.

 なお、上記実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。 Note that the programs described in the above embodiments and supplementary notes are stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。 Although the present invention has been described with reference to the above embodiments, the present invention is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

 なお、本発明は、日本国にて2014年2月14日に特許出願された特願2014-026466の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。 The present invention enjoys the benefit of the priority claim based on the patent application of Japanese Patent Application No. 2014-026466, which was filed on February 14, 2014 in Japan, and is described in the patent application. The contents are all included in this specification.

1、2、7 映像検索装置
11、21 映像データ受信部
12、23、71 メタデータ抽出部
13、24、72 メタデータ記憶部
14、25 映像データ蓄積部
15、51、73、81 画像データ入力部
16、32、74、82 検索用メタデータ抽出部
17、75、83 検索用メタデータ確認部
18、27 検索処理部
19、28 検索結果表示部
22 映像データ処理部
26 検索条件入力部
31 検索条件入力項目部
33 検索条件比較部
34 検索条件表示部
41 解析エンジン共通基盤
42 行動検知ENG
43 顔識別ENG
44 年齢性別識別ENG
45 服色識別ENG
52 キーワード入力部
61 照合エンジン共通基盤
62 物体照合ENG
63 顔照合ENG
64 年齢性別照合ENG
65 服色照合ENG
66 検索結果蓄積部
8 メタデータ確認装置

 
1, 2, 7 Video search device 11, 21 Video data receiving unit 12, 23, 71 Metadata extraction unit 13, 24, 72 Metadata storage unit 14, 25 Video data storage unit 15, 51, 73, 81 Image data input Units 16, 32, 74, 82 Search metadata extraction units 17, 75, 83 Search metadata confirmation units 18, 27 Search processing units 19, 28 Search result display unit 22 Video data processing unit 26 Search condition input unit 31 Search Condition input item part 33 Search condition comparison part 34 Search condition display part 41 Analysis engine common base 42 Action detection ENG
43 Face Identification ENG
44 Age Gender Identification ENG
45 Clothing color identification ENG
52 Keyword Input Unit 61 Collation Engine Common Base 62 Object Collation ENG
63 Face verification ENG
64 Age gender verification ENG
65 Clothing color matching ENG
66 Search Result Accumulation Unit 8 Metadata Confirmation Device

Claims (20)

 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える
メタデータ確認装置。
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
A metadata confirmation apparatus comprising:
 キーワードによる検索用メタデータを入力するキーワード入力部を備え、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力された検索用メタデータとを前記検索前条件情報として表示する
請求項1に記載のメタデータ確認装置。
It has a keyword input part to input search metadata by keyword,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. The metadata confirmation device described.
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力した検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
請求項2に記載のメタデータ確認装置。
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit, and displays the comparison result. The metadata confirmation apparatus according to claim 2.
 前記検索用メタデータ確認部は、前記キーワード入力部に入力された検索用メタデータを表示する際に、当該キーワード入力部に入力された検索用メタデータを前記検索用メタデータ抽出部が抽出する場合に必要となる画像データを参考画像として表示する
請求項2又は3に記載のメタデータ確認装置。
When the search metadata input unit displays the search metadata input to the keyword input unit, the search metadata extraction unit extracts the search metadata input to the keyword input unit. The metadata confirmation apparatus according to claim 2 or 3, wherein image data required in such a case is displayed as a reference image.
 前記検索用メタデータ確認部は、前記キーワード入力部から入力された検索用メタデータが前記検索用メタデータ抽出部が抽出した検索用メタデータと一致するか否か判定し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致していない場合、前記検索用メタデータと前記検索可否の選択肢を前記検索前条件情報として表示し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致している場合、前記検索用メタデータを前記検索前条件情報として表示する
請求項2乃至4の何れかに記載のメタデータ確認装置。
The search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information. The metadata confirmation apparatus according to any one of claims 2 to 4.
 前記検索用メタデータ確認部は、利用者からの入力に従って前記検索前条件情報として表示された検索用メタデータの修正を行う
請求項1乃至5の何れかに記載のメタデータ確認装置。
The metadata check device according to claim 1, wherein the search metadata check unit corrects the search metadata displayed as the pre-search condition information in accordance with an input from a user.
 前記予め定められた種類のメタデータは、年齢、性別、服色の少なくとも一つである
請求項1乃至6の何れかに記載のメタデータ確認装置。
The metadata confirmation apparatus according to any one of claims 1 to 6, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータと前記メタデータに基づき、前記検索用メタデータに関連する前記メタデータを検索する検索処理部と、
 前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と、
を備える
映像検索装置。
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
A search metadata confirmation unit for displaying the search metadata and search availability options as pre-search condition information;
A video search device comprising:
 キーワードによる検索用メタデータを入力するキーワード入力部を備え、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力された検索用メタデータとを前記検索前条件情報として表示する
請求項8に記載の映像検索装置。
It has a keyword input part to input search metadata by keyword,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. The video search device described.
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した検索用メタデータと前記キーワード入力部から入力した検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
請求項9に記載の映像検索装置。
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit, and displays the comparison result. The video search device according to claim 9.
 前記検索用メタデータ確認部は、前記キーワード入力部に入力された検索用メタデータを表示する際に、当該検キーワード入力部に入力された検索用メタデータを前記検索用メタデータ抽出部が抽出する場合に必要となる画像データを参考画像として表示する
請求項9又は10に記載の映像検索装置。
When the search metadata confirmation unit displays the search metadata input to the keyword input unit, the search metadata extraction unit extracts the search metadata input to the search keyword input unit. The video search device according to claim 9 or 10, wherein image data necessary for the display is displayed as a reference image.
 前記検索用メタデータ確認部は、前記キーワード入力部から入力された検索用メタデータが前記検索用メタデータ抽出部が抽出した検索用メタデータと一致するか否か判定し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致していない場合、前記検索用メタデータと前記検索可否の選択肢を前記検索前条件情報として表示し、前記キーワード入力部から入力された検索用メタデータと前記検索用メタデータ抽出部が抽出した検索用メタデータとが一致している場合、前記検索用メタデータを前記検索前条件情報として表示する
請求項9乃至11の何れかに記載の映像検索装置。
The search metadata confirmation unit determines whether the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, and from the keyword input unit When the input search metadata and the search metadata extracted by the search metadata extraction unit do not match, the search metadata and the search availability option are displayed as the pre-search condition information. When the search metadata input from the keyword input unit matches the search metadata extracted by the search metadata extraction unit, the search metadata is displayed as the pre-search condition information. The video search device according to claim 9.
 前記検索用メタデータ確認部は、利用者からの入力に従って前記検索前条件情報として表示された検索用メタデータの修正を行う
請求項8乃至12の何れかに記載の映像検索装置。
The video search device according to claim 8, wherein the search metadata confirmation unit corrects the search metadata displayed as the pre-search condition information in accordance with an input from a user.
 前記予め定められた種類のメタデータは、年齢、性別、服色の少なくとも一つである
請求項8乃至13の何れかに記載の映像検索装置。
14. The video search device according to claim 8, wherein the predetermined type of metadata is at least one of age, sex, and clothing color.
 外部から入力された映像データから予め定められた種類のメタデータを抽出し、当該メタデータを抽出元の前記映像データと関連付けて記憶し、
 画像データを入力し、当該入力された画像データから予め定められた種類の検索用メタデータを抽出し、前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する
映像検索方法。
Extract metadata of a predetermined type from video data input from the outside, store the metadata in association with the video data of the extraction source,
A video search method for inputting image data, extracting a predetermined type of search metadata from the input image data, and displaying the search metadata and search availability options as pre-search condition information.
 キーワードによる検索用メタデータを入力し、
 前記画像データから抽出した前記検索用メタデータと前記キーワードによる前記検索用メタデータとを前記検索前条件情報として表示する
請求項15に記載の映像検索方法。
Enter search metadata by keyword,
The video search method according to claim 15, wherein the search metadata extracted from the image data and the search metadata based on the keyword are displayed as the pre-search condition information.
 前記画像データから抽出した前記検索用メタデータと前記キーワードによる前記検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
請求項16に記載の映像検索方法。
The video search method according to claim 16, wherein the search metadata extracted from the image data and the search metadata based on the keyword are compared with each other and the comparison result is displayed.
 映像検索装置を、
 外部から入力された映像データから予め定められた種類のメタデータを抽出するメタデータ抽出部と、
 前記メタデータ抽出部が抽出した前記メタデータを抽出元の前記映像データと関連付けて記憶するメタデータ記憶部と、
 画像データを入力する画像データ入力部と、
 前記画像データ入力部によって入力された画像データから予め定められた種類の検索用メタデータを抽出する検索用メタデータ抽出部と、
 前記検索用メタデータと前記メタデータに基づき、前記検索用メタデータに関連する前記メタデータを検索する検索処理部と、
 前記検索用メタデータと検索可否の選択肢を検索前条件情報として表示する検索用メタデータ確認部と
して機能させるためのプログラム。
Video search device
A metadata extraction unit that extracts predetermined types of metadata from video data input from the outside;
A metadata storage unit that stores the metadata extracted by the metadata extraction unit in association with the video data of the extraction source;
An image data input unit for inputting image data;
A search metadata extraction unit for extracting a predetermined type of search metadata from the image data input by the image data input unit;
A search processing unit for searching for the metadata related to the search metadata based on the search metadata and the metadata;
A program for functioning as a search metadata confirmation unit that displays the search metadata and search availability options as pre-search condition information.
 キーワードによる検索用メタデータを入力するキーワード入力部と
して機能させ、
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力された前記検索用メタデータとを前記検索前条件情報として表示する
請求項18に記載のプログラム。
It functions as a keyword input part for inputting search metadata by keywords,
The search metadata confirmation unit displays the search metadata extracted by the search metadata extraction unit and the search metadata input from the keyword input unit as the pre-search condition information. 18. The program according to 18.
 前記検索用メタデータ確認部は、前記検索用メタデータ抽出部が抽出した前記検索用メタデータと前記キーワード入力部から入力した前記検索用メタデータとを同じ種類どうしで比較し、その比較結果を表示する
請求項19に記載のプログラム。
The search metadata confirmation unit compares the search metadata extracted by the search metadata extraction unit with the search metadata input from the keyword input unit between the same types, and compares the comparison results. The program according to claim 19 to be displayed.
PCT/JP2015/000530 2014-02-14 2015-02-05 Video search device Ceased WO2015122162A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014026466 2014-02-14
JP2014-026466 2014-02-14

Publications (1)

Publication Number Publication Date
WO2015122162A1 true WO2015122162A1 (en) 2015-08-20

Family

ID=53799913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/000530 Ceased WO2015122162A1 (en) 2014-02-14 2015-02-05 Video search device

Country Status (2)

Country Link
AR (1) AR099430A1 (en)
WO (1) WO2015122162A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045122A (en) * 2011-08-22 2013-03-04 Seiko Epson Corp Image search device, image search method, and program
JP2013149194A (en) * 2012-01-23 2013-08-01 Koji Hirano Pair image posting/retrieval device and pair image posting/retrieval program
WO2013175608A1 (en) * 2012-05-24 2013-11-28 株式会社日立製作所 Image analysis device, image analysis system, and image analysis method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045122A (en) * 2011-08-22 2013-03-04 Seiko Epson Corp Image search device, image search method, and program
JP2013149194A (en) * 2012-01-23 2013-08-01 Koji Hirano Pair image posting/retrieval device and pair image posting/retrieval program
WO2013175608A1 (en) * 2012-05-24 2013-11-28 株式会社日立製作所 Image analysis device, image analysis system, and image analysis method

Also Published As

Publication number Publication date
AR099430A1 (en) 2016-07-20

Similar Documents

Publication Publication Date Title
EP3616119B1 (en) Intelligent auto cropping of digital images
US11825278B2 (en) Device and method for auto audio and video focusing
JP7405200B2 (en) person detection system
JP4241763B2 (en) Person recognition apparatus and method
CN114424258B (en) Attribute identification method, device, storage medium and electronic device
US10389969B2 (en) Video processing system
EP3824400A1 (en) Visual intent triggering for visual search
KR20080104034A (en) Face image registration apparatus, face image registration method, face image registration program, and recording medium
JP2009265827A (en) Object detection device and method, object detection system, and program
JP6044819B2 (en) Information processing system, information processing method, communication terminal, information processing apparatus, control method thereof, and control program
JP7287511B2 (en) Information processing device, suspect information generation method and program
JP7694738B2 (en) Information processing system, information processing device, information processing method, and program
JPWO2020136795A1 (en) Information processing equipment, information processing methods, and programs
JPWO2021131324A5 (en)
JP6142533B2 (en) Information processing device
CN116110136B (en) Liveness detection methods and systems
WO2020115910A1 (en) Information processing system, information processing device, information processing method, and program
CN104423883B (en) Information processor, method
US9036946B2 (en) Image processing apparatus that retrieves similar images, method of controlling the same, and storage medium
WO2015122162A1 (en) Video search device
KR101789234B1 (en) Data tagging apparatus and method thereof, and data search method using the same
JP4150651B2 (en) Support information providing method, support information providing program, and information providing management system
WO2017020418A1 (en) Iris image recognition method and user equipment
KR101681625B1 (en) Method for searching data based on content awareness, data search system performing the same, and storage medium storing the same
JP6112346B2 (en) Information collection system, program, and information collection method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15748624

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15748624

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP