[go: up one dir, main page]

WO2016139940A1 - 画像処理システム、画像処理方法およびプログラム記憶媒体 - Google Patents

画像処理システム、画像処理方法およびプログラム記憶媒体 Download PDF

Info

Publication number
WO2016139940A1
WO2016139940A1 PCT/JP2016/001124 JP2016001124W WO2016139940A1 WO 2016139940 A1 WO2016139940 A1 WO 2016139940A1 JP 2016001124 W JP2016001124 W JP 2016001124W WO 2016139940 A1 WO2016139940 A1 WO 2016139940A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
specific information
unit
processing system
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/001124
Other languages
English (en)
French (fr)
Inventor
康治 齋藤
淳平 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to US15/554,802 priority Critical patent/US20180239782A1/en
Priority to JP2017503349A priority patent/JP6455590B2/ja
Publication of WO2016139940A1 publication Critical patent/WO2016139940A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Definitions

  • the present invention relates to a technique for shortening the time required for image search processing for searching for an image.
  • Patent Document 1 discloses an example of such an image processing system.
  • the image processing system in Patent Document 1 is a system that monitors the area to be monitored.
  • a face is detected by image processing from an image captured by an imaging device, and the detected feature amount of the face is extracted. Then, the extracted feature amount is collated with the information of the registrant list stored in the storage unit, and it is determined whether or not the face shown in the photographed image is the registrant's face.
  • a main object of the present invention is to provide a technique for shortening the time required for the process of extracting an image corresponding to a condition from a plurality of images.
  • an image processing system of the present invention includes: A plurality of second obtained by one or both of a process of reducing the capacity of the first image, which is a processing target image, and a process of extracting an image corresponding to the extraction condition from the plurality of first images.
  • the image processing method of the present invention includes: A plurality of second obtained by one or both of a process of reducing the capacity of the first image, which is a processing target image, and a process of extracting an image corresponding to the extraction condition from the plurality of first images. From the image, the second image corresponding to the search condition is detected, An image corresponding to the detected second image is acquired from the plurality of first images or a plurality of generated images generated from the first image.
  • the program storage medium of the present invention includes: A plurality of second obtained by one or both of a process of reducing the capacity of the first image, which is a processing target image, and a process of extracting an image corresponding to the extraction condition from the plurality of first images.
  • a process of detecting the second image corresponding to the search condition from the image A processing procedure for causing a computer to execute a process of acquiring an image according to the detected second image from the plurality of first images or a plurality of generated images generated from the first image.
  • the main object of the present invention is also achieved by the image processing method of the present invention corresponding to the image processing system of the present invention.
  • the main object of the present invention is also achieved by a computer program corresponding to the image processing system and the image processing method of the present invention and a program storage medium storing the computer program.
  • 1 is a block diagram illustrating a simplified configuration of an image processing system according to a first embodiment of the present invention. It is a figure showing the specific example of specific information. It is a figure explaining an example of the production
  • 3rd embodiment it is a figure showing the example of a display displayed on the display part of a user terminal.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment according to the present invention.
  • the image processing system 100 according to the first embodiment includes a recording device 200, a storage device 300, and a detection device 400. Information communication between these devices is performed through an information communication network.
  • the recording device 200 includes a first storage unit 20, a control unit 21, a first transmission unit 22, and an acquisition unit 23.
  • the recording device 200 is connected to an imaging device (not shown) such as a camera.
  • the first storage unit 20 of the recording device 200 stores a captured image captured by the imaging device as a first image.
  • storage part 20 memorize
  • the first image and the specific information related to the first image are stored in the first storage unit 20 in an associated state.
  • FIG. 2 is a diagram illustrating a specific example of the specific information in a table.
  • a plurality of pieces of specific information are associated with an image ID (IDentification) that is image identification information.
  • the specific information shown in FIG. 2 includes “shooting date”, “shooting time”, “shooting location”, “imaging device identification information (ID (IDentification))”, and “image feature amount”.
  • the images with the image IDs 10000 to 13600 are images taken by the “imaging device A1” at “Store A” on “April 1, 2015”. Further, for example, it can be seen that the image with the image ID 10000 is taken at “10:00:00” and the feature amount is “aaa”.
  • photographing location that is identification information is a name that represents a location such as a store name, but “photographing location” is a name other than a name that can identify a location such as latitude and longitude or an address. It may be information. Further, the specific information is not limited to the specific information shown in FIG. 2, and appropriate information is set as the specific information as long as the information is effective for specifying the image.
  • the specific information stored in the first storage unit 20 may be information generated by an imaging device such as a camera, or may be information generated by the recording device 200 analyzing the first image. Good.
  • the control unit 21 has a function of acquiring a first image from the first storage unit 20 and generating a second image (digest image) based on the acquired first image.
  • the second image is an image obtained by one or both of a process of reducing the capacity of the first image and a process of extracting an image corresponding to a given extraction condition from a plurality of first images. is there.
  • FIG. 3 is a diagram schematically illustrating a specific example in which the control unit 21 extracts the image from the plurality of first images stored in the first storage unit 20 to generate the second image. In the example of FIG. 3, three first images having image IDs “10000”, “10005”, and “10010” are extracted as second images.
  • the second image may thus be an image extracted from a plurality of first images based on the extraction conditions.
  • the second image may be an image in which the resolution of all or a part of the first image is reduced, or an image generated by cutting out a part of the pixels constituting the first image.
  • the second image may be an image generated by compressing the color information of the first image.
  • there are various methods for generating the second image and among these methods, for example, an appropriate method is adopted in consideration of the resolution of the first image, the shooting time interval, and the like. It ’s good.
  • control unit 21 generates specific information based on specific information associated with the first image that is the basis of the generated second image (hereinafter, the first image is also referred to as a basic image).
  • a function for associating with the second image is provided.
  • specific information is linked
  • all the specific information of a basic image may be linked
  • the selected specific information may be associated with the second image.
  • the second image specific information is selected from the basic image specific information, the second image specific information is selected in consideration of the information used in the processing executed by the detection device 400.
  • the first transmission unit 22 has a function of transmitting the generated second image and the specific information related to the second image to the storage device 300 in association with each other.
  • the storage device 300 includes a second storage unit 30.
  • the second storage unit 30 stores the second image transmitted from the first transmission unit 22 of the recording device 200 and the specific information in an associated state.
  • the detection device 400 includes a specifying unit 40 and a detection unit 41.
  • the detection device 400 has a function of taking the second image and specific information from the second storage unit 30 of the storage device 300 at a preset timing.
  • the timing may be every preset time interval, may be a timing at which the capacity of the second image stored in the second storage unit 30 reaches a threshold, or may be received from the user. It may be the timing at which the instruction is received.
  • a notification informing that the capacity of the second image has reached the threshold value is sent to the storage device. 300 to the detection device 400.
  • the detection unit 41 has a function of detecting (searching) a second image satisfying a given search condition from the second images acquired from the second storage unit 30.
  • the search condition is a condition for narrowing down the second image acquired from the second storage unit 30 and is appropriately set by the user of the image processing system 100 or the like.
  • the search condition is a condition based on information for specifying a person such as a missing person or a criminal suspect.
  • the search condition may be a condition based on information specifying a dangerous substance or the like.
  • the information for specifying a person includes information such as facial features that can specify an individual, how to walk, sex, age, hair color, and height.
  • the information for specifying the object includes information such as shape characteristics, color, and size. Such information can be represented by information obtained by digitizing luminance information, color information (frequency information), and the like. Furthermore, information relating to the date and time when the image was taken may be used as the search condition for narrowing down the second image. Further, the search condition may be a condition based on a combination of a plurality of information.
  • the specifying unit 40 has a function of generating search conditions for the first image using the specific information associated with the second image detected (narrowed down) by the detecting unit 41.
  • the search condition of the first image can be said to be a condition in which the search condition used by the detection unit 41 is rewritten using specific information.
  • search conditions generated by the specifying unit 40 will be described below.
  • the search condition generated by the specifying unit 40 is a search condition using “shooting date” and “shooting time” that are specifying information associated with the second image.
  • the specifying unit 40 sets a condition in which a time width is given to “shooting date” and “shooting time”, which are specific information associated with the second image detected by the detecting unit 41, as a search condition.
  • the detection unit 41 detects (searches) the second image (image ID: 10005) shown in FIG.
  • the shooting date and time based on the specific information of the detected second image (image ID: 10005) is April 1, 2015, 10: 00: 5.
  • the specifying unit 40 has a condition (in other words, the shooting date / time is April 1, 2015) in which the shooting date / time has a time width ( ⁇ 3 seconds in this case) given in advance by a user, a system designer, or the like. Day 10: 00: 2 to 8 seconds) as a search condition.
  • the search condition generated by the specifying unit 40 is a search condition using “shooting location” that is specific information associated with the second image.
  • the specifying unit 40 may use “shooting location” associated with the second image as a search condition, or use a condition in which information for expanding the search range is added to “shooting location” as a search condition.
  • the detection unit 41 detects the second image (image ID: 10000) shown in FIG.
  • the “photographing place” that is the specific information of the detected second image (image ID: 10000) is the store A as shown in FIG.
  • the specifying unit 40 may use “store A” (that is, a condition that the shooting location is the store A) as a search condition.
  • the specifying unit 40 adds a condition (in this case, within 6 km) that expands the search range given by the user or the system designer to “Store A” (that is, the shooting location is centered on Store A). Search condition).
  • specification part 40 detects the store (namely, store A, store B, store C) within 6 km centering on the store A using the information. Further, the specifying unit 40 replaces the search condition that the shooting location is within a 6 km range centering on the store A with the search condition that the shooting location is the store A, the store B, and the store C.
  • the search condition generated by the specifying unit 40 is a search condition using “feature” that is specific information associated with the second image.
  • the “feature amount” is information obtained by quantifying information characterizing a person or an object. For example, information obtained by digitizing luminance information, color information (frequency information), and the like corresponds to the feature amount. There are various methods for calculating the feature amount. Here, the feature amount is calculated by an appropriate method.
  • the specifying unit 40 searches for a condition in which information for expanding the search range is added to “feature amount” that is the specific information associated with the second image detected by the detecting unit 41.
  • “feature amount” that is the specific information of the second image (image ID: 10005) detected by the detection unit 41 is “fff” as shown in FIG. In this case, f is a positive integer).
  • the specifying unit 40 uses the feature quantity obtained by changing a part of the feature quantity “fff” as information for extending the search range.
  • the specifying unit 40 generates feature amounts “ffX”, “fXf”, and “Xff” (X is an arbitrary positive integer) as information that expands the search range, and the generated feature amount is the feature amount. Search conditions together with “fff”.
  • the search condition generated by the specifying unit 40 is a search condition using “imaging device ID”, “shooting date”, and “shooting time”, which are specified information associated with the second image.
  • the specifying unit 40 sets the time width corresponding to the “imaging device ID” to “shooting date” and “shooting time” that are the specific information associated with the second image detected by the detecting unit 41.
  • the search condition is a condition that has For example, assume that the detection unit 41 detects (searches) the second image (image ID: 10005) shown in FIG. The shooting date and time based on the specific information of the detected second image (image ID: 10005) is April 1, 2015, 10: 00: 5. The “imaging device ID” that is the specific information of the detected second image is A1.
  • time width information is set. In this way, information on the time width set for each imaging device ID is given to the detection device 400.
  • the specifying unit 40 is information of a time width corresponding to the imaging device ID: “A1” which is specific information associated with the second image detected by the detecting unit 41 (that is, “until 5 seconds after the shooting time”) ) Is detected.
  • specification part 40 produces
  • information of another imaging device ID may be associated with the “imaging device ID” that is the specific information.
  • another imaging device ID: “A2” is associated with the imaging device ID: “A1” in addition to time width information (that is, “until 5 seconds after the imaging time”).
  • the specifying unit 40 has an imaging date and time of 10:00 on April 1, 2015, among images captured by the imaging device ID: “A1” and images captured by the imaging device ID: “A2”.
  • a condition that the second to April 1, 2015 is 10:00:10 is generated as a search condition.
  • the search condition generated by the specifying unit 40 as described above is transmitted to the recording device 200.
  • the acquisition unit 23 of the recording device 200 has a function of collating the search condition transmitted from the specifying unit 40 of the detection device 400 with the specific information of the first image stored in the first storage unit 20. Furthermore, the acquisition part 23 acquires the 1st image linked
  • FIG. It has a function.
  • the search condition is a search condition in which the shooting date and time is April 1, 2015, 10: 00: 2 to 8 seconds.
  • the acquisition unit 23 is based on the specific information associated with the first image, “shooting date” and “shooting time”, and within the G range shown in FIG. 5 corresponding to the search condition.
  • Obtain a first image Thereby, for example, the user can obtain a first image (that is, an image photographed by a surveillance camera or the like) in a time zone in which the object to be searched is likely to be photographed.
  • the search condition is a search condition of stores within 6 km centered on the store A (that is, store A, store B, store C).
  • the acquisition unit 23 acquires the first image that satisfies the search condition, based on “shooting location” that is specific information associated with the first image.
  • the user can obtain a first image (that is, an image photographed by a surveillance camera or the like) photographed at a place where the object to be searched is likely to be photographed.
  • the search condition is a search condition in which the feature amount is “fff”, “ffX”, “fXf”, “Xff”.
  • the acquisition unit 23 acquires the first image hatched in FIG. 6 corresponding to the search condition, based on the “feature amount” that is the specific information associated with the first image.
  • the user can obtain a first image (that is, an image photographed by a monitoring camera or the like) in which the object being searched for and an object similar to the object are photographed.
  • the search condition is that the image capturing date / time is 1 April 2015, 10: 00: 5 to 2015, of the image captured by the image capturing apparatus ID: “A1” and the image captured by the image capturing apparatus ID: “A2”. It is assumed that the search condition is that April 1st 10:00:10.
  • the acquisition unit 23 selects the first image corresponding to the search condition based on the “imaging device ID”, “shooting date”, and “shooting time” that are specific information associated with the first image. get. Thereby, for example, the user can obtain a first image (that is, an image photographed by a surveillance camera or the like) photographed at a place and time zone in which the target object is likely to be photographed. it can.
  • the first image acquired by the acquisition unit 23 may be displayed on a display device connected to the recording device 200, or may be transmitted from the recording device 200 to a user terminal that is set in advance. May be sent to.
  • the image processing system 100 according to the first embodiment is configured as described above. Thereby, the image processing system 100 of 1st embodiment can acquire the following effects. That is, the image processing system 100 according to the first embodiment is one of processing for reducing the capacity of the first image and processing for extracting an image corresponding to a given extraction condition from the plurality of first images, or A second image (digest image) is obtained by both processes. Then, the image processing system 100 detects an image corresponding to the search condition from the second image. For this reason, the image processing system 100 reduces the processing load, shortens the time required for the detection process, and improves the detection accuracy, compared with the case where an image corresponding to the search condition is detected from the first image. Can be achieved.
  • the image processing system 100 generates a search condition for the first image using the specific information associated with the second image corresponding to the search condition, and compares the generated search condition with the specific information. Search for an image. For this reason, the image processing system 100 can reduce the load of the search process compared to the case of performing a search process such as determining whether or not there is a first image corresponding to the search condition by the image process. Can be shortened.
  • the recording device 200 transmits the second image instead of the first image to the storage device 300. For this reason, in the image processing system 100, it is possible to reduce the amount of communication between the recording device 200 and the storage device 300 as compared to the case where all the first images are transmitted from the recording device 200 to the storage device 300. Thereby, the image processing system 100 can obtain an effect that it is not necessary to employ a high-speed and large-capacity information communication network for communication between the recording device 200 and the storage device 300.
  • the image processing system 100 can reduce the processing time, reduce the cost of system construction, and can search objects that meet user needs.
  • the first image being photographed can be extracted (searched) with a high probability.
  • FIG. 7 is a sequence diagram illustrating an operation example of the image processing system 100 according to the first embodiment.
  • the recording device 200 when the recording device 200 receives an image (first image) taken by the imaging device (step S1 in FIG. 7), the recording device 200 associates the received first image with specific information, and associates the first image and the specific information with each other. Store in the first storage unit 20.
  • control unit 21 of the recording device 200 acquires the first image and the specific information stored in the first storage unit 20. And the control part 21 performs 1st or both of the process which reduces the capacity
  • the second storage unit 30 of the storage device 300 stores the second image received from the first transmission unit 22 in association with the specific information (step S3).
  • the detection unit 41 determines whether or not there is a second image that satisfies the given search condition from the second images acquired from the second storage unit 30 of the storage device 300 (Step S41). S4).
  • the detection unit 41 determines that there is no second image that satisfies the search condition
  • the detection device 400 ends the process and enters a standby state for the next process.
  • the specifying unit 40 generates a search condition using specific information associated with the second image corresponding to the search condition. (Step S5).
  • the generated search condition is transmitted to the recording device 200.
  • the acquisition part 23 of the video recording apparatus 200 will collate the received search condition with the specific information memorize
  • FIG. If the acquisition unit 23 determines from the collation that there is specific information that satisfies the search condition, the acquisition unit 23 acquires the first image associated with the specific information from the first storage unit 20 (step S6).
  • the image processing system 100 can shorten the processing time, and can suppress the cost of system construction, and also can be searched according to the needs of the user. Can be extracted (searched) with a high probability.
  • FIG. 8 is a block diagram showing a simplified configuration of the image processing system according to the second embodiment.
  • the image processing system 100 includes a plurality of recording devices 200, and each recording device 200 is installed in association with different monitoring areas (store A and store B in the example of FIG. 8). . That is, in the example of FIG. 8, an imaging device (not shown) such as a monitoring camera is installed in the premises of the stores A and B, respectively, and the premises of the stores A and B are set as monitoring areas. Yes.
  • the recording device 200 is installed in the stores A and B, respectively, and is connected to the imaging devices in the installed stores A and B.
  • the recording device 200 is installed in two stores, but the number of stores in which the recording device 200 is installed is not limited.
  • At least “shooting location” information is associated with the second image as specific information.
  • the specifying unit 40 of the detection apparatus 400 transmits the generated search condition for the first image to the recording apparatus 200 that is the transmission destination detected (determined) from the information of “shooting location” included in the specific information. .
  • the image processing system 100 of the second embodiment has the same configuration as that of the image processing system 100 of the first embodiment, the same effects as those of the first embodiment can be obtained.
  • the storage device 300 and the detection device 400 are devices common to the plurality of recording devices 200.
  • the image processing system 100 according to the second embodiment is provided in each monitoring area as compared with the case where the recording device 200, the storage device 300, and the detection device 400 are unitized (combined as one device). It is possible to simplify the arrangement device. Thereby, the image processing system 100 according to the second embodiment is easier to introduce at each store, for example, than when the recording device 200, the storage device 300, and the detection device 400 are unitized.
  • FIG. 9 is a block diagram showing a simplified configuration of the image processing system according to the third embodiment.
  • the image processing system 100 of the third embodiment includes a configuration that allows the user terminal 500 to specify search conditions for the first image. ing.
  • the user terminal 500 here is not particularly limited as long as it has a communication function, a display function, and an information input function.
  • the detection device 400 further includes a second transmission unit 42 in addition to the specifying unit 40 and the detection unit 41.
  • the image processing system 100 has a configuration in which, for example, an automatic generation mode of a search condition for a first image and a manual generation mode can be selected alternatively.
  • the specifying unit 40 of the detection device 400 generates a search condition for the first image.
  • the second transmission unit 42 transmits the second image detected (searched) by the detection unit 41 and its specific information to the user terminal 500.
  • the communication method between the 2nd transmission part 42 and the user terminal 500 is not limited, A suitable communication method is employ
  • the user terminal 500 when the user terminal 500 receives the second image and the specific information, the user terminal 500 displays the second image and the specific information on the display device.
  • FIG. 10 shows a specific example of the second image and specific information displayed on the display device of the user terminal 500.
  • specific information serving as a search condition for the first image is designated by the user who has seen such display, the designated specific information is transmitted from the user terminal 500 to the recording device 200.
  • the second image is designated by the user
  • the specific information associated with the second image is transmitted from the user terminal 500 to the recording device 200 as the search condition for the first image.
  • the display mode in the user terminal 500 is not limited to the example of FIG.
  • the recording apparatus 200 further includes a receiving unit 24 in addition to the configuration of the first embodiment or the second embodiment.
  • the receiving unit 24 receives the specific information transmitted from the user terminal 500 as a search condition for the first image. Then, when the receiving unit 24 receives the search condition for the first image, the acquiring unit 23 acquires the first image from the first storage unit 20 based on the search condition.
  • the recording apparatus 200 may further include a configuration for transmitting the first image acquired by the acquisition unit 23 toward the user terminal that has transmitted the search condition.
  • the image processing system 100 has a configuration that allows the user to specify search conditions for the first image. Thereby, the image processing system 100 of 3rd embodiment can improve a user's usability.
  • the processing load on the acquisition unit 23 can be reduced. Further, when the first image acquired by the acquisition unit 23 is transmitted to the user terminal, the capacity of the first image transmitted from the recording device 200 to the user terminal can be reduced.
  • the automatic generation mode and the manual generation mode of the search condition for the first image are alternatively selected.
  • the automatic + manual generation mode is further set, and the mode May also be selectable.
  • the automatic + manual generation mode for example, first, the process of the automatic generation mode as described above is executed, and the first image acquired by the acquisition unit 23 is presented to the user. Thereafter, the process of the manual generation mode is executed, and the first image acquired by the process is presented to the user.
  • FIG. 11 is a simplified block diagram showing the configuration of the image processing system according to the fourth embodiment.
  • the image processing system 100 according to the fourth embodiment includes a designation terminal 600 including a designation unit 60 in addition to the configuration of the image processing system 100 according to the first, second, or third embodiment.
  • a designation terminal 600 including a designation unit 60 in addition to the configuration of the image processing system 100 according to the first, second, or third embodiment.
  • FIG. 11 only one recording device 200 is shown, but a plurality of recording devices 200 may be provided as in the second embodiment.
  • the designation unit 60 has a function of receiving a search item of a search condition for the detection unit 41 to narrow down the second image from the user and transmitting the received search item to the detection device 400.
  • the detection unit 41 adds the search item received from the designation unit 60 to the search condition used for the search process for narrowing down the second image, and the second image search process is performed based on the search condition to which the search item is added. Done.
  • the other configuration of the image processing system 100 of the fourth embodiment is the same as that of the image processing system 100 of the first, second, or third embodiment.
  • the image processing system 100 of the fourth embodiment has a configuration that makes it easier to capture user needs in the search processing of the second image. Therefore, the image processing system 100 can provide a first image that better meets the needs of the user.
  • FIG. 12 is a block diagram showing a simplified configuration of the image processing system according to the fifth embodiment.
  • the image processing system 100 of the fifth embodiment includes a detail detection device 700 in addition to the configuration of the image processing system 100 of any one of the first to fourth embodiments.
  • the first transmission unit 22 of the recording device 200 transmits the first image acquired by the acquisition unit 23 toward the detail detection device 700.
  • the timing at which the acquisition unit 23 transmits the first image to the detail detection device 700 may be set time intervals or the timing at which the acquisition unit 23 acquires the first image. The timing instructed by the user may be used.
  • the detail detection device 700 includes a detail detection unit 70 and a display unit 71.
  • the detail detection unit 70 has a function of detecting (searching) a first image that satisfies a preset detailed search condition from among the first images received from the recording device 200.
  • the timing at which the detail detection unit 70 executes the detection process may be every set time interval, or the timing at which the capacity of the first image stored in the storage unit (not shown) of the detail detection device 700 reaches the threshold value. It may be the timing indicated by the user.
  • the detailed search condition used by the detail detection unit 70 for the process is the same content as the search condition used by the detection unit 41 of the detection apparatus 400 for the search process of the second image or a more detailed (limited) condition.
  • the detailed search condition can be appropriately set by a system designer, a user, or the like.
  • the search condition used by the detection unit 41 is a condition “wearing a red hat”
  • the detailed search condition is “wearing a red hat” and “designated” It is a condition of “” that is similar to the face of the person A.
  • the search condition used by the detection unit 41 is a condition “similarity with person A is 60% or more”
  • the detailed search condition is “similarity with person A is 90% or more”.
  • the condition is “”.
  • the display unit 71 has a function of displaying the search result by the detail detection unit 70 on a display device or the like.
  • the display mode of the search result by the display unit 71 may be set as appropriate and is not limited.
  • the display unit 71 may display a comment such as “There is no image that satisfies the condition.” All the first images may be displayed.
  • the image processing system 100 of the fifth embodiment can provide the first image that meets the user's needs with higher accuracy. That is, the detection unit 40 searches the second image (digest image) for the second image corresponding to the search condition, and the acquisition unit 23 obtains the first image based on the search condition generated using the search result. One image is acquired.
  • the image processing system 100 according to the fifth embodiment performs search processing by the detailed detection unit 70 on the first image (in other words, the narrowed first image) acquired by the acquisition unit 23 as described above. Furthermore, the first image can be narrowed down according to the search condition.
  • FIG. 13 is a block diagram showing a simplified configuration of the image processing system according to the sixth embodiment.
  • the image processing system 104 according to the sixth embodiment includes a detection unit 1043 and an acquisition unit 1044.
  • the detection unit 1043 has a function of detecting (searching) a second image that satisfies a preset search condition.
  • the acquisition unit 1044 has a function of acquiring a first image corresponding to the detected second image.
  • FIG. 14 is a block diagram showing a simplified hardware configuration for realizing the image processing system 104 of the sixth embodiment. That is, the image processing system 104 includes a ROM (Read-Only Memory) 7, a communication control unit 8, a RAM (Random Access Memory) 9, a large-capacity storage unit 10, and a CPU (Central Processing Unit) 11. is doing.
  • ROM Read-Only Memory
  • RAM Random Access Memory
  • CPU Central Processing Unit
  • the CPU 11 is a processor for arithmetic control, and realizes the functions of the detection unit 1043 and the acquisition unit 1044 by executing a program.
  • the ROM 7 is a storage medium that stores fixed data such as initial data and a computer program (program).
  • the communication control unit 8 has a configuration for controlling communication with an external device.
  • the RAM 9 is a random access memory that the CPU 11 uses as a work area for temporary storage.
  • the RAM 9 has a capacity for storing various data necessary for realizing each embodiment.
  • the large-capacity storage unit 10 is a non-volatile storage unit, and stores data such as a database necessary for realizing each embodiment, an application program executed by the CPU 11, and the like.
  • the recording device 200 and the detection device 400 in the image processing systems of the first to fifth embodiments also have the hardware configuration shown in FIG. 14 and realize the functions described above.
  • FIG. 15 is a block diagram showing a simplified configuration of the image processing system of the seventh embodiment. That is, in the image processing system 100 of the seventh embodiment, the first storage unit 20 of the recording device 200 is realized by the large-capacity storage unit 10 (see FIG. 14). The control unit 21 and the acquisition unit 23 are realized by the CPU 12 (corresponding to the CPU 11 in FIG. 14). The first transmission unit 22 and the reception unit 24 are realized by the communication control unit 13 (corresponding to the communication control unit 8 in FIG. 14).
  • the second storage unit 30 of the storage device 300 is realized by the large-capacity storage unit 14 (corresponding to the large-capacity storage unit 10 in FIG. 14).
  • the second transmission unit 42 is realized by the communication control unit 15 (corresponding to the communication control unit 8 in FIG. 14).
  • the identification unit 40 and the detection unit 41 of the detection device 400 are realized by the CPU 16 (corresponding to the CPU 11 in FIG. 14).
  • the designation unit 60 of the designation terminal 600 is realized by the display 17.
  • the designation unit 60 is realized by a mouse, a keyboard, a hard key of the designation terminal 600, and the like.
  • the detail detection unit 70 of the detail detection apparatus 700 is realized by the CPU 18 (corresponding to the CPU 11 in FIG. 14).
  • the display unit 71 is realized by the display 19.
  • FIG. 16 is a block diagram showing a simplified configuration of the image processing system according to the eighth embodiment.
  • the image processing system 100 according to the eighth embodiment includes an imaging device 8000 in addition to the configuration of the image processing system 100 according to the first embodiment.
  • the imaging device 8000 is an imaging device such as a security camera installed in a store or facility.
  • the imaging device 8000 includes an imaging unit 801, a first storage unit 810, a control unit 820, and a third transmission unit 830.
  • the first storage unit is provided as the first storage unit 810 in the imaging device 8000 instead of the recording device 200.
  • the imaging unit 801 captures a video of a store or the like and generates a first image.
  • the first storage unit 810 stores the first image generated by the imaging unit 801 in association with the specific information.
  • the specific information may be generated by the imaging device or may be generated by another device.
  • the control unit 820 acquires the first image and its specific information from the first storage unit 810. Then, the control unit 820 generates a third image and a fourth image (generated image) based on the first image.
  • the fourth image is an image having a smaller capacity than the third image.
  • Each of the third image and the fourth image is one or both of a process of reducing the capacity of the first image and a process of extracting an image corresponding to a given extraction condition from the plurality of first images. It is an image obtained by processing. That is, the third image and the fourth image may be generated by extracting some images from the first image, or may be generated by cutting out some of the pixels of the first image. Also good.
  • the third image and the fourth image may be generated by reducing the resolution of all or part of the first image. Furthermore, the third image and the fourth image may be generated by compressing the first image.
  • the third image may be a still image generated using a method such as a JPEG (JointoPhotographic Experts Group) method.
  • the fourth image is H.264. It may be a moving image generated using a method such as the H.264 method. The process for generating the third image and the process for generating the fourth image may be the same or different.
  • control unit 820 determines specific information for specifying the generated third image and fourth image based on the specific information of the first image.
  • the third transmission unit 830 transmits the third image and the fourth image generated by the control unit 820 to the recording device 200. At this time, the third transmission unit 830 also transmits specific information for specifying the third image and specific information for specifying the fourth image to the recording device 200.
  • the recording device 200 is a device such as an STB (set top box) installed in a store or the like.
  • the recording apparatus 200 includes a control unit 21, a first transmission unit 22, and an acquisition unit 23, and further includes a third storage unit 901 instead of the first storage unit 20.
  • the third storage unit 901 stores the third image and the fourth image received from the third transmission unit 830 in association with the specific information.
  • the control unit 21 has a function of generating the second image based on the third image instead of the first image. That is, the control unit 21 performs processing for reducing the capacity of the third image stored in the third storage unit 901 and processing for extracting an image corresponding to a given extraction condition from the plurality of images.
  • the second image is generated by performing one or both of the processes. That is, the control unit 21 generates the second image by reducing the capacity of the third image. Further, the control unit 21 may generate a second image by extracting some images from the third image, or by cutting out some of the pixels of the third image, May be generated. Further, the control unit 21 may generate the second image by reducing the resolution of all or part of the third image, or generate the second image by compressing the third image. Also good.
  • the control unit 21 further determines specific information for specifying the generated second image based on the specific information associated with the third image.
  • the first transmission unit 22 has a function of transmitting the second image generated by the control unit 21 and its specific information to the storage device 300.
  • the storage device 300 has a function of storing the second image in the second storage unit 30.
  • the storage device 300 is realized by a cloud server, for example.
  • the acquisition unit 23 of the recording device 200 When the acquisition unit 23 of the recording device 200 receives the search condition generated using the specific information from the detection device 400, the acquisition unit 23 collates the search condition with the specific information associated with the fourth image in the third storage unit 901. It has a function to do.
  • the acquisition unit 23 has a function of acquiring a fourth image corresponding to the search condition from the third storage unit 901.
  • the third transmission unit 830 may transmit the third image to the storage device 300 instead of the recording device 200.
  • the control unit 21 does not perform the process of generating the second image based on the third image (first image).
  • the second storage unit 30 of the storage device 300 stores the third image received from the third transmission unit 830 as the second image.
  • the image processing system 100 of the eighth embodiment is realized by a hardware configuration as shown in FIG.
  • the control unit 820 of the imaging device 8000 is realized by a CPU / DSP 82 that is a CPU or a DSP (Digital Signal Processor).
  • the photographing unit 801 is realized by an image sensor such as a CCD (Charge Coupled Device).
  • the first storage unit 810 is realized by a large-capacity storage unit 81 such as a RAM (Random Access Memory).
  • the third transmission unit 830 is realized by the communication control unit 83 (communication control unit 8 in FIG. 14).
  • the third storage unit 901 of the recording device 200 is realized by the large-capacity storage unit 90 (the large-capacity storage unit 10 in FIG. 14).
  • the acquisition unit 23 and the control unit 21 are realized by the CPU 91 (CPU 11 in FIG. 14).
  • the first transmission unit 22 is realized by the communication control unit 92 (communication control unit 8 in FIG. 14).
  • the second storage unit 30 of the storage device 300 is realized by the large-capacity storage unit 14 (the large-capacity storage unit 10 in FIG. 14).
  • the identification unit 40 and the detection unit 41 of the detection device 400 are realized by the CPU 16 (CPU 11 in FIG. 14).
  • the imaging device 8000 transmits the third image and the fourth image generated based on the first image, instead of transmitting the first image, which is a captured image, to the recording device 200 as it is. .
  • the communication amount of the third image and the fourth image between the imaging device 8000 and the recording device 200 is smaller than the communication amount of the first image.
  • the image processing system 100 according to the eighth embodiment does not require a high-speed network for transmitting an image from the imaging device 8000 to the recording device 200, and thus can provide a low-cost and fast processing image processing system.
  • the detection unit 41 may perform a process of further narrowing down the acquired first image. For example, it is assumed that a moving image is stored in the first storage unit 20 and a still image extracted from the moving image is stored in the second storage unit 30. In this case, first, the detection unit 41 selects a still image corresponding to a search condition (for example, a condition using a feature amount such as a face) from the still image that is the second image stored in the second storage unit 30. Search (detect).
  • a search condition for example, a condition using a feature amount such as a face
  • specification part 40 produces
  • the acquisition part 23 is the 1st image (video) based on the search conditions by the specific
  • the detection unit 41 searches (detects) the first image corresponding to the moving image search condition (for example, the condition using the feature amount based on the movement of walking) from the received first image (moving image). )
  • Such a search process for the first image can perform a search using both a search condition considering a still image and a search condition considering a moving image. Can be done.
  • search processing of the detection unit 41 as described above may be repeatedly executed a plurality of times, for example, with different search conditions.
  • the image processing system 100 in each embodiment may increase the performance and speed of information analysis by linking with other information management systems.
  • the image processing system 100 can analyze a customer's purchase behavior in conjunction with a point-of-sale information management (POS (Point Of Sales)) system.
  • POS Point Of Sales
  • the detection unit 41 in the image processing system 100 searches (detects) a second image that satisfies a search condition based on a feature amount representing a search target person.
  • POS Point Of Sales
  • the detection unit 41 in the image processing system 100 searches (detects) a second image that satisfies a search condition based on a feature amount representing a search target person.
  • Based on the first image acquired by the processing of the specifying unit 40 and the acquiring unit 23 based on the search result it is calculated how long the person to be searched has stayed at which store. This calculation may be performed by a system user or a calculation unit (not shown) provided in the image processing system 100.
  • the image processing system 100 acquires, from the POS system, purchase status information such as whether or not the person to be searched has purchased a product and what product has been purchased. Thereby, the image processing system 100 can obtain the relationship between the staying time in the store and the purchase behavior.
  • the POS system includes an imaging device. This imaging device is provided at a position where the customer who is paying can be photographed.
  • the image processing system 100 uses a captured image of the imaging apparatus.
  • the POS terminal provided in the POS system generates customer product purchase information based on information input by, for example, a store clerk.
  • the storage unit of the POS system stores the product purchase information and the feature amount of the image captured by the imaging device in association with each other. Thereby, the POS system can associate the merchandise purchase information with the person photographed by the imaging device.
  • each component in each embodiment may be realized by cloud computing.
  • storage part 20 may be comprised by the memory
  • storage part 30 may be comprised by the memory
  • other components may be realized by a cloud server.
  • the second storage unit 30 can quickly receive the second image and process it by the detection device 400 even when the recording device 200 is scattered in a plurality of different stores or remote facilities. it can. For this reason, the user can grasp the situation of a plurality of places in a timely manner.
  • the user can collectively manage the second images at a plurality of locations by cloud computing, the user's labor required for managing the second images is reduced.
  • control unit 21 and the acquisition unit 23 are described as functions of the recording device 200, and the specification unit 40 and the detection unit 41 are described as functions of the detection device 400.
  • the unit 40 and the detection unit 41 may be provided as functions within the same apparatus.
  • An image processing system
  • Appendix 2 A detail detection unit that detects an image satisfying a second predetermined condition from the image acquired by the acquisition unit; The image processing system according to supplementary note 1, wherein the second predetermined condition is a condition that is more detailed than the first predetermined condition.
  • Image processing system The supplementary note 1 or supplementary note 2, wherein the second image is a part of the first image, is a compressed image of the first image, or is an image having a lower resolution than the first image.
  • the image processing system further includes: A second storage unit that stores the second image and specific information for specifying the second image in association with each other; A third storage unit that associates and stores the image generated from the first image and the specific information; and a specific unit that specifies the specific information associated with the detected second image.
  • the image processing system according to any one of Supplementary Note 1 to Supplementary Note 3, wherein the acquisition unit acquires an image associated with the specified specific information from the third storage unit.
  • the image processing system further includes: A first storage unit for storing the first image and specific information for specifying the first image in association with each other; A second storage unit that associates and stores the specific information associated with at least one of the first images and the second image; A specifying unit that specifies the specific information associated with the detected second image,
  • the image processing system according to any one of supplementary notes 1 to 4, wherein the acquisition unit acquires the first image associated with the specified specific information from the first storage unit.
  • Appendix 6 The image processing system according to appendix 4 or appendix 5, wherein the specific information includes information related to at least one of an image capturing date and time, an image capturing location, an image capturing apparatus that captures an image, or an image feature amount.
  • the specifying unit further specifies specific information within a specific condition from the specific information associated with the second image,
  • the image processing system according to any one of supplementary notes 4 to 6, wherein the acquisition unit acquires an image associated with the specific information and specific information within the specific condition.
  • a second transmitter for transmitting the detected second image to the user terminal;
  • a receiving unit that receives specific information associated with the second image arbitrarily designated by the user;
  • the acquisition unit further acquires an image associated with the received specific information,
  • the image processing system according to any one of supplementary notes 4 to 8, further comprising a first transmission unit that transmits the acquired image to a user terminal.
  • Appendix 12 The image processing according to any one of appendix 4 to appendix 6, wherein the specifying unit determines a feature amount within a specific condition from the feature amount associated with the second image as the specific information of the first image. system.
  • the first storage unit stores the first image at a store, The image processing system according to any one of supplementary notes 1 to 12, wherein the second storage unit stores the second image in a cloud server.
  • a second image that satisfies the first predetermined condition is detected from the second image in which the capacity of the first image is reduced, Obtaining an image corresponding to the detected second image from the first image or an image generated from the first image; Image processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Alarm Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 複数の画像の中から条件に該当する画像を抽出する処理に要する時間を短縮化するために、画像処理システム104は、検知部1043と取得部1044を備える。検知部1043は、処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知する。取得部1044は、複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知部により検知された前記第二画像に応じた画像を取得する。

Description

画像処理システム、画像処理方法およびプログラム記憶媒体
 本発明は、画像を検索する画像検索処理に要する時間を短縮化する技術に関する。
 店舗や街に設置された監視カメラ等の撮像装置による撮影画像を利用して、人物や物を検知したり、監視したり、事件・事故に関する情報を提供する画像処理システムが普及してきている。特許文献1には、そのような画像処理システムの一例が開示されている。
 特許文献1における画像処理システムは、監視対象領域内を監視するシステムである。この監視システムでは、撮像装置による撮影画像から画像処理により顔が検知され、検知された顔の特徴量が抽出される。そして、抽出された特徴量が、記憶部に記憶されている登録者リストの情報と照合され、撮影画像に写っている顔が登録者の顔であるか否かが判断される。
特許第5500303号公報
 しかしながら、上記システムでは、撮像装置が撮影した全ての撮影画像が顔検知処理の対象となっている。このため、処理対象の画像処理量が大きく、例えば、撮影画像から特定の人物を検知する場合に、その目的の人物を検知するのに多くの時間を要するという問題がある。また、処理時間の短縮化を図ろうとすると、処理能力の高い高性能な処理装置を導入しなければならず、高性能な処理装置は高価であることから、費用が掛かるという問題が生じる。
 本発明は上記課題を解決するために考え出された。すなわち、本発明の主な目的は、複数の画像の中から条件に該当する画像を抽出する処理に要する時間を短縮化する技術を提供することにある。
 上記目的を達成するために、本発明の画像処理システムは、
 処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知する検知部と、
 複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知部により検知された前記第二画像に応じた画像を取得する取得部と、
を備える。
 また、本発明の画像処理方法は、
 処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知し、
 複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知された前記第二画像に応じた画像を取得する。
 さらに、本発明のプログラム記憶媒体は、
 処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知する処理と、
 複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知された前記第二画像に応じた画像を取得する処理と
をコンピュータに実行させる処理手順が記載されている。
 なお、本発明の主な目的は、本発明の画像処理システムに対応する本発明の画像処理方法によっても達成される。また、本発明の主な目的は、本発明の画像処理システムおよび本発明の画像処理方法に対応するコンピュータプログラムおよびそれを記憶しているプログラム記憶媒体によっても達成される。
 本発明によれば、複数の画像の中から条件に該当する画像を抽出する処理に要する時間を短縮化できる。
本発明に係る第一実施形態の画像処理システムの構成を簡略化して表すブロック図である。 特定情報の具体例を表す図である。 第二画像の生成手法の一例を説明する図である。 店舗間の距離のデータの一例を表す図である。 取得部による第一画像の取得例を説明する図である。 取得部による第一画像の別の取得例を説明する図である。 第一実施形態の画像処理システムの処理の流れを説明するシーケンス図である。 本発明に係る第二実施形態の画像処理システムの構成を簡略化して表すブロック図である。 本発明に係る第三実施形態の画像処理システムの構成を簡略化して表すブロック図である。 第三実施形態において、ユーザ端末の表示部に表示される表示例を表す図である。 本発明に係る第四実施形態の画像処理システムの構成を簡略化して表すブロック図である。 本発明に係る第五実施形態の画像処理システムの構成を簡略化して表すブロック図である。 本発明に係る第六実施形態の画像処理システムの構成を簡略化して表すブロック図である。 ハードウェア構成の一例を表すブロック図である。 本発明に係る第七実施形態の画像処理システムの構成を簡略化して表すブロック図である。 本発明に係る第八実施形態の画像処理システムの構成を簡略化して表すブロック図である。
 以下に、本発明に係る実施の形態を図面を参照しつつ説明する。
 <第一実施形態>
 図1は本発明に係る第一実施形態の構成を表すブロック図である。第一実施形態における画像処理システム100は、録画装置200と、記憶装置300と、検知装置400とを有している。それら装置間における情報通信は情報通信網を通して行われる。
 録画装置200は、第一記憶部20と、制御部21と、第一送信部22と、取得部23とを有している。この録画装置200は、カメラ等の撮像装置(図示せず)に接続されている。当該録画装置200の第一記憶部20は、撮像装置により撮影された撮影画像を第一画像として記憶する。また、第一記憶部20は、第一画像を特定する特定情報を記憶する。それら第一画像と、当該第一画像に関する特定情報とは関連付けられた状態で第一記憶部20に記憶される。
 ここで、特定情報の具体例を挙げる。図2は、特定情報の具体例を表により表す図である。図2の例では、画像の識別情報である画像ID(IDentification)に、複数の特定情報が関連付けられている。図2に表されている特定情報は、“撮影日”、“撮影時刻”、“撮影場所”、“撮像装置の識別情報(ID(IDentification))”、“画像の特徴量”である。図2における特定情報を参照すると、画像ID10000~13600の画像は、“2015年4月1日”に、“店舗A”において、“撮像装置A1”によって撮影された画像であることが分かる。また、例えば、画像ID10000の画像は、“10時00分00秒”に撮影されており、特徴量が“aaa”であることも分かる。
 なお、図2の例では、特定情報である“撮影場所”は、店舗名等の場所を表す名称であるが、“撮影場所”は、緯度経度や、住所等の場所を特定できる名称以外の情報であってもよい。また、特定情報は、図2に表される特定情報に限定されず、画像を特定するのに有効な情報であれば、適宜な情報が特定情報として設定される。
 また、第一記憶部20に記憶される特定情報は、カメラ等の撮像装置が生成した情報であってもよいし、録画装置200が第一画像を分析することにより生成した情報であってもよい。
 制御部21は、第一記憶部20から第一画像を取得し、当該取得した第一画像に基づいて第二画像(ダイジェスト画像)を生成する機能を備えている。第二画像は、第一画像の容量を小さくする処理と、複数の第一画像の中から、与えられた抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる画像である。図3は、第一記憶部20が記憶している複数の第一画像の中から制御部21が画像を抽出することによって、第二画像を生成する具体例を模式的に表す図である。図3の例では、画像IDが“10000”、“10005”、“10010”である3枚の第一画像が第二画像として抽出されている。
 第二画像は、このように、複数の第一画像から抽出条件に基づいて抜き出された画像であってもよい。あるいは、第二画像は、第一画像の全て又は一部の解像度を低下させた画像、あるいは、第一画像を構成する画素のうちの一部分を切り出すことにより生成される画像であってもよい。さらに、第二画像は、第一画像の色情報を圧縮することにより生成される画像であってもよい。このように、第二画像を生成する手法には、様々な手法が有り、これら手法の中から、例えば第一画像の解像度や撮影の時間間隔等を考慮して、適宜な手法が採用されてよいものである。
 さらに、制御部21は、生成した第二画像の基となった第一画像(以下、このような第一画像を基礎画像とも記す)に関連付けられている特定情報に基づいた特定情報をその生成した第二画像に関連付ける機能を備えている。なお、基礎画像(第一画像)に複数の特定情報が関連付けられている場合には、基礎画像の全ての特定情報が第二画像に関連付けられてもよいし、基礎画像の特定情報の中から選択された特定情報が第二画像に関連付けられてもよい。基礎画像の特定情報の中から第二画像の特定情報が選択される場合には、検知装置400が実行する処理で使用する情報を考慮して選択される。
 第一送信部22は、生成された第二画像と、当該第二画像に関する特定情報とを関連付けた状態で記憶装置300に向けて送信する機能を備えている。
 記憶装置300は、第二記憶部30を有する。第二記憶部30は、録画装置200の第一送信部22から送信されてきた第二画像および特定情報を関連付けられた状態で記憶する。
 検知装置400は、特定部40と、検知部41とを有する。検知装置400は、予め設定されたタイミングで、記憶装置300の第二記憶部30から第二画像および特定情報を取り込む機能を備えている。そのタイミングとは、予め設定された時間間隔毎であってもよいし、第二記憶部30に記憶されている第二画像の容量が閾値に達したタイミングであってもよいし、ユーザからの指示を受けたタイミングであってもよい。なお、第二記憶部30に記憶されている第二画像の容量に基づいたタイミングで取り込み動作が行われる場合には、例えば、第二画像の容量が閾値に達したことを知らせる通知が記憶装置300から検知装置400に送信される。
 検知部41は、第二記憶部30から取得した第二画像の中から、与えられた検索条件を満たす第二画像を検知(検索)する機能を備えている。その検索条件とは、第二記憶部30から取得した第二画像を絞り込む条件であり、画像処理システム100のユーザ等により適宜に設定される。その具体例を挙げると、例えば、検索条件は、行方不明者や犯罪の容疑者等の人物を特定する情報に基づいた条件である。また、検索条件は、危険物等の物を特定する情報に基づいた条件であってもよい。なお、人物を特定する情報には、個人を特定しうる顔の特徴、歩き方、性別、年代、髪の色、身長等の情報が含まれる。また、物を特定する情報には、形状の特徴、色、大きさ等の情報が含まれる。これらの情報は、輝度情報、色情報(周波数情報)などを数値化した情報によって表すことができる。さらに、第二画像を絞り込む検索条件には、画像が撮影された日時、場所に関する情報を用いてもよい。さらに、検索条件は、複数の情報の組み合わせによる条件であってもよい。
 特定部40は、検知部41により検知された(絞り込まれた)第二画像に関連付けられている特定情報を利用して、第一画像の検索条件を生成する機能を備えている。その第一画像の検索条件は、検知部41が利用した検索条件を、特定情報を利用して書き換えられた条件とも言える。
 特定部40が生成する検索条件の具体例を以下に述べる。
 例えば、特定部40が生成する検索条件は、第二画像に関連付けられている特定情報である“撮影日”と“撮影時間”を利用した検索条件であるとする。この場合には、特定部40は、検知部41により検知された第二画像に関連付けられている特定情報である“撮影日”と“撮影時間”に、時間幅を持たせた条件を検索条件とする。例えば、検知部41により図3に表される第二画像(画像ID:10005)が検知(検索)されたとする。この検知された第二画像(画像ID:10005)の特定情報による撮影日時は、2015年4月1日10時00分5秒である。特定部40は、その撮影日時に、ユーザやシステム設計者等によって予め与えられている時間幅(ここでは、±3秒とする)を持たせた条件(つまり、撮影日時が2015年4月1日10時00分2秒~8秒という条件)を検索条件として生成する。
 また、別の例として、特定部40が生成する検索条件は、第二画像に関連付けられている特定情報である“撮影場所”を利用した検索条件であるとする。この場合には、特定部40は、その第二画像に関連付けられている“撮影場所”を検索条件としてもよいし、“撮影場所”に検索範囲を広げる情報が付加された条件を検索条件としてもよい。例えば、検知部41により図3に表される第二画像(画像ID:10000)が検知されたとする。この検知された第二画像(画像ID:10000)の特定情報である“撮影場所”は、図2に表されるように、店舗Aである。特定部40は、“店舗A”(つまり、撮影場所が店舗Aであるという条件)を検索条件としてもよい。あるいは、特定部40は、“店舗A”に、ユーザやシステム設計者等により与えられた検索範囲を広げる情報(ここでは、6km圏内)が付加された条件(つまり、撮影場所が店舗Aを中心にした6km圏内であるという条件)を検索条件とする。
 なお、この検索条件は、より検索項目を明確化することが好ましい。この場合には、検知装置400には、図4に表されるような店舗間の距離の情報が与えられる。そして、特定部40は、その情報を利用して、店舗Aを中心にした6km圏内の店舗(つまり、店舗A、店舗B、店舗C)を検知する。さらに、特定部40は、撮影場所が店舗Aを中心にした6km圏内であるという検索条件を、撮影場所が店舗A、店舗B、店舗Cであるという検索条件に置換する。
 さらに、別の例として、特定部40が生成する検索条件は、第二画像に関連付けられている特定情報である“特徴量”を利用した検索条件であるとする。“特徴量”とは、人物や物を特徴づける情報を定量化した情報である。例えば、輝度情報、色情報(周波数情報)などを数値化した情報が特徴量にあたる。特徴量の算出手法には、様々な手法が有り、ここでは、適宜な手法により特徴量が算出される。
 特徴量を利用する場合には、特定部40は、検知部41により検知された第二画像に関連付けられている特定情報である“特徴量”に検索範囲を広げる情報が付加された条件を検索条件とする。例えば、検知部41により検知された第二画像(画像ID:10005)の特定情報である“特徴量”が、図3に表されているように、“fff”であるとする(なお、ここでは、fは正の整数とする)。特定部40は、特徴量“fff”の一部を変化させた特徴量を検索範囲を広げる情報とする。例えば、特定部40は、特徴量“ffX”、“fXf”、“Xff”(Xは、任意の正の整数とする)を、検索範囲を広げる情報として生成し、生成した特徴量を特徴量“fff”と共に検索条件とする。
 さらにまた、別の例として、特定部40が生成する検索条件は、第二画像に関連付けられている特定情報である“撮像装置ID”と“撮影日”と“撮影時間”を利用した検索条件であるとする。この場合には、特定部40は、検知部41により検知された第二画像に関連付けられている特定情報である“撮影日”と“撮影時間”に、“撮像装置ID”に応じた時間幅を持たせた条件を検索条件とする。例えば、検知部41により図3に表される第二画像(画像ID:10005)が検知(検索)されたとする。この検知された第二画像(画像ID:10005)の特定情報による撮影日時は、2015年4月1日10時00分5秒である。また、検知された第二画像の特定情報である“撮像装置ID”は、A1である。
 ここで、撮像装置ID:“A1”には、“撮影時間の5秒後まで”という時間幅の情報が設定され、撮像装置ID:“A2”には、“撮影時間の前後3秒間”という時間幅の情報が設定される。このように、撮像装置ID毎に設定された時間幅の情報が検知装置400に与えられる。
 特定部40は、検知部41により検知された第二画像に関連付けられている特定情報である撮像装置ID:“A1”に応じた時間幅の情報(つまり、“撮影時間の5秒後まで”)を検知する。そして、特定部40は、第二画像に関連付けられている特定情報に基づいた撮影日時に、その時間幅を持たせた条件を検索条件として生成する。つまり、この場合の検索条件は、撮影日時が2015年4月1日10時00分5秒~2015年4月1日10時00分10秒であるという条件である。
 さらにまた、別の例として、特定情報である“撮像装置ID”には、時間幅の情報に加えて、別の撮像装置IDの情報が関連付けられていてもよい。例えば、撮像装置ID:“A1”には、時間幅の情報(つまり、“撮影時間の5秒後まで”)のほかに、別の撮像装置ID:“A2”が関連付けられる。この場合には、特定部40は、撮像装置ID:“A1”が撮影した画像および撮像装置ID:“A2”が撮影した画像のうち、撮影日時が2015年4月1日10時00分5秒~2015年4月1日10時00分10秒であるという条件を検索条件として生成する。
 上記のように特定部40により生成された検索条件は録画装置200に送信される。
 録画装置200の取得部23は、検知装置400の特定部40から送信されてきた検索条件を、第一記憶部20に記憶されている第一画像の特定情報と照合する機能を備えている。さらに、取得部23は、その検索条件に該当する特定情報が第一記憶部20に有った場合には、その特定情報に関連付けられている第一画像を、第一記憶部20から取得する機能を備えている。
 具体的には、例えば、検索条件が、撮影日時が2015年4月1日10時00分2秒~8秒であるという検索条件であるとする。この場合には、取得部23は、第一画像に関連付けられている特定情報である“撮影日”と“撮影時間”に基づいて、検索条件に該当する図5に表されるG範囲内の第一画像を取得する。これにより、例えば、ユーザは、探している対象物が撮影されている可能性の高い時間帯の第一画像(つまり、監視カメラ等により撮影された画像)を得ることができる。
 また、例えば、検索条件が、店舗Aを中心にした6km圏内の店舗(つまり、店舗A、店舗B、店舗C)という検索条件であるとする。この場合には、取得部23は、第一画像に関連付けられている特定情報である“撮影場所”に基づいて、検索条件に該当する第一画像を取得する。これにより、例えば、ユーザは、探している対象物が撮影されている可能性の高い場所で撮影された第一画像(つまり、監視カメラ等により撮影された画像)を得ることができる。
 さらに、例えば、検索条件が、特徴量が“fff”、“ffX”、“fXf”、“Xff”であるという検索条件であるとする。この場合には、取得部23は、第一画像に関連付けられている特定情報である“特徴量”に基づいて、検索条件に該当する図6においてハッチングされている第一画像を取得する。これにより、例えば、ユーザは、探している対象物および当該対象物に類似している物体が撮影されている第一画像(つまり、監視カメラ等により撮影された画像)を得ることができる。
 さらに、検索条件が、撮像装置ID:“A1”が撮影した画像および撮像装置ID:“A2”が撮影した画像のうち、撮影日時が2015年4月1日10時00分5秒~2015年4月1日10時00分10秒であるという検索条件であるとする。この場合には、取得部23は、第一画像に関連付けられている特定情報である“撮像装置ID”と“撮影日”と“撮影時間”に基づいて、検索条件に該当する第一画像を取得する。これにより、例えば、ユーザは、探している対象物が撮影されている可能性の高い場所および時間帯にて撮影された第一画像(つまり、監視カメラ等により撮影された画像)を得ることができる。
 上記のように、取得部23により取得された第一画像は、録画装置200に接続されているディスプレイ装置に表示されてもよいし、録画装置200から、予め設定された送信先のユーザ端末に向けて送信されてもよい。
 第一実施形態の画像処理システム100は上記のように構成されている。これにより、第一実施形態の画像処理システム100は次のような効果を得ることができる。すなわち、第一実施形態の画像処理システム100は、第一画像の容量を小さくする処理と、複数の第一画像の中から、与えられた抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって、第二画像(ダイジェスト画像)を得る。そして、当該画像処理システム100は、その第二画像の中から検索条件に該当する画像を検知する。このため、画像処理システム100は、第一画像の中からその検索条件に該当する画像を検知する場合よりも、処理の負荷が小さくなり、検知処理に要する時間の短縮化や、検知精度の向上を図ることができる。
 さらに、画像処理システム100は、検索条件に該当する第二画像に関連付けられている特定情報を利用して第一画像の検索条件を生成し、生成した検索条件と特定情報との照合により第一画像を検索する。このため、画像処理システム100は、画像処理により検索条件に該当する第一画像が有るか否かを判断する等という検索処理を行う場合よりも、検索処理の負荷を軽減でき、かつ、検索処理に要する時間の短縮化を図ることができる。
 さらに、画像処理システム100では、録画装置200から記憶装置300には、第一画像ではなく第二画像を送信する。このため、画像処理システム100では、録画装置200から記憶装置300に全ての第一画像を送信する場合に比べて、録画装置200と記憶装置300との間の通信量を削減することができる。これにより、画像処理システム100は、録画装置200と記憶装置300との間の通信に、高速かつ大容量の情報通信網を採用しなくともよいという効果を得ることができる。
 上記のように、第一実施形態の画像処理システム100は、処理時間の短縮化を図ることができ、かつ、システム構築のコストを抑制できる上に、ユーザのニーズに合った検索の対象物が撮影されている第一画像を高い確率で抽出(検索)できる。
 以下に、第一実施形態の画像処理システム100の動作例を図7を利用して説明する。図7は、第一実施形態の画像処理システム100の動作例を表すシーケンス図である。
 例えば、録画装置200は、撮像装置により撮影された画像(第一画像)を受信すると(図7のステップS1)、その受信した第一画像に特定情報を関連付け、これら第一画像および特定情報を第一記憶部20に格納する。
 また、録画装置200の制御部21は、第一記憶部20が記憶している第一画像および特定情報を取得する。そして、制御部21は、取得した第一画像の容量を小さくする処理と、複数の第一画像の中から抽出条件に基づいて画像を抽出する処理との一方又は両方を実行することにより、第二画像を生成する(ステップS2)。さらに、制御部21は、生成した第二画像の基となった第一画像(基礎画像)に関連付けられている特定情報に基づいて、第二画像を特定する特定情報を確定する。そして、第一送信部22は、生成された第二画像とその特定情報とを関連付けた状態で記憶装置300に送信する。
 記憶装置300の第二記憶部30は、第一送信部22から受信した第二画像と特定情報とを関連付けた状態で記憶する(ステップS3)。
 検知装置400では、検知部41は、記憶装置300の第二記憶部30から取得した第二画像の中から、与えられた検索条件に該当する第二画像が有るか否かを判断する(ステップS4)。そして、検索条件に該当する第二画像が無いと検知部41が判断した場合には、検知装置400は処理を終了し、次の処理に備えた待機状態となる。一方、検索条件に該当する第二画像が有ると検知部41が判断した場合には、特定部40は、検索条件に該当する第二画像に関連付けられている特定情報を利用した検索条件を生成する(ステップS5)。生成された検索条件は録画装置200に送信される。
 そして、録画装置200の取得部23は、検知装置400の特定部40から検索条件を受け取ると、受け取った検索条件を第一記憶部20に記憶されている特定情報と照合する。取得部23は、その照合により、検索条件に該当する特定情報が有ると判断した場合には、その特定情報に関連付けられている第一画像を第一記憶部20から取得する(ステップS6)。
 このような処理により、第一実施形態の画像処理システム100は、処理時間の短縮化を図ることができ、かつ、システム構築のコストを抑制できる上に、ユーザのニーズに合った検索の対象物が撮影されている第一画像を高い確率で抽出(検索)できる。
 <第二実施形態>
 以下に、本発明に係る第二実施形態を説明する。なお、第二実施形態の説明において、第一実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図8は、第二実施形態の画像処理システムの構成を簡略化して表すブロック図である。第二実施形態では、画像処理システム100は、複数の録画装置200を備え、各録画装置200は、互いに異なる監視エリア(図8の例では店舗Aと店舗B)に関連付けられて設置されている。すなわち、図8の例では、店舗A,Bの敷地内には、それぞれ、監視カメラ等の撮像装置(図示せず)が設置され、店舗A,Bの敷地内は、監視エリアに設定されている。録画装置200は、店舗A,Bにそれぞれ設置され、設置されている店舗A,Bにおける撮像装置に接続されている。
 なお、図8では、録画装置200は、2つの店舗に設置されているが、録画装置200が設置される店舗数は限定されない。
 また、第二実施形態では、第二画像には、特定情報として、少なくとも“撮影場所”の情報が関連付けられている。検知装置400の特定部40は、生成した第一画像の検索条件を、その特定情報に含まれている“撮影場所”の情報から検知(確定)した送信先の録画装置200に向けて送信する。
 この第二実施形態の画像処理システム100の上記以外の構成は、第一実施形態の画像処理システム100と同様である。
 第二実施形態の画像処理システム100は、第一実施形態の画像処理システム100と同様な構成を備えているので、第一実施形態と同様の効果を得ることができる。また、第二実施形態では、記憶装置300と検知装置400は、複数の録画装置200に共通の装置である。このため、第二実施形態の画像処理システム100は、録画装置200と記憶装置300と検知装置400がユニット化されている(一つの装置として組み合わされている)場合に比べて、各監視エリアに配置する装置の簡素化を図ることができる。これにより、第二実施形態の画像処理システム100は、録画装置200と記憶装置300と検知装置400がユニット化されている場合に比べて、例えば、各店舗において導入しやすくなる。
 <第三実施形態>
 以下に、本発明に係る第三実施形態を説明する。なお、この第三実施形態の説明において、第一実施形態又は第二実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図9は、第三実施形態の画像処理システムの構成を簡略化して表すブロック図である。第三実施形態の画像処理システム100は、第一実施形態あるいは第二実施形態の画像処理システム100の構成に加えて、第一画像の検索条件をユーザ端末500にて指定可能にする構成を備えている。ここでのユーザ端末500は、通信機能と表示機能と情報入力機能を備えていれば、特に限定されない。
 すなわち、第三実施形態では、検知装置400は、特定部40と検知部41に加えて、さらに、第二送信部42を備えている。この第三実施形態の画像処理システム100は、例えば、第一画像の検索条件の自動生成モードと、手動生成モードとを択一的に選択可能な構成を備える。自動生成モードが選択されている場合には、第一実施形態あるいは第二実施形態と同様に、検知装置400の特定部40が第一画像の検索条件を生成する。手動生成モードが選択されている場合には、第二送信部42が、検知部41により検知(検索)された第二画像とその特定情報をユーザ端末500に向けて送信する。なお、第二送信部42と、ユーザ端末500との間の通信手法は限定されず、適宜な通信手法が採用される。
 この第三実施形態の画像処理システム100では、例えば、ユーザ端末500は、第二画像と特定情報を受け取ると、それら第二画像と特定情報をディスプレイ装置に表示する。図10には、ユーザ端末500のディスプレイ装置に表示される第二画像と特定情報の具体例が表されている。このような表示を見たユーザによって第一画像の検索条件となる特定情報が指定された場合には、その指定された特定情報がユーザ端末500から録画装置200に向けて発信される。また、ユーザによって第二画像が指定された場合には、その第二画像に関連付けられている特定情報が第一画像の検索条件としてユーザ端末500から録画装置200に向けて発信される。なお、ユーザ端末500における表示態様は図10の例に限定されない。
 録画装置200は、第一実施形態あるいは第二実施形態の構成に加えて、さらに、受信部24を備える。受信部24は、ユーザ端末500が発信した特定情報を第一画像の検索条件として受け取る。そして、取得部23は、受信部24が第一画像の検索条件を受け取った場合には、当該検索条件に基づいて第一画像を第一記憶部20から取得する。
 第三実施形態の画像処理システム100の上記以外の構成は、第一実施形態あるいは第二実施形態と同様である。なお、録画装置200は、さらに、取得部23が取得した第一画像を、検索条件を発信したユーザ端末に向けて送信する構成を備えてもよい。
 この第三実施形態の画像処理システム100は、第一画像の検索条件をユーザが指定可能な構成を備えている。これにより、第三実施形態の画像処理システム100は、ユーザの使い勝手を向上させることができる。
 また、第三実施形態では、検知部41により絞り込まれた第二画像から、さらに、ユーザによって第二画像が絞り込まれるので、取得部23での処理の負荷を軽減させることができる。さらに、取得部23が取得した第一画像がユーザ端末に送信される構成を備える場合には、録画装置200からユーザ端末に送信される第一画像の容量を小さくすることができる。
 なお、上記例では、第一画像の検索条件の自動生成モードと、手動生成モードとが択一的に選択される例を説明しているが、自動+手動生成モードがさらに設定され、当該モードをも選択可能にしてもよい。自動+手動生成モードが選択された場合には、例えば、まず、上記したような自動生成モードの処理が実行され取得部23により取得された第一画像がユーザに提示される。その後に、手動生成モードの処理が実行され当該処理により取得された第一画像がユーザに提示される。
 <第四実施形態>
 以下に、本発明に係る第四実施形態を説明する。なお、この第四実施形態の説明において、第一又は第二又は第三の実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図11は、第四実施形態の画像処理システムの構成を簡略化して表すブロック図である。第四実施形態の画像処理システム100は、第一又は第二又は第三の実施形態の画像処理システム100の構成に加えて、指定部60を備えた指定端末600を備えている。なお、図11では、1つの録画装置200のみが図示されているが、第二実施形態と同様に、複数の録画装置200が備えられていてもよい。
 指定部60は、検知部41が第二画像を絞り込む検索条件の検索項目をユーザから受け付け、受け付けた検索項目を検知装置400に送信する機能を備えている。
 検知部41は、第二画像を絞り込む検索処理に利用する検索条件に、指定部60から受け取った検索項目を追加し、この検索項目が追加された検索条件に基づいて第二画像の検索処理が行われる。
 第四実施形態の画像処理システム100の上記以外の構成は、第一又は第二又は第三の実施形態の画像処理システム100の構成と同様である。
 第四実施形態の画像処理システム100は、第二画像の検索処理に、ユーザのニーズをより取り込み易くする構成を備えている。このため、当該画像処理システム100は、ユーザのニーズに、より合った第一画像を提供することが可能になる。
 <第五実施形態>
 以下に、本発明に係る第五実施形態を説明する。なお、この第五実施形態の説明において、第一~第四の実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図12は、第五実施形態の画像処理システムの構成を簡略化して表すブロック図である。第五実施形態の画像処理システム100は、第一~第四の何れか一つの実施形態の画像処理システム100の構成に加えて、詳細検知装置700を備えている。また、第五実施形態では、録画装置200の第一送信部22は、取得部23が取得した第一画像を詳細検知装置700に向けて送信する。なお、取得部23が詳細検知装置700に第一画像を送信するタイミングは、設定された時間間隔毎であってもよいし、取得部23が第一画像を取得したタイミングであってもよいし、ユーザが指示したタイミングであってもよい。
 詳細検知装置700は、詳細検知部70と表示部71を含む。詳細検知部70は、録画装置200から受信した第一画像の中から、予め設定された詳細検索条件を満たす第一画像を検知(検索)する機能を備えている。詳細検知部70が検知処理を実行するタイミングは、設定された時間間隔毎でもよいし、詳細検知装置700の記憶部(図示せず)に記憶された第一画像の容量が閾値に達したタイミングであってもよいし、ユーザが指示したタイミングであってもよい。
 詳細検知部70が処理に利用する詳細検索条件は、検知装置400の検知部41が第二画像の検索処理に利用する検索条件と同じ内容又はより詳細な(限定される)条件である。詳細検索条件は、システム設計者やユーザ等が適宜に設定できるものである。具体例を挙げると、例えば、検知部41が利用する検索条件が、“赤い帽子を被っている”という条件であった場合に、詳細検索条件は、“赤い帽子を被っている”および“指定した人物Aの顔と類似する” という条件とする。また、例えば、検知部41が利用する検索条件が、“人物Aとの類似度が60%以上”という条件であった場合に、詳細検索条件は、“人物Aとの類似度が90%以上” という条件とする。
 表示部71は、詳細検知部70による検索結果をディスプレイ装置等に表示する機能を備えている。表示部71による検索結果の表示態様は適宜設定されてよく、限定されない。なお、詳細検索条件に該当する第一画像が無かった場合には、表示部71は、「条件に合う画像はありません。」等のコメントを表示してもよいし、検索処理の対象であった全ての第一画像を表示してもよい。
 第五実施形態の画像処理システム100の上記以外の構成は、第一~第四の実施形態の画像処理システム100の構成と同様である。この第五実施形態の画像処理システム100は、より精度良くユーザのニーズに合った第一画像を提供することができる。すなわち、検知部40は、第二画像(ダイジェスト画像)の中から検索条件に該当する第二画像を検索し、取得部23は、その検索結果を利用して生成された検索条件に基づいた第一画像を取得している。この第五実施形態の画像処理システム100は、そのように取得部23により取得された第一画像(換言すれば、絞り込まれた第一画像)に、詳細検知部70により検索処理を行うので、さらに、第一画像を検索条件に応じて絞り込むことができる。
 <第六実施形態>
 以下に、本発明に係る第六実施形態を説明する。
 図13は、第六実施形態の画像処理システムの構成を簡略化して表すブロック図である。第六実施形態の画像処理システム104は、検知部1043と取得部1044を備えている。検知部1043は、予め設定された検索条件を満たす第二画像を検知(検索)する機能を備えている。取得部1044は、検知された第二画像に応じた第一画像を取得する機能を備えている。
 図14は、第六実施形態の画像処理システム104を実現するハードウェア構成を簡略化して表すブロック図である。すなわち、画像処理システム104は、ROM(Read-Only Memory)7と、通信制御部8と、RAM(Random Access Memory)9と、大容量記憶部10と、CPU(Central Processing Unit)11とを有している。
 CPU11は演算制御用のプロセッサであり、プログラムを実行することによって、検知部1043と取得部1044の各機能を実現する。ROM7は、初期データなどの固定データおよびコンピュータプログラム(プログラム)を記憶する記憶媒体である。通信制御部8は、外部の装置との通信を制御する構成を備えている。RAM9は、CPU11が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM9には、各実施形態の実現に必要な種々のデータを記憶する容量が確保される。大容量記憶部10は、不揮発性記憶部であり、各実施形態の実現に必要なデータベース等のデータや、CPU11が実行するアプリケーションプログラム等を記憶する。
 なお、第一~第五の実施形態の画像処理システムにおける録画装置200および検知装置400も、図14に表されるハードウェア構成を有し、前記したような各機能が実現される。
 <第七実施形態>
 以下に、本発明に係る第七実施形態を説明する。なお、この第七実施形態の説明において、第一~第六の実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図15は第七実施形態の画像処理システムの構成を簡略化して表すブロック図である。すなわち、第七実施形態の画像処理システム100においては、録画装置200の第一記憶部20は、大容量記憶部10(図14参照)によって実現される。制御部21および取得部23は、CPU12(図14におけるCPU11に相当)によって実現される。第一送信部22および受信部24は、通信制御部13(図14における通信制御部8に相当)によって実現される。
 記憶装置300の第二記憶部30は、大容量記憶部14(図14における大容量記憶部10に相当)によって実現される。第二送信部42は、通信制御部15(図14における通信制御部8に相当)によって実現される。
 検知装置400の特定部40および検知部41は、CPU16(図14におけるCPU11に相当)によって実現される。
 指定端末600の指定部60は、ディスプレイ17によって実現される。また、指定部60は、マウス、キーボード、指定端末600のハードキー等によって実現される。
 詳細検知装置700の詳細検知部70は、CPU18(図14におけるCPU11に相当)によって実現される。表示部71は、ディスプレイ19によって実現される。
 <第八実施形態>
 以下に、本発明に係る第八実施形態を説明する。なお、この第八実施形態の説明において、第一~第七の実施形態の画像処理システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 図16は第八実施形態の画像処理システムの構成を簡略化して表すブロック図である。第八実施形態の画像処理システム100は、第一実施形態の画像処理システム100の構成に加えて、撮像装置8000を備えている。
 撮像装置8000は、店舗や施設に設置された防犯カメラ等の撮像装置である。撮像装置8000は、撮影部801と、第一記憶部810と、制御部820と、第三送信部830とを備えている。第八実施形態では、第一記憶部は録画装置200ではなく、撮像装置8000に第一記憶部810として備えられている。
 すなわち、撮影部801は店舗等の映像を撮影し、第一画像を生成する。第一記憶部810は、撮影部801が生成した第一画像をその特定情報と関連付けて記憶する。なお、特定情報は撮像装置が生成してもよいし、他の装置が生成してもよい。
 制御部820は、第一記憶部810から第一画像およびその特定情報を取得する。そして、制御部820は、第一画像に基づいて、第三画像と第四画像(生成画像)を生成する。第四画像は第三画像よりも容量が小さい画像である。第三画像および第四画像は、それぞれ、第一画像の容量を小さくする処理と、複数の第一画像の中から、与えられた抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる画像である。つまり、第三画像と第四画像は、第一画像からいくつかの画像を抜き出すことにより、生成されてもよいし、第一画像が有する画素のうちの一部を切り出すことにより、生成されてもよい。また、第三画像と第四画像は、第一画像の全て又は一部の解像度を低下させることにより、生成されてもよい。さらに、第三画像と第四画像は、第一画像を圧縮することにより、生成されてもよい。なお、第三画像はJPEG(Joint Photographic Experts Group)方式等の方式を用いて生成された静止画像であってもよい。また、第四画像は、H.264方式等の方式を用いて生成された動画像であってもよい。第三画像を生成する処理と、第四画像を生成する処理は、同様であってもよいし、異なっていてもよい。
 さらに、制御部820は、第一画像の特定情報に基づいて、生成した第三画像および第四画像を特定する特定情報を確定する。
 第三送信部830は、制御部820が生成した第三画像および第四画像を録画装置200に送信する。このとき、第三送信部830は、第三画像を特定する特定情報および第四画像を特定する特定情報も録画装置200に送信する。
 録画装置200は、ここでは、店舗等に設置されたSTB(セットトップボックス)等の装置である。録画装置200は、制御部21と第一送信部22と取得部23を備え、さらに、第一記憶部20に代えて第三記憶部901を備える。第三記憶部901は、第三送信部830から受信した第三画像および第四画像をそれら特定情報と関連付けて記憶する。
 制御部21は、第一画像に代えて、第三画像に基づいて第二画像を生成する機能を備える。つまり、制御部21は、第三記憶部901に記憶されている第三画像に、容量を小さくする処理と、それら複数の画像の中から、与えられた抽出条件に該当する画像を抽出する処理との一方又は両方の処理を行うことにより、第二画像を生成する。つまり、制御部21は、第三画像の容量を小さくすることにより、第二画像を生成する。また、制御部21は、第三画像からいくつかの画像を抜き出すことにより、第二画像を生成してもよいし、第三画像が有する画素のうちの一部を切り出すことにより、第二画像を生成してもよい。さらに、制御部21は、第三画像の全て又は一部の解像度を低下させることにより、第二画像を生成してもよいし、第三画像を圧縮することにより、第二画像を生成してもよい。
 制御部21は、さらに、第三画像に関連付けられている特定情報に基づいて、生成した第二画像を特定する特定情報を確定する。
 第一送信部22は、制御部21が生成した第二画像およびその特定情報を記憶装置300に送信する機能を備えている。記憶装置300は、第二記憶部30に第二画像を記憶する機能を備えている。この記憶装置300は、例えばクラウドサーバによって実現される。
 録画装置200の取得部23は、特定情報を利用して生成された検索条件を検知装置400から受信すると、その検索条件を第三記憶部901の第四画像に関連付けられている特定情報と照合する機能を備えている。そして、取得部23は、検索条件に該当する第四画像を第三記憶部901から取得する機能を備えている。
 なお、第三送信部830は、第三画像を、録画装置200ではなく、記憶装置300に送信してもよい。この場合には、制御部21は、第三画像(第一画像)に基づいて第二画像を生成する処理は行わない。また、記憶装置300の第二記憶部30は、第三送信部830から受信した第三画像を第二画像として記憶する。
 第八実施形態の画像処理システム100は、図16に表すようなハードウェア構成によって実現される。例えば、撮像装置8000の制御部820は、CPU又はDSP(Digital Signal Processor)であるCPU/DSP82によって実現される。撮影部801は、CCD(Charge Coupled Device)等のイメージセンサでよって実現される。第一記憶部810は、RAM(Random Access Memory)などの大容量記憶部81によって実現される。第三送信部830は、通信制御部83(図14における通信制御部8)によって実現される。
 録画装置200の第三記憶部901は、大容量記憶部90(図14における大容量記憶部10)によって実現される。取得部23および制御部21は、CPU91(図14におけるCPU11)によって実現される。第一送信部22は、通信制御部92(図14における通信制御部8)によって実現される。
 記憶装置300の第二記憶部30は、大容量記憶部14(図14における大容量記憶部10)によって実現される。
 検知装置400の特定部40および検知部41は、CPU16(図14におけるCPU11)によって実現される。
 第八実施形態では、撮像装置8000は、撮影画像である第一画像をそのまま録画装置200に送信するのではなく、第一画像に基づいて生成した第三画像および第四画像を送信している。撮像装置8000と録画装置200との間における第三画像および第四画像の通信量は、第一画像の通信量よりも小さい。このため、第八実施形態の画像処理システム100は、撮像装置8000から録画装置200に画像を送信するために高速なネットワークを必要しないため、低コストかつ処理の速い画像処理システムを提供できる。
 <その他の実施形態>
 なお、本発明は上記各実施の形態に限定されず、様々な実施の態様を採り得る。例えば、録画装置200の取得部23が第一画像を取得した後に、検知部41がその取得した第一画像をさらに絞り込む処理を行ってもよい。例えば、第一記憶部20には動画が記憶され、第二記憶部30にはその動画から抽出された静止画が記憶されているとする。この場合には、まず、検知部41は、第二記憶部30に記憶されている第二画像である静止画から検索条件(例えば顔等の特徴量を利用した条件)に該当する静止画を検索(検知)する。そして、この検索された第二画像に関連付けられている特定情報を利用して特定部40が検索条件を生成し、取得部23が、その特定部40による検索条件に基づいた第一画像(動画)を取得すると、当該第一画像が検知装置400に送信される。その後、検知部41は、受信した第一画像(動画)の中から、動画用の検索条件(例えば歩き方の動きに基づいた特徴量を利用した条件)に該当する第一画像を検索(検知)する。
 このような第一画像(動画)の検索処理は、静止画を考慮した検索条件と、動画を考慮した検索条件との両方を利用した検索を行うことができるので、人物等の検索を高精度に行うことができる。
 なお、上記のような検知部41の検索処理は複数回、例えば検索条件を替えて繰り返し実行されてもよい。
 また、各実施形態における画像処理システム100は、他の情報管理システムと連動することにより、情報分析の高性能化および高速化を図ってもよい。例えば、画像処理システム100は、販売時点情報管理(POS(Point Of Sales))システムと連動することで、顧客の購買行動を分析することができる。具体的には、まず、画像処理システム100における検知部41が、検索対象の人物を表す特徴量に基づいた検索条件に該当する第二画像を検索(検知)する。この検索結果に基づいた特定部40と取得部23の処理により取得された第一画像に基づいて、検索対象の人物がどのくらいの時間、どの店舗に滞在していたかが算出される。なお、この算出は、システムのユーザが行ってもよいし、画像処理システム100に設けられている算出部(図示せず)が行ってもよい。
 一方、画像処理システム100は、POSシステムから、検索対象の人物が商品を購入したか否か、また、どんな商品を購入したかというような購買状況の情報を取得する。これにより、画像処理システム100は、店舗での滞在時間と購買行動との関係性を得ることができる。なお、POSシステムは、撮像装置を備えている。この撮像装置は、会計中の顧客を撮影できる位置に設けられる。画像処理システム100は、その撮像装置の撮影画像を利用する。また、POSシステムに備えられるPOS端末は、例えば店員等により入力された情報に基づいて顧客の商品購買情報を生成する。さらに、POSシステムの記憶部は、その商品購買情報と、撮像装置が撮像した画像の特徴量とを関連付けて記憶する。これにより、POSシステムは、商品購買情報と、撮像装置に撮影されている人物とを関連付けることができる。
 なお、各実施形態における各構成要素は、クラウドコンピューティングによって実現されてもよい。例えば、第一記憶部20は、店舗に設置された記憶装置又は撮像装置における記憶部により構成されてもよい。また、第二記憶部30はクラウドサーバにおける記憶装置により構成されてもよい。さらに、その他の構成要素もクラウドサーバによって実現されてもよい。これにより、第二記憶部30は、互いに異なる複数の店舗や遠隔地にある施設等に録画装置200が点在している場合にも、迅速に第二画像を受信し、検知装置400により処理できる。このため、ユーザはタイムリーに複数の場所の状況を把握することができる。また、ユーザは、複数個所の第二画像をクラウドコンピューティングによって一括で管理できるため、第二画像の管理に要するユーザの労力が軽減される。
 さらに、各実施形態では、制御部21と取得部23は録画装置200の機能とし、特定部40と検知部41は検知装置400の機能として説明したが、それら制御部21と取得部23と特定部40と検知部41は、同じ装置内の機能として持たせてもよい。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2015年3月2日に出願された日本出願特願2015-040141を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 第一画像の容量を小さくした第二画像から、第一所定条件を満たす第二画像を検知する検知部と、
 検知された前記第二画像に対応する画像を、前記第一画像又は前記第一画像から生成された画像から取得する取得部と、
を有する画像処理システム。
 (付記2)
 前記取得部が取得した画像から、第二所定条件を満たす画像を検知する詳細検知部を有し、
 前記第二所定条件は、前記第一所定条件より詳細な条件である
付記1記載の画像処理システム。
 (付記3)
 前記第二画像は、前記第一画像の一部であるか、前記第一画像が圧縮された画像であるか、又は前記第一画像よりも解像度が低い画像である
付記1又は付記2記載の画像処理システム。
 (付記4)
 前記画像処理システムは、さらに、
 前記第二画像と、前記第二画像を特定する特定情報とを関連付けて記憶する第二記憶部と、
 前記第一画像から生成された画像と前記特定情報とを関連付けて記憶する第三記憶部と、検知された前記第二画像に関連付けられている前記特定情報を特定する特定部と、を有し、
 前記取得部は、特定された前記特定情報に関連付けられている画像を、前記第三記憶部から取得する
付記1乃至付記3の何れか一つに記載の画像処理システム。
 (付記5)
 前記画像処理システムは、さらに、
 前記第一画像と、前記第一画像を特定する特定情報とを関連付けて記憶する第一記憶部と、
 前記第一画像のうちの少なくとも何れかひとつと関連付けられている前記特定情報と、前記第二画像とを関連付けて記憶する第二記憶部と、
 検知された前記第二画像に関連付けられている前記特定情報を特定する特定部と、を有し、
 前記取得部は、特定された前記特定情報に関連付けられている前記第一画像を、前記第一記憶部から取得する
付記1乃至付記4の何れか一つに記載の画像処理システム。
 (付記6)
 前記特定情報は、画像の撮像日時、画像の撮像場所、画像を撮像した撮像装置、又は画像の特徴量の少なくとも一つに関する情報を含む
付記4又は付記5記載の画像処理システム。
 (付記7)
 前記特定部は、さらに、前記第二画像に関連付けられている前記特定情報から特定条件内にある特定情報を特定し、
 前記取得部は、前記特定情報および前記特定条件内にある特定情報に関連付けられている画像を取得する
付記4乃至付記6の何れか一つに記載の画像処理システム。
 (付記8)
 検知された前記第二画像をユーザ端末に送信する第二送信部と、
ユーザが任意に指定した前記第二画像に関連付けられている特定情報を受信する受信部を有し、
 前記取得部はさらに、受信した前記特定情報に関連付けられている画像を取得し、
前記取得した画像をユーザ端末に送信する第一送信部を有する
付記4乃至付記8の何れか一つに記載の画像処理システム。
 (付記9)
 前記所定条件を指定する指定部を有する、
付記1乃至付記8の何れか一つに記載の画像処理システム。
 (付記10)
 前記第二画像に関連付けられた前記撮像日時との差が特定時間以内である撮像日時を、前記第一画像の特定情報として決定する
付記4乃至付記6の何れか一つに記載の画像処理システム。
 (付記11)
 前記特定部は、前記第二画像に関連付けられた撮像場所からの距離が所定値以内である撮像場所を、前記第一画像の特定情報として決定する
付記4乃至付記6の何れか一つに記載の画像処理システム。
 (付記12)
 前記特定部は、前記第二画像に関連付けられた特徴量から特定条件内にある特徴量を、前記第一画像の特定情報として決定する
付記4乃至付記6の何れか一つに記載の画像処理システム。
 (付記13)
 前記第一記憶部は店舗において前記第一画像を記憶し、
 前記第二記憶部はクラウドサーバにおいて前記第二画像を記憶する
付記1乃至付記12の何れか一つに記載の像処理システム。
 (付記14)
 第一画像の容量を小さくした第二画像から、第一所定条件を満たす第二画像を検知し、
 検知された前記第二画像に対応する画像を、前記第一画像又は前記第一画像から生成された画像から取得する、
画像処理方法。
 (付記15)
 コンピュータに、
 第一画像の容量を小さくした第二画像から、第一所定条件を満たす第二画像を検知する検知処理と
 検知された前記第二画像に対応する画像を、前記第一画像又は前記第一画像から生成された画像から取得する取得処理と、
を実行させる画像処理プログラム。
 21  制御部
 23  取得部
 24  受信部
 30  第二記憶部
 40  特定部
 41  検知部
 60  指定部
 70  詳細検知部
 80  撮影部
 100  画像処理システム
 200  録画装置
 300  記憶装置
 400  検知装置
 700  詳細検知装置
 8000  撮像装置

Claims (9)

  1.  処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知する検知手段と、
     複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知手段により検知された前記第二画像に応じた画像を取得する取得手段と、
    を備える画像処理システム。
  2.  前記取得手段が取得した画像から、前記検索条件あるいは当該検索条件よりも検索項目が詳細な条件である詳細検索条件に該当する画像を検知する詳細検知手段をさらに備える請求項1に記載の画像処理システム。
  3.  前記第二画像は、前記第一画像の一部であるか、前記第一画像が圧縮された画像であるか、又は前記第一画像よりも解像度が低い画像である
    請求項1又は請求項2に記載の画像処理システム。
  4.  前記第一画像には、当該第一画像を特定する特定情報が関連付けられており、
     前記検知手段により検知された前記第二画像を特定する特定情報を、その第二画像の基となった前記第一画像に関連付けられている前記特定情報に基づいて確定する特定手段をさらに備え、
     前記取得手段は、前記特定手段により確定された前記特定情報を利用して、前記第一画像又は前記生成画像から、前記検知手段により検知された前記第二画像に応じた画像を取得する
    請求項1乃至請求項3の何れか一つに記載の画像処理システム。
  5.  前記第一画像には、当該第一画像を特定する特定情報が関連付けられており、
     前記検知手段により検知された前記第二画像を特定する特定情報を、その第二画像の基となった前記第一画像に関連付けられている前記特定情報に基づいて確定する特定手段と、
     前記検知手段により検知された前記第二画像と、前記特定手段により確定された前記第二画像の前記特定情報とを関連付けてユーザ端末に向けて送信する送信手段と、
     前記ユーザ端末から発信された、ユーザにより選択された前記第二画像に関連付けられている前記特定情報を受信する受信手段と
    をさらに備え、
     前記取得手段は、前記受信手段が受信した前記特定情報を利用して、前記第一画像又は前記生成画像から、前記検知手段により検知された前記第二画像よりも絞り込まれた前記第二画像に応じた画像を取得する
    請求項1乃至請求項3の何れか一つに記載の画像処理システム。
  6.  前記特定情報は、画像の撮影日時と画像の撮影場所と画像を撮影した撮像装置と画像の特徴量とのうちの少なくとも一つを含む情報である
    請求項4又は請求項5に記載の画像処理システム。
  7.  外部から指定された前記検索条件の検索項目の情報を前記検知手段に向けて送信する指定手段をさらに備え、
     前記検知手段は、前記指定手段から受け取った前記検索条件に該当する前記第二画像を検知する請求項1乃至請求項6の何れか一つに記載の画像処理システム。
  8.  処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知し、
     複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知された前記第二画像に応じた画像を取得する
    画像処理方法。
  9.  処理対象の画像である第一画像の容量を小さくする処理と、複数の前記第一画像の中から抽出条件に該当する画像を抽出する処理との一方又は両方の処理によって得られる複数の第二画像から、検索条件に該当する前記第二画像を検知する処理と、
     複数の前記第一画像、又は、前記第一画像から生成された複数の生成画像の中から、前記検知された前記第二画像に応じた画像を取得する処理と
    をコンピュータに実行させる処理手順が記載されているプログラム記憶媒体。
PCT/JP2016/001124 2015-03-02 2016-03-02 画像処理システム、画像処理方法およびプログラム記憶媒体 Ceased WO2016139940A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/554,802 US20180239782A1 (en) 2015-03-02 2016-03-02 Image processing system, image processing method, and program storage medium
JP2017503349A JP6455590B2 (ja) 2015-03-02 2016-03-02 画像処理システム、画像処理方法およびコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-040141 2015-03-02
JP2015040141 2015-03-02

Publications (1)

Publication Number Publication Date
WO2016139940A1 true WO2016139940A1 (ja) 2016-09-09

Family

ID=56849292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001124 Ceased WO2016139940A1 (ja) 2015-03-02 2016-03-02 画像処理システム、画像処理方法およびプログラム記憶媒体

Country Status (3)

Country Link
US (1) US20180239782A1 (ja)
JP (2) JP6455590B2 (ja)
WO (1) WO2016139940A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077328A (ja) * 2018-11-09 2020-05-21 セコム株式会社 店舗装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189558A (ja) * 2006-01-13 2007-07-26 Toshiba Corp 映像表示システム及び映像蓄積配信装置
WO2007123215A1 (ja) * 2006-04-20 2007-11-01 Panasonic Corporation 画像表示装置及びその制御方法
JP2011018238A (ja) * 2009-07-09 2011-01-27 Hitachi Ltd 画像検索システム及び画像検索方法
JP2011048668A (ja) * 2009-08-27 2011-03-10 Hitachi Kokusai Electric Inc 画像検索装置
JP2014229103A (ja) * 2013-05-23 2014-12-08 グローリー株式会社 映像解析装置及び映像解析方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010196A (ja) * 2000-06-26 2002-01-11 Sanyo Electric Co Ltd 電子アルバム装置
US20030011750A1 (en) * 2001-07-16 2003-01-16 Comview Visual Systems Ltd. Display apparatus and method particularly useful in simulators
EP1508865A4 (en) * 2002-05-29 2006-06-07 Sony Corp INFORMATION PROCESSING SYSTEM
US8385589B2 (en) * 2008-05-15 2013-02-26 Berna Erol Web-based content detection in images, extraction and recognition
US8634696B2 (en) * 2004-12-15 2014-01-21 Nikon Corporation Image reproduction system
JP4713980B2 (ja) * 2005-08-08 2011-06-29 パナソニック株式会社 映像検索装置
JP5009577B2 (ja) * 2005-09-30 2012-08-22 富士フイルム株式会社 画像検索装置および方法並びにプログラム
JP2007179098A (ja) * 2005-12-26 2007-07-12 Canon Inc 画像処理装置、画像検索方法装置、及びプログラム
JP5170961B2 (ja) * 2006-02-01 2013-03-27 ソニー株式会社 画像処理システム、画像処理装置および方法、プログラム、並びに記録媒体
JP4492555B2 (ja) * 2006-02-07 2010-06-30 セイコーエプソン株式会社 印刷装置
JP2007241377A (ja) * 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム
JP2007265032A (ja) * 2006-03-28 2007-10-11 Fujifilm Corp 情報表示装置、情報表示システムおよび情報表示方法
US8599251B2 (en) * 2006-09-14 2013-12-03 Olympus Imaging Corp. Camera
JP4959592B2 (ja) * 2008-01-18 2012-06-27 株式会社日立製作所 ネットワーク映像モニタリングシステム及びモニタ装置
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
JP5401962B2 (ja) * 2008-12-15 2014-01-29 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5506324B2 (ja) * 2009-10-22 2014-05-28 株式会社日立国際電気 類似画像検索システム、および、類似画像検索方法
US10477158B2 (en) * 2010-11-05 2019-11-12 Razberi Technologies, Inc. System and method for a security system
US8922658B2 (en) * 2010-11-05 2014-12-30 Tom Galvin Network video recorder system
WO2012102276A1 (ja) * 2011-01-24 2012-08-02 エイディシーテクノロジー株式会社 静止画抽出装置
JP6312991B2 (ja) * 2013-06-25 2018-04-18 株式会社東芝 画像出力装置
JP6179231B2 (ja) * 2013-07-10 2017-08-16 株式会社リコー 端末装置、情報処理プログラム、情報処理方法および情報処理システム
JP5500303B1 (ja) * 2013-10-08 2014-05-21 オムロン株式会社 監視システム、監視方法、監視プログラム、ならびに該プログラムを記録した記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189558A (ja) * 2006-01-13 2007-07-26 Toshiba Corp 映像表示システム及び映像蓄積配信装置
WO2007123215A1 (ja) * 2006-04-20 2007-11-01 Panasonic Corporation 画像表示装置及びその制御方法
JP2011018238A (ja) * 2009-07-09 2011-01-27 Hitachi Ltd 画像検索システム及び画像検索方法
JP2011048668A (ja) * 2009-08-27 2011-03-10 Hitachi Kokusai Electric Inc 画像検索装置
JP2014229103A (ja) * 2013-05-23 2014-12-08 グローリー株式会社 映像解析装置及び映像解析方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077328A (ja) * 2018-11-09 2020-05-21 セコム株式会社 店舗装置
JP7161920B2 (ja) 2018-11-09 2022-10-27 セコム株式会社 店舗装置

Also Published As

Publication number Publication date
JP6455590B2 (ja) 2019-01-23
JPWO2016139940A1 (ja) 2018-02-01
US20180239782A1 (en) 2018-08-23
JP6702402B2 (ja) 2020-06-03
JP2019083532A (ja) 2019-05-30

Similar Documents

Publication Publication Date Title
US9141184B2 (en) Person detection system
CN109871815B (zh) 一种查询监控信息的方法及装置
JP5976237B2 (ja) 映像検索システム及び映像検索方法
JP6674584B2 (ja) 映像監視システム
KR101472077B1 (ko) 누적된 객체 특징을 기반으로 하는 감시 시스템 및 방법
US12340666B2 (en) Investigation generation in an observation and surveillance system
JP6139364B2 (ja) 人物特定装置、人物特定方法及びプログラム
WO2017212813A1 (ja) 画像検索装置、画像検索システム及び画像検索方法
JP2019020777A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
US11227007B2 (en) System, method, and computer-readable medium for managing image
JP6396682B2 (ja) 監視カメラシステム
JP6702402B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
CN111666786B (zh) 图像处理方法、装置、电子设备及存储介质
US10783365B2 (en) Image processing device and image processing system
CN109948411A (zh) 检测与视频中的运动模式的偏差的方法、设备和存储介质
US11244185B2 (en) Image search device, image search system, and image search method
JP2005173763A (ja) 顧客情報処理装置、顧客情報処理方法
JP2015158848A (ja) 画像検索方法、サーバ及び画像検索システム
CA3068692A1 (en) Investigation generation in an observation and surveillance system
JP2009239804A (ja) 監視システム及び画像検索サーバ
JP6267350B2 (ja) データ処理装置、データ処理システム、データ処理方法及びプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
JP2021068102A (ja) 情報処理システム、情報処理システムの制御方法、情報処理装置、及びプログラム
JP7371806B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017134738A1 (ja) レコーダ装置および映像監視システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16758638

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15554802

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2017503349

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16758638

Country of ref document: EP

Kind code of ref document: A1