[go: up one dir, main page]

WO2013133370A1 - 画像処理装置、プログラム及び画像処理方法 - Google Patents

画像処理装置、プログラム及び画像処理方法 Download PDF

Info

Publication number
WO2013133370A1
WO2013133370A1 PCT/JP2013/056273 JP2013056273W WO2013133370A1 WO 2013133370 A1 WO2013133370 A1 WO 2013133370A1 JP 2013056273 W JP2013056273 W JP 2013056273W WO 2013133370 A1 WO2013133370 A1 WO 2013133370A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
images
sequence
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2013/056273
Other languages
English (en)
French (fr)
Inventor
弘 松崎
陽一 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012051559A external-priority patent/JP5963480B2/ja
Priority claimed from JP2012113618A external-priority patent/JP5980567B2/ja
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to EP13758100.5A priority Critical patent/EP2823749A4/en
Priority to CN201380012984.9A priority patent/CN104203065B/zh
Publication of WO2013133370A1 publication Critical patent/WO2013133370A1/ja
Priority to US14/480,570 priority patent/US9547794B2/en
Anticipated expiration legal-status Critical
Priority to US15/331,139 priority patent/US9672619B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Definitions

  • the present invention relates to an image processing apparatus, a program, an image processing method, and the like.
  • each moving image is configured.
  • image sequences a very large amount of images that are temporally or spatially continuous are acquired.
  • images that are close in the image sequence that is, close in time or space
  • the need to check everything is not high. In the first place, it is not uncommon for the number of images to be tens of thousands or more, and checking everything with the user's hand itself is a heavy burden.
  • Patent Document 1 discloses an image summarization processing method that leaves an image that makes it easy to grasp the contents of an image sequence by extracting an image of a boundary where the scene in the image sequence changes or an image representative of the image sequence. Has been.
  • an image processing device a program, an image processing method, and the like that perform efficient image summarization processing when the occurrence of an area that cannot be observed due to image deletion is suppressed. it can.
  • a first image summarization processing unit that acquires a first summary image sequence by a first image summarization process based on a similarity between a plurality of images, and each image of the plurality of images
  • a second image summarization processing unit that obtains a second summary image sequence by a second image summarization processing based on a target object or scene recognition process, the first summary image sequence, and the second summary image
  • the present invention relates to an image processing apparatus including an integration processing unit that acquires an output summary image sequence by performing integration processing of columns or integration processing of the first image summarization processing and the second image summarization processing.
  • an output summarization image is obtained by performing an integration process thereof. Get the column.
  • an image sequence acquisition unit that acquires an image sequence having a plurality of images, and a first deletion that deletes a part of the plurality of images of the image sequence acquired by the image sequence acquisition unit
  • a processing unit that performs an image summarization process for acquiring a summary image sequence based on the permission determination process and the second deletion permission determination process, wherein the processing unit includes one or more attentions included in the plurality of images
  • An attention image sequence composed of images is set, a first reference image is selected from the set attention image sequence, a first determination target image is selected from the plurality of images, and the first reference image is selected.
  • the processing unit is configured to extract the first image from the image sequence.
  • a partial image sequence in which a plurality of the images determined to be non-deletable in the removal permission / inhibition determination process are set, and the processing unit selects a second reference image and a second determination target image from the partial image sequence, Processing for determining whether or not the second determination target image can be deleted based on second deformation information representing deformation between the second reference image and the second determination target image;
  • the present invention relates to an image processing apparatus that performs the determination process.
  • a target image sequence is set, a first deletion permission determination process is performed based on the set target image string, and a second deletion is performed based on a result of the first deletion permission determination process.
  • Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.
  • a first image summarization process for obtaining a first summary image sequence based on a similarity between a plurality of images, a target object for each image of the plurality of images, or
  • An image processing method for performing a second image summarization process for acquiring a second summary image sequence based on a scene recognition process, wherein the first summary image sequence and the second summary image sequence are integrated.
  • the present invention relates to an image processing method for performing an integration process for obtaining an output summary image sequence by performing an integration process of the first image summarization process and the second image summarization process.
  • an image sequence having a plurality of images is acquired, a target image sequence composed of one or a plurality of target images included in the plurality of images is set, and the set target image
  • a first reference image is selected from the column
  • a first determination target image is selected from the plurality of images
  • a first representing the deformation between the first reference image and the first determination target image Based on the deformation information, a process for determining whether or not the first determination target image can be deleted is performed as a first deletion permission determination process, and it is determined from the image sequence that deletion is not possible in the first deletion permission determination process.
  • a plurality of consecutive partial images are set, a second reference image and a second determination target image are selected from the partial image sequence, and the second reference image and the second determination target image are selected.
  • the process for determining whether or not the second determination target image can be deleted is performed as a second deletion permission determination process, and based on the first deletion permission determination process and the second deletion permission determination process,
  • the present invention relates to an image processing method for performing image summarization processing for obtaining a summary image sequence by deleting a part of the plurality of images in the image sequence.
  • FIG. 1 is a system configuration example of an image summarization apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating a method for calculating a coverage rate.
  • 3A and 3B are diagrams for explaining a specific example of the first image summarization process.
  • FIG. 4 is a flowchart for explaining the first image summarization process.
  • FIG. 5 is a flowchart for explaining a second image summarization process.
  • FIG. 6 is a diagram for explaining the second image summarization process.
  • FIG. 7 is a flowchart for explaining integration processing according to the first embodiment.
  • FIG. 8A and FIG. 8B are diagrams for explaining the update processing of the second summary image sequence.
  • FIGS. 9B are diagrams for explaining a process for determining whether or not the second summary image sequence can be updated.
  • FIG. 10 is a flowchart for explaining integration processing according to the second embodiment.
  • FIG. 11 shows another system configuration example of the image summarization apparatus of this embodiment.
  • FIGS. 12A to 12C are diagrams for explaining the method of the third embodiment.
  • FIG. 13 is a flowchart for explaining integration processing according to the third embodiment.
  • FIGS. 14A to 14E are views for explaining the method of the fourth embodiment.
  • FIG. 15 is a flowchart for explaining integration processing according to the fourth embodiment.
  • FIG. 16A to FIG. 16D are diagrams for explaining image summarization processing of the present embodiment.
  • FIG. 17 is a configuration example of an image processing apparatus according to the fifth embodiment.
  • FIGS. 19A to 19D are diagrams for explaining a method of selecting a reference image and a determination target image.
  • FIG. 20 is a configuration example of the first deletion permission determination unit.
  • FIG. 21 is a configuration example of a second deletion permission / inhibition determination unit.
  • FIG. 22 is another configuration example of the first deletion permission determination unit.
  • FIG. 23A to FIG. 23E are diagrams for explaining the contraction process by the structural element for the uncovered region.
  • FIG. 24A and FIG. 24B are diagrams for explaining a contraction process by a structural element for a determination target image.
  • FIG. 25A and FIG. 25B are examples of the inclusion determination of the reference image and the area requiring coverage.
  • FIG. 26B are diagrams illustrating another process using a structural element.
  • FIG. 27 is a configuration example of a second reference image selection unit.
  • 28A to 28G are diagrams for explaining a method of updating the rear reference image.
  • FIG. 29 is a flowchart for explaining image summarization processing according to the seventh embodiment.
  • FIG. 30 is a basic system configuration example of the image processing apparatus.
  • an image sequence captured using a capsule endoscope can be considered.
  • the capsule endoscope is a capsule-shaped endoscope with a built-in small camera, and takes an image at a given time interval (for example, twice per second). Since the capsule endoscope requires several hours (in some cases, several tens of hours) from taking the clothes to discharging, tens of thousands of captured images are acquired in one examination by one user. In addition, the capsule endoscope stays in the same place or returns in the opposite direction due to the influence of the movement of the living body when moving in the living body. For this reason, in a large number of images, the same subject as that of other images is imaged, and there are many images that are not highly useful in finding lesions.
  • the present applicant proposes a method for performing image summarization processing from the viewpoint of suppressing the occurrence of an area that cannot be observed due to image deletion. Specifically, image summarization processing based on the similarity between a plurality of images included in the image sequence to be subjected to image summarization processing is used. By using the similarity, image summarization processing based on the relationship between a plurality of images can be performed.
  • a reference image an image to be left, an image to be a candidate to be left depending on the setting method of the reference image
  • a determination target image a target image for determining whether to delete
  • image summarization processing based on deformation information between the reference image and the determination target image may be performed.
  • the coverage area is calculated on the determination target image by deforming the reference image.
  • the subject imaged with the reference image corresponds to the subject imaged on the covering area of the determination target image. That is, the range outside the covered area (hereinafter referred to as a non-covered area) in the determination target image is an area that cannot be covered even if the reference image is left when the determination target image is deleted.
  • the ratio of the coverage area to the determination target image is calculated as the coverage ratio, and by determining whether or not the determination target image is deleted based on the calculated coverage ratio, Control the degree of occurrence. For example, if the image to be judged is deleted when the coverage is equal to or higher than the threshold, and the image to be judged is not deleted when the coverage is less than the threshold, the degree of occurrence of an area that cannot be covered is controlled according to the threshold setting. it can.
  • the result of the contraction process by the structural element (corresponding to the attention area) for the uncovered area may be determined whether or not the determination target image can be deleted.
  • the determination target image it is guaranteed that at least a part of the area larger than the size of the structural element captured on the determination target image is captured on the reference image. it can. Therefore, when the entire region of interest is captured in the determination target image, at least a part of the region of interest can be observed with the reference image regardless of the position of the region of interest on the determination target image. It becomes possible to deter.
  • the technique using deformation information is an example of a technique for calculating similarity, and the similarity between images may be obtained by other techniques.
  • the applicant performs both the first image summarization process based on the similarity and the second image summarization process based on the target object or scene recognition process, and integrates them to generate an output summary image sequence.
  • the first summary image sequence is obtained by the first image summarization processing
  • the second summary image sequence is obtained by the second image summarization processing
  • the first summary image is obtained as the integration processing.
  • a process of integrating the sequence and the second summary image sequence is performed.
  • the second summary image sequence is updated based on the first summary image sequence (in the narrow sense, the second summary image sequence). To reduce the number of summary images included in the first summary image sequence), and the first summary image sequence and the second summary image sequence after the update process are integrated.
  • the third and fourth embodiments are embodiments relating to the integration processing of the two processes, the first image summarization process and the second image summarization process, rather than the summarization image string integration process.
  • execution of the first image summarization processing based on the result of the second image summarization processing is performed as the integration processing.
  • the summary images included in the first summary image sequence are determined based on the similarity, but in the third embodiment, in addition to the similarity, The summary image is determined also using the result of the image summarization processing of 2.
  • feedback processing is performed by combining the method of the third embodiment and the update processing of the second summary image sequence in the second embodiment.
  • a first summary image sequence is obtained by performing a first image summary process based on the result of the second image summary process. Thereafter, the second summary image sequence is updated based on the acquired first summary image sequence. Then, the first summary image sequence based on the second summary image sequence after the update process is performed again to acquire the first summary image sequence, and the acquired first summary image sequence is used as the output summary image sequence. . If the update process cannot be executed, the first summary image sequence at that time may be used as the output summary image sequence, and the result is the same as in the third embodiment.
  • an image sequence obtained by the first image summarization process based on the similarity is referred to as a first summary image sequence, and an image included in the first summary image sequence is referred to as a similarity summary image.
  • an image sequence obtained by the second image summarization process based on the recognition process of the target object or the like is referred to as a second summary image sequence, and an image included in the second summary image sequence is referred to as an object summary image.
  • An image sequence that is finally output based on processing including integration processing and the like is referred to as an output summary image sequence, and an image included in the output summary image sequence is referred to as an output summary image.
  • the process using the above-described deformation information is performed as the similarity and the attention area detection process is used as the recognition process
  • methods other than the first to fourth embodiments can be considered. Similar to the process using only the similarity, only the deletion possibility determination based on the coverage does not give special consideration to the deletion possibility of the attention image that is an image of the attention area. For example, if the coverage of an image of interest by another image (which may be another image of interest or an image that is not an image of interest) is high, the image of interest is also subject to deletion. Therefore, in an extreme case, all the images of interest are deleted from the image sequence, and there is a possibility that the region of interest cannot be observed from the summary image sequence after the image summarization process.
  • an effective image summarization process can be performed by a process using deformation information (a process using a coverage rate, a structural element, or both)
  • a process using a coverage rate, a structural element, or both can be considered.
  • the usefulness of processing from the viewpoint of whether or not the region of interest has been imaged is high.
  • the problem that may occur in the processing using the deformation information can be dealt with by actively leaving the attention image in the summary image sequence (in the narrow sense, always).
  • the applicant sets one or a plurality of images in which the attention area is captured as the attention image sequence in the acquired image sequence, and determines whether or not to delete the image using the deformation information based on the set attention image sequence.
  • the image sequence of interest was obtained as shown in FIG. 16 (A) and the image sequence obtained as a result of performing the image summarization process based on the deformation information was obtained independently, a simple union was taken. Then, there may be a portion where the image is dense like a portion indicated by I1 in FIG. In this place, an image that is sufficiently covered by another image may remain in the summary image sequence, and the effect of reducing the number of images by the image summarization processing may be reduced.
  • the first deletion permission determination process based on the target image sequence is performed, and then the second deletion permission determination process based on the result of the first deletion permission determination process is performed.
  • the effect of reducing the number of images is increased.
  • the first and second deletion permission / inhibition determination processing is processing using deformation information, and details thereof will be described later.
  • an apparatus including a processing unit 100 and an image sequence acquisition unit 30 as shown in FIG. 30 can be considered.
  • the image sequence acquisition unit 30 acquires an image sequence having a plurality of images.
  • the processing unit 100 sets a target image sequence including one or a plurality of target images included in the plurality of images, selects a first reference image from the set target image sequence, and selects a first reference image from the plurality of images.
  • a process of selecting one determination target image and determining whether or not the first determination target image can be deleted based on first deformation information representing deformation between the first reference image and the first determination target image.
  • the first deleteability determination process is performed.
  • the processing unit 100 sets a partial image sequence in which a plurality of images determined not to be deleted in the first deletion permission determination process are consecutive from the image sequence. Furthermore, the processing unit 100 selects the second reference image and the second determination target image from the partial image sequence, and second deformation information representing deformation between the second reference image and the second determination target image. Based on the above, a process for determining whether or not the second determination target image can be deleted is performed as a second deletion determination process.
  • FIG. 1 shows a configuration example of the image summarization apparatus according to this embodiment.
  • the image summarization apparatus includes an image sequence acquisition unit 30, a first image summary processing unit 100, a second image summary processing unit 200, an integration processing unit 300, and an output unit 40. including.
  • the image summarization apparatus is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components (for example, the output unit 40) or adding other components are possible. is there.
  • the image sequence acquisition unit 30 acquires image sequence data to be subjected to image summarization processing.
  • the acquired image sequence data is a plurality of images that are temporally or spatially continuous, and is acquired from the image input device 10, the image database 20, or the like.
  • the image input device 10 may be an imaging device that captures an image, such as a digital camera or a capsule endoscope.
  • the image database 20 is a database that stores a large amount of images, and stores image data acquired by an imaging device or the like. Note that the image database 20 may be provided at a position distant from the image summarizing apparatus, or may be configured by a server or the like connected to the image summarizing apparatus via a network. Further, although it is assumed that the image input device 10 and the image database 20 are provided separately from the image summarization device, they are not prevented from being included in the image summarization device.
  • the first image summarization processing unit 100 performs a first image summarization process based on the similarity.
  • the first image summary processing unit 100 may include a similarity calculation unit 110, a summary processing unit 120, and a first summary image sequence generation unit 130. Note that the first image summary processing unit 100 is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components are possible.
  • the similarity calculation unit 110 calculates the similarity between images included in the image sequence acquired by the image sequence acquisition unit 30.
  • the summary processing unit 120 performs a summary process (specifically, a process for determining a similarity summary image and a deleted image remaining in the first summary image sequence) based on the calculated similarity.
  • the first summary image sequence generator 130 generates a first summary image sequence that is an output of the first image summary processor 100 based on the summary processing in the summary processor 120. Details of the first image summarization process will be described later.
  • the second image summarization processing unit 200 performs second image summarization processing based on target object or scene recognition processing.
  • the second image summary processing unit 200 may include a recognition processing unit 210, a summary processing unit 220, and a second summary image sequence generation unit 230.
  • the second image summary processing unit 200 is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components are possible.
  • the recognition processing unit 210 performs a recognition process to determine whether an image included in the image sequence acquired by the image sequence acquisition unit 30 includes a target object or captures a target scene.
  • a template representing a target object or a scene may be stored, and matching processing using the template may be performed.
  • the summary processing unit 220 performs a summary process (specifically, a process for determining an object summary image and a deleted image remaining in the second summary image sequence) based on the recognition result of the recognition processing unit 210. Specifically, after performing segmentation processing in consideration of a region where the same target object or the same scene is continuous, at least one image is generated as an object summary image from the generated segment (continuous image sequence). Perform the selection process.
  • the second summary image sequence generation unit 230 generates a second summary image sequence that is an output of the second image summary processing unit 200 based on the summary processing in the summary processing unit 220. Details of the second image summarization process will be described later.
  • the integration processing unit 300 performs integration processing based on the processing in the first image summary processing unit 100 and the second image summary processing unit 200. In the present embodiment, integration processing of the first summary image sequence and the second summary image sequence is performed. Details will be described later.
  • the output unit 40 outputs an output summary image sequence acquired as a result of the integration processing in the integration processing unit 300.
  • the output unit 40 may be a display unit realized by, for example, a liquid crystal display or an organic EL display. In this case, it is possible to display an output summary image included in the output summary image sequence.
  • the image summarization apparatus does not have to include a display unit that serves as an interface with the user, and the output unit 40 (display unit) may be provided separately from the image summarization apparatus.
  • the similarity used here may be a motion vector between images, SSD or SAD, and a correlation value such as normalized cross-correlation.
  • any information can be used as the similarity as long as the information is normally calculated as the similarity between a plurality of images.
  • a method of detecting scene changes by sorting in ascending order of similarity and selecting up to a set number from the top is used. Conceivable.
  • a cover representing how much the determination target image is covered by the reference image (similarity summary image to be left in the first summary image sequence or similarity summary image candidate image).
  • Image summarization may be performed by determining whether or not the determination target image can be deleted based on the coverage, using the rate as the similarity.
  • the method using the coverage will be described in detail.
  • the reference image is deformed and projected onto the determination target image using deformation information between the reference image and the determination target image.
  • the deformation information is information corresponding to how the subject imaged on the reference image is deformed and imaged on the determination target image, and may be obtained from deformation estimation, a motion vector, or the like.
  • non-rigid deformation parameters estimated by the method described in Patent Document 2 may be used.
  • FIG. 2 shows an example in which two reference images, a first reference image in front of the determination target image and a second reference image behind the determination target image, are set.
  • A1 on the determination target image is an area obtained by deforming the first reference image
  • A2 is an area obtained by deforming the second reference image.
  • the coverage for example, a region corresponding to the union of A1 and A2 can be obtained as a coverage region, and the value of the ratio of the coverage region in the entire determination target image can be used.
  • the determination as to whether the determination target image can be deleted may be performed by a comparison process between the coverage ratio and a preset threshold value (which may be set by the system or may be determined based on an input from the user). Specifically, if the coverage is less than the threshold, it is determined that the determination target image cannot be deleted, and if the coverage is equal to or greater than the threshold, it is determined that the determination target image can be deleted. When the coverage is equal to or greater than the threshold, a portion of the subject range captured in the determination target image is captured in at least one of the first reference image and the second reference image. Therefore, if the first and second reference images are left as similarity summary images, even if the determination target image is deleted, the imaged area can be sufficiently covered.
  • a preset threshold value which may be set by the system or may be determined based on an input from the user.
  • FIGS. 3A and 3B illustrate the selection processing of the first and second reference images and the determination target image. In this process, it is determined that the first reference image is selected as the similarity summary image, but the second reference image is a candidate for the similarity summary image, and finally the similarity summary image. It is not fixed whether it is selected as.
  • the k-th image in the entire image sequence is selected as the first reference image (note that the 1st to k-1th images are similarity summary images and This corresponds to the case where the determination process for determining whether the image is to be deleted or the deleted image has been completed and the k th to N th images are to be processed).
  • the k + 2nd image is selected as the second reference image.
  • a determination target image is sequentially selected from the front of the image between the first reference image and the second reference image, and the first reference image is selected based on deformation information between the first reference image and the determination target image.
  • the coverage is calculated by modifying the second reference image based on deformation information between the second reference image and the determination target image. Based on the calculated coverage, it is determined whether or not the determination target image can be deleted.
  • the threshold is 70%
  • the second reference image as shown in FIG. Reselect. Specifically, the second reference image that was k + 2 may be updated to k + 3.
  • the image immediately before the current second reference image (corresponding to the second reference image in FIG. 3A) is left as a similarity summary image. Specifically, the image immediately before the current second reference image is selected as a new first reference image, and at the same time, the second reference image and the determination target image are also newly selected and processed. continue.
  • FIG. 4 is a flowchart for explaining the first image summarization process when the coverage is used as the similarity.
  • this process sets the I S-th image in the image sequence to be subjected to image abstract process as the first similarity summary image (S101).
  • S101 may be a value of I S is 1 (i.e. to the first image of the image sequence may be the similarity summary image), or may be a value other than 1.
  • the IS- th image is set as the first reference image (S102), and the IE- th image is set as the second reference image (S103).
  • IE a value exceeding the number of images included in the image sequence to be processed. If Yes, the image summarization process is terminated. In the case of No, it means that the second reference image has been appropriately set. Therefore, the images between the first reference image and the second reference image are sequentially set as the determination target images, and the deletion possibility determination is performed. (S105 to S108). Specifically, the next image after the first reference image is set as the first determination target image, the coverage is obtained by the method shown in FIG. 2, and the comparison processing with the threshold value is performed (S106, S107).
  • recognition processing is performed on all images in the image sequence that is the target of the image summarization process, and whether or not the target object is captured for each image, or the target scene is determined. A determination is made as to whether an image is being captured. Then, a continuous image among the images in which the target object is imaged or a continuous image in the image in which the target scene is imaged is set as a continuous image sequence (segment), and at least one image for each segment is set. Extracted and set as an object summary image to be left in the second summary image sequence.
  • FIG. 5 is a flowchart illustrating a second image summarization process based on a target object or scene recognition process.
  • an image that maximizes the area of the recognized target object is selected as an object summary image.
  • the method for selecting an object summary image from a continuous image sequence is not limited to this.
  • the recognition process is performed as a pre-process of the process of FIG.
  • IDs are assigned in order from the front to the images in which the target object or the like is detected, and the ID is a number indicating the position of the image in the image sequence (input image sequence) to be subjected to image summarization processing.
  • IDs are assigned in order from the top in the image indicated by hatching. (In this case, the image number and the ID are started from 0, but not limited thereto).
  • FIG. 5 illustrates the subsequent segmentation processing and representative image (summary image) selection processing.
  • count is a counter corresponding to the number of object summary images. Since an example of selecting one summary image from one segment is shown, count is a counter corresponding to a segment set as a result of segmentation processing.
  • a variable max representing the maximum value of the area of the target object is initialized (S202).
  • an image in the middle of the segment is a processing target, a given image included in the current segment and ahead of the processing target is provisionally selected as the count-th object summary image, The area of the target object at that time is held as max.
  • the image summarization processing may be performed in the same manner using the information of the result of image recognition or image detection.
  • an image included in at least one of the first summary image sequence obtained by the first image summary processing and the second summary image sequence obtained by the second image summary processing is output as an output summary image sequence. Is selected as the output summary image.
  • FIG. 7 is a flowchart for explaining the integration process of this embodiment. As shown in FIG. 7, the integration processing is a loop of S301 to S306, and the processing of S302 to S305 is performed for all images in the input image sequence.
  • the image summarization apparatus obtains the first summary image sequence by the first image summarization process based on the similarity between a plurality of images.
  • a processing unit 100 a second image summarization processing unit 200 that acquires a second summary image sequence by a second image summarization process based on a target object or scene recognition process for each of a plurality of images; It includes an integration processing unit 300 that acquires an output summary image sequence by performing integration processing of one summary image sequence and second summary image sequence, or integration processing of first image summary processing and second image summary processing.
  • the plurality of images are assumed to correspond to the entire image sequence acquired by the image sequence acquisition unit 30, but may be a part of the image sequence.
  • an output summary image sequence by integrating summary image sequences obtained by image summarization processing performed from different viewpoints such as similarity determination between images and target object or scene recognition processing.
  • image summarization processing having the advantages of both image summarization processing.
  • By performing the second image summarization process using the recognition process of the target object, etc. it is possible to generate a summary image sequence that leaves an appropriate image of the important target object photographed. It is difficult to detect all important target objects even in processing.
  • by suppressing the occurrence of regions that cannot be observed by image summarization processing from different viewpoints of similarity important objects that could not be detected are included in the first summary image sequence by the first image summarization processing.
  • a complementary output summary image sequence can be generated by the integration process.
  • the first image summarization processing unit 100 selects a reference image and a determination target image from a plurality of images, and based on deformation information between the reference image and the determination target image, the coverage of the determination target image by the reference image May be calculated as the similarity and the process of determining whether or not the determination target image can be deleted based on the coverage ratio may be performed as the first image summarization process.
  • the coverage is information indicating how many of the subjects captured on the determination target image are captured on the reference image. For example, when an image having an aspect ratio of 1: 1 is acquired, a subject having a square shape of 10 m in length and breadth in real space is captured in the determination target image, and the reference image includes the aforementioned subject. Assume that a square area of 5 m in length and width is captured in full. In this case, an area of 100 m 2 in real space is imaged in the determination target image, and an area of 25 m 2 in real space (and an area included in the area of 100 m 2 described above) is imaged in the reference image. .
  • the coverage since the reference image covers 25% of the determination target image, the coverage may be a value such as 25%, 25 m 2, or 0.25.
  • deformation information corresponding to such deformation is acquired by a method such as Patent Document 2, and the coverage is calculated using the deformation information.
  • the coverage may be information indicating the degree of coverage of the determination target image by the reference image, and is not limited to the ratio / ratio.
  • the determination process of whether or not deletion is possible is, for example, a comparison process with a given threshold value. If the threshold value is increased (for example, set to a value close to 100%), it can be expected to improve the suppression effect against the occurrence of a region that cannot be observed by deleting the image. On the other hand, if the threshold value is lowered, the number of images included in the summary image sequence after the summary processing can be reduced. There is a trade-off between improving the suppression effect and reducing the number of images, and control is possible by setting the threshold value. Therefore, it is desirable to set the threshold value appropriately according to the situation.
  • the first image summary processing unit 100 selects the pth image as the first reference image.
  • the qth image (q is an integer satisfying p + 2 ⁇ q ⁇ N ⁇ 1) is selected as the second reference image
  • the rth image (r is an integer satisfying p + 1 ⁇ r ⁇ q ⁇ 1) is selected.
  • the coverage is calculated based on the deformation information between the first reference image and the determination target image and the deformation information between the second reference image and the determination target image, and based on the coverage It is determined whether or not the determination target image can be deleted. In this case, for example, if it is determined that the (p + 1) -th to (q-1) -th images can be deleted, the q + 1-th image can be newly selected as the second reference image.
  • the image summarization processing based on the coverage can be performed after setting the reference images in front of and behind the determination target image.
  • two reference images since two reference images are used, there is a higher possibility that it is possible to determine that the determination target image can be deleted, compared to a case where one reference image is set, and the number of images after the summarization process may be reduced. It becomes possible.
  • the first image summarization processing unit 100 selects the image selected as the first reference image as the first reference image. Processing to be included in the summary image sequence may be performed. Further, the q-1th image may be selected as a new first reference image and the process may be performed again.
  • the case where at least one of the determination target images between the first reference image and the second reference image cannot be deleted is a case where the space between the first reference image and the second reference image is excessively widened. Therefore, an image that is in front of the second reference image at that time (in the narrow sense, in front and closest) should be left in the first summary image sequence. Therefore, the q-1th image is selected as a new first reference image, and the same processing is repeated.
  • the second reference image reselection (updating) process in the first image summarization process is not limited to the technique of moving one by one to the back of the input image sequence.
  • the second reference image is selected from the second reference image selection section in which the start point and the end point corresponding to the p + 2 to Nth images are set, and based on the first reference image and the second reference image.
  • the first image summary processing unit 100 includes the x-th (x is x>) included in the second reference image selection section. (an integer satisfying q) may be selected as a new second reference image, and the start point of the second reference image selection section may be updated to the qth image.
  • the second reference image selection section has a property of representing a candidate for the second reference image, and a similarity summary image remaining in the first summary image sequence (similarity summary image already found in a narrow sense). Of the next similarity summary image). Therefore, the second reference image selection section corresponds to the search range for the similarity summary image.
  • the method of moving the second reference image backward one by one is, in other words, a method of checking the search range one by one from the top and reducing the search range. It will increase in number. In that respect, by making it possible to select images that are not adjacent to each other as a new second reference image, the search range can be increased by one unit of determination (one second reference image selection process and accompanying deletion permission determination). Can be reduced. Therefore, an effect of reducing the amount of calculation can be expected, and the load on the system can be reduced and the processing time can be shortened.
  • the first image summarization processing unit 100 determines the value of x based on the value of (q + j) / 2 when the j-th image (j is an integer) corresponds to the end point of the second reference image selection section. May be set.
  • the value of y may be set based on the value of (i + q) / 2.
  • (q + j) / 2 and (i + q) / 2 are not necessarily integers, there may be cases where there is no image corresponding to each value. In that case, for example, a maximum integer not exceeding (q + j) / 2, or an integer larger by 1 may be considered.
  • the update of the second reference image is not limited to the method based on the binary search, and various methods may be used. For example, when the position of the correct answer within the search range is predicted to some extent, the calculation amount can be reduced by selecting the second reference image so that the predicted position and its surroundings can be searched intensively. it can.
  • the first image summarization processing unit 100 obtains a covering region that is a region where the determination target image is covered by the reference image based on the deformation information between the reference image and the determination target image, and determines the determination target as the coverage. You may calculate the ratio of the covering area to an image.
  • the covering region is specifically shown in FIG. 2, and represents a region projected on the determination target image after the reference image is deformed based on the deformation information.
  • the subject area imaged in the reference image corresponds to the subject area imaged in the obtained covering area (they match in an ideal situation where there is no error in the deformation information). Therefore, it is possible to obtain the coverage from the ratio of the covered area to the determination target image (specifically, the ratio of the respective areas).
  • the covered area may be obtained by deforming the reference image based on the deformation information, and the obtained covered area is not necessarily limited to the one projected onto the determination target image. Further, the covering region is not limited to the one obtained based on the entire reference image, and may be obtained by deforming a part of the reference image with the deformation information.
  • the second image summarization processing unit 200 generates a continuous image including the same target object among a plurality of images or a continuous image recognized as the same scene among the plurality of images based on the recognition processing.
  • the second image summarization process may be performed as a second image summarization process that is set as a continuous image sequence from which a summary image is extracted and that extracts at least one image from the set continuous image sequence as a summary image.
  • At least one summary image extracted from the continuous image sequence refers to an object summary image to be left in the second summary image sequence.
  • the method for setting the continuous image sequence (segment) described with reference to FIGS. 5 and 6 can be used as the second image summarization process. Since the continuous image sequence is a continuous image including the same target object or a continuous image recognized as the same scene, the number of images is smaller than the number of images included in the continuous image sequence from the continuous image sequence.
  • the object summary image it is possible to reduce the redundancy of the image while suppressing the target object or the scene from being not included in the summary image sequence.
  • the number of images extracted as a summary image from a continuous image sequence may be reduced, and one image may be extracted in a narrow sense.
  • the second image summary processing unit 100 may select a summary image (object summary image) to be extracted from the continuous image sequence based on the area of the target object.
  • an image in which the target object is captured larger on the image can be used as a summary image, which makes it easy for the user to observe and the like.
  • image recognition or image detection information such as position in the image, color information, texture information, and recognition accuracy may be used.
  • the integration processing unit 300 performs processing for selecting an image included in at least one of the first summary image sequence and the second summary image sequence as a summary image (output summary image) of the output summary image sequence. You may perform as an integrated process of a summary image sequence and a 2nd summary image sequence.
  • the integration processing of the present embodiment can be realized by a simple method, and thus has an advantage of light processing load.
  • the first image summarization processing unit 100 may perform the first image summarization process by detecting a scene change based on the similarity between a plurality of images.
  • the plurality of images may be capsule endoscopic images. Then, the second image summarization processing unit 200 performs recognition processing using a region of interest in the living body imaged in the capsule endoscope image as a target object.
  • the attention area is an area where the priority of observation for the user is relatively higher than other areas.
  • the attention area is an area where the priority of observation for the user is relatively higher than other areas.
  • the user is a doctor and desires treatment
  • the object that the doctor desires to observe is a bubble or stool
  • the region of interest is a region in which the bubble or stool portion is copied.
  • the object that the user should pay attention to depends on the purpose of observation, but in any case, in the observation, an area in which the priority of observation for the user is relatively higher than other areas is the attention area.
  • the second image summarization processing unit 200 may perform a process of recognizing a region of interest in a living body based on a special light image acquired by irradiation with light of a specific wavelength band.
  • the specific wavelength band is a band narrower than the wavelength band of white light.
  • the special light image is an in-vivo image
  • the specific wavelength band may be a wavelength band of a wavelength absorbed by hemoglobin in blood. More specifically, the wavelength band may be 390 nm to 445 nm or 530 nm to 550 nm. This corresponds to narrow-band light observation called NBI (Narrow Band Imaging).
  • the light in a specific wavelength band is not limited to light corresponding to NBI, but corresponds to fluorescence observation called AFI (Auto-Fluorescence-Imaging) and infrared light observation called IRI (Infra-Red-Imaging). May be.
  • AFI Auto-Fluorescence-Imaging
  • IRI Infra-Red-Imaging
  • the first image summary processing unit 100 that acquires the first summary image sequence by the first image summary processing based on the similarity between the plurality of images, and each of the plurality of images.
  • a second image summarization processing unit 200 that obtains a second summary image sequence by a second image summarization process based on a target object or scene recognition process for the image, a first summary image sequence, and a second summary
  • the present invention can also be applied to a program that causes a computer to function as the integration processing unit 300 that acquires the output summary image sequence by performing the integration processing of the image sequence or the integration processing of the first image summarization processing and the second image summarization processing.
  • the image summarization process is performed in an information processing system such as a PC
  • this program is read and executed by a processing unit (CPU, GPU, etc.) of the PC.
  • the program is recorded on an information storage medium.
  • various recording media that can be read by an information processing system such as a PC, such as an optical disk such as a DVD or a CD, a magneto-optical disk, a hard disk (HDD), a memory such as a nonvolatile memory or a RAM, and the like. Can be assumed.
  • the second summary image sequence is updated based on the first summary image sequence.
  • FIG. 8A and FIG. 8B are diagrams for explaining the integration process of the second embodiment.
  • an input image sequence (a plurality of images included in the input image sequence) is represented by continuous horizontal straight lines.
  • the vertical line represents the object summary image selected as a result of the second image summarization process.
  • the horizontal arrows in FIG. 8A indicate that the images included in the range have detected the target object and the like, and each arrow is in a continuous image sequence (segment).
  • the horizontal line in FIG. 8B represents the input image sequence
  • the vertical line represents the similarity summary image.
  • a plurality of continuous image sequences set as a result of the second image summarization processing are combined into one combined continuous image sequence, and at least one summary image is extracted from the combined continuous image sequence.
  • the number of object summary images included in the second summary image sequence is reduced.
  • two adjacent images are selected from the similarity summary images included in the first summary image sequence. If a plurality of continuous image sequences set in the second image summarization process are included between the two similarity summary images, it is determined whether or not the plurality of continuous image sequences can be combined. I do.
  • adjacent similarity summary images instead of using adjacent similarity summary images as a reference, select adjacent consecutive image sequences and combine them based on whether they are between adjacent similarity summary images. It may be determined whether or not it is possible.
  • the continuous image sequence is between the two similarity summary images as long as at least one image included in the continuous image sequence is between the two similarity summary images. All image sequences need not be between two similarity summary images.
  • the continuous image sequence that is the extraction source may be the target of the combination determination.
  • the image selected as the extracted image is typically the image selected as the object summary image, but other images included in the continuous image sequence may be used.
  • FIG. 8 (A) and FIG. 8 (B) An example is shown using FIG. 8 (A) and FIG. 8 (B).
  • C1 and C2 As two adjacent similarity summary images in FIG. 8B, the continuous image sequence B1 and the continuous image sequence B2 shown in FIG. It will be included between C2. Therefore, it is determined whether or not B1 and B2 can be combined.
  • FIG. 9A shows a specific example of whether or not continuous image sequences can be combined.
  • the determination is performed using the similarity summary image and the object summary image selected from the plurality of continuous image sequences to be processed. Specifically, the similarity summary image is deformed and projected onto each of a plurality of object summary images (at least as many as the number of continuous image sequences to be combined and determined) to obtain a covered region. This process may be performed based on deformation information between images, as in the first image summarization process using the coverage. After that, for each image of the object summary image, it is determined whether or not the detected target object is within the coverage area. If the target object is within the coverage area in all the object summary images, the target It is determined that the continuous image sequence can be combined with the combined continuous image sequence.
  • the target object may be the same object Can be said to be expensive. That is, for this target object, it is not necessary to extract at least one object summary image from the plurality of continuous image sequences as many as the number of continuous image sequences. It is sufficient to extract a single object summary image.
  • the object summary image extracted from the combined continuous image sequence (corresponding to the union of B1 and B2 in FIG. 8A) is obtained from the continuous image sequence before combining unless the feature quantity used as a reference for selection is changed. It coincides with one of the extracted object summary images. That is, in the example of FIG. 8A, since either B3 or B4 is extracted from the combined continuous image sequence as an object summary image, the object summary image is narrowly defined as the continuous image sequence combining process. It corresponds to the process of deleting a part of
  • FIG. 10 is a flowchart for explaining the integration process of this embodiment. As shown in FIG. 10, the integration processing is a loop of S401 to S408, and the processing of S402 to S407 is performed for all images in the input image sequence.
  • the i-th image in the input image sequence is included in the first summary image sequence (S402). In the case of Yes, the i-th image is selected as the output summary image (S403). In the case of No in S402, it is determined whether the i-th image is included in the second summary image sequence (S404). In the case of No in S404, the i-th image is set as a deleted image (S407). If Yes in S404 (that is, if the i-th image is an object summary image), the i-th image and the previous object summary image are determined based on the relationship between the similarity summary images (S405). ). Specifically, as described above with reference to FIGS.
  • the i-th image and the previous object summary image are included between adjacent similarity summary images. Yes.
  • the process proceeds to S403 and the i-th image is selected as the output summary image.
  • FIG. 10 the flowchart of FIG. 10 is limited to two continuous image sequences to be combined at a time.
  • the object summary image corresponding to the subsequent continuous image sequence is deleted.
  • the integration processing unit 300 combines a plurality of continuous image sequences set in the second image summarization processing into one combined continuous image sequence based on the first summary image sequence, and combines them.
  • the second summary image sequence is updated by extracting at least one image from the continuous image sequence as a summary image (object summary image).
  • the update process is a process of deleting a part of the object summary image and reducing the number of images included in the second summary image sequence.
  • the continuous image sequence combining process may be performed specifically by the processes shown in FIGS. 8A, 8B, and 9, or by another method.
  • the integration processing unit 300 selects an image included in at least one of the first summary image sequence and the second summary image sequence after the update process as a summary image (output summary image) of the output summary image sequence. May be performed as an integration process of the first summary image sequence and the second summary image sequence.
  • FIG. 11 An example of the system configuration of the image summarization apparatus of this embodiment is shown in FIG. As shown in FIG. 11, the basic configuration is the same as that of the first embodiment, but the connection between the first image summarization processing unit 100 and the integration processing unit 300 is bidirectional. Different.
  • the integration processing unit 300 first acquires the result of the second image summarization process, and causes the first image summarization processing unit 100 to execute the first image summarization process based on the acquired result. .
  • FIGS. 12A to 12C Specific examples are shown in FIGS. 12A to 12C.
  • the expressions in FIGS. 12A to 12C are the same as those in FIGS. 8A and 8B.
  • the second summary image sequence is obtained by, for example, obtaining at least one summary image from a continuous image sequence based on the recognition processing of the target object or scene, as in the first embodiment. Obtain by extracting.
  • the first image summarization process is as shown in FIG. 12B in the first embodiment or the like, and S (i) is selected as the similarity summarization image (first reference image). In this case, the next similarity summary image S (i + 1) is searched for by making a determination based on the coverage after setting the second reference image.
  • the output summary image Such integration processing is also performed in the first embodiment. From this viewpoint, in the first image summarization process, not only the similarity but also the result of the second image summarization process is used to select the similarity summarization image (or the first reference image). The effect can be expected.
  • the image that is the object summary image is similar regardless of the similarity. It shall be selected as a summary image.
  • the image indicated by E1 should be a deleted image in the similarity determination, but the image is an object as indicated by D1 in FIG. Selected as a summary image. Therefore, as shown in FIG. 12C, in the first image summarization process in the present embodiment, the image is set as the similarity summary image S (i + 1).
  • the summary image may be set next.
  • S (i + 2) is selected based on the similarity
  • S (i + 3) is selected based on the object summary image.
  • the position in the image sequence of the similarity summary image in the narrow sense is set to another similarity summary image (similarity summary image one previous in the narrow sense).
  • the similarity summary image is selected by incorporating the result of the second image summarization process, as is apparent from FIGS. 12B and 12C, the result of the second image summarization process is selected.
  • images selected as similarity summary images are significantly different from those in the case where no is used.
  • the final output summary image string is The result of the first image summarization process may be used.
  • FIG. 13 is a flowchart for explaining the integration process of this embodiment. Actually, this is a flowchart for explaining the first image summarization process based on the result of the second image summarization process, which is similar to FIG.
  • FIG. 13 includes steps S512 to S514 added as the next step of step S505 in FIG. 4.
  • the integration processing unit 300 performs the first image summarization processing unit on the basis of the result of the second image summarization processing.
  • the image summarization process and the second image summarization process are integrated.
  • the first image summary processing unit 100 selects an image (object summary image) included in the second summary image sequence from a plurality of images as a reference image based on the integration process, and determines from the plurality of images. Select the target image, calculate the coverage of the determination target image by the reference image as similarity based on the deformation information between the reference image and the determination target image, and determine whether the determination target image can be deleted based on the coverage
  • the process of performing may be performed as the first image summarization process.
  • the reference image selection process in the first image summarization process is specifically performed based on the result of the second image summarization process. It becomes possible. More specifically, the object summary image included in the second summary image sequence may be used as the reference image as it is, and the image other than the object summary image may be processed based on the similarity as a basic rule.
  • the integration processing unit 300 may acquire the first summary image sequence generated by the first image summary processing unit as an output summary image sequence by the integration process.
  • the result of the first image summarization process based on the second image summarization process can be used as an output summary image sequence as it is.
  • an image that is a summary image (object summary image) as a result of the second image summary process is selected as a summary image (similarity summary image) in the first image summary process. Is done. Therefore, in the first image summarization process, an image based on the recognition process of the target object or the like is left, so the integration processing of the first summary image sequence and the second summary image sequence is not considered. Also good.
  • FIGS. 14A to 14E Specific examples are shown in FIGS. 14A to 14E.
  • FIG. 14A shows the second summary image sequence acquired first
  • FIG. 14B shows the first summary image sequence when the result of the second image summary processing is not used.
  • the acquired first summary image sequence is as shown in FIG. Become.
  • the second summary image sequence update process in FIG. 14A After the first summary image sequence in FIG. 14C is acquired, it is determined whether or not the second summary image sequence update process in FIG. 14A can be executed using this. Specifically, as described above in the second embodiment, it is determined whether or not a plurality of continuous image sequences can be combined with a combined continuous image sequence.
  • the continuous image sequences F1 and F2 in FIG. 14A are included in the similarity summary images G1 and G2 that are adjacent to each other, and are therefore subject to the combination determination.
  • the second summary image sequence is updated as shown in FIG. 14D
  • the object summary image shown in F3 in FIG. 14A is deleted, so that the output summary image corresponds to F3. Therefore, it is not necessary to include the image to be displayed. That is, since G1 of the first summary image sequence in FIG. 14C is not necessary, it is necessary to change the first summary image sequence.
  • the first image summarization process may be performed again based on FIG. 14D, which is the second summary image sequence after the update process, and as a result, a new first summary image sequence is obtained as shown in FIG. (E) is acquired.
  • the entire input image sequence may be processed.
  • the second summary image sequence is updated so that it can be understood which image in FIG. 14C needs to be deleted
  • the similarity summary image (G3 immediately before G1 to be deleted) is displayed. )
  • the process may be performed on a portion where the change may occur, that is, the image shown by G3 in FIG. 14C.
  • FIG. 15 is a flowchart for explaining the integration process of the present embodiment.
  • a second image summarization process is first performed (S601).
  • the process of S601 corresponds to the process of FIG.
  • the first image summarization process is performed based on the result of the second image summarization process (second summary image string in a narrow sense) (S602).
  • the process of S602 corresponds to the process of FIG.
  • the second summary image sequence is updated based on the first summary image sequence (S603).
  • the processing in S603 corresponds to the processing in S404 to S406 in FIG.
  • S605 After the process of S605, or in the case of No in S604, the process proceeds to S606, the corresponding first summary image sequence is set as the output summary image sequence, and the process ends. If Yes in S604, the processing result in S605 is set in the output summary image sequence. If No in S604, the processing result in S602 is set in the output summary image sequence. Become.
  • Step A When the first image summarization process based on the result of the second image summarization process is set as Step A and the update process of the second summary image string based on the first summary image string is set as Step B,
  • the first step A (corresponding to S602 in FIG. 15) and step B (S603) using the result are executed, and the second step A (S605) is executed using the result of step B. I was trying.
  • the second step B can be executed using the result of the second step A (the second summary image sequence changes as a result of the update process).
  • Step A and Step B may be repeatedly executed any number of times while including the result of the previous step.
  • the processing may be terminated at the stage of performing the Nth step (N is an integer of 2 or more), and the result may be the output summary image sequence.
  • Step B when it is detected that Step B could not be executed (or executed but the second summary image sequence did not change), the result of Step A immediately before that may be used as the output summary image sequence.
  • the integration processing unit 300 performs the number of images included in the second summary image sequence based on the first summary image sequence generated by the first image summary processing unit by the integration processing. It is determined whether or not the update processing of the second summary image sequence that reduces the amount of the image is performed.
  • the second summary image used in the second embodiment using the first summary image sequence (in the third embodiment, the output summary image sequence is used as it is) when the method of the third embodiment is used. It is possible to determine whether or not the summary image sequence update process is possible.
  • the first summary image sequence is obtained, the first image summarization processing and the second image summarization processing are integrated as described in the third embodiment, but the result is the result of the included image. Reduction in the number of sheets is not considered. Since the convenience of the user can be improved by reducing the number of images in the output summary image sequence, there is an advantage in trying to reduce the number of images.
  • the second summary image sequence used in the second embodiment is advantageous. It is assumed that update processing (specifically, continuous image sequence combining processing, etc.) is used.
  • the integration processing unit 300 may perform the update process of the second summary image sequence when it is determined that the update process of the second summary image sequence is executable. Then, the first image summarization processing unit executes the first image summarization process and the second image summarization process based on the result of the second image summarization process after the update process. As an integrated process of the image summarization process.
  • the next similarity summary image of H3 is H2 (or H3 rather than H2). Without selecting a (close image), the image between them cannot be covered from the viewpoint of similarity. However, if G1 is deleted in FIG. 14C, the next summary image after G3 becomes G2, and the interval becomes too wide to cover the image between G3 and G2. Therefore, as shown in FIGS. 14 (A) to 14 (D), when the update process for the second summary image sequence is performed, G1 is not simply deleted from FIG. 14 (C). It is desirable to perform the first image summarization process again using the second summary image sequence after the update process to obtain FIG.
  • the integration processing unit 300 may acquire the first summary image sequence generated by the first image summary processing unit as an output summary image sequence by the integration process.
  • the first summary image sequence acquired by the first image summary processing based on the second summary image sequence after the update process can be used as the output summary image sequence.
  • the first image summarization process an image based on the recognition process of the target object or the like is left, so the first summary image sequence and the second summarization image sequence
  • the integration processing with the summary image sequence may not be considered.
  • the output result is the first image based on the second summary image sequence before the update process. Since it is not different from the summarization process, it is desirable to skip the first image summarization process again as shown in the flowchart of FIG. In that case, the first summary image sequence acquired as the output summary image sequence is based on the second summary image sequence before the update process (the processing result of S602 in FIG. 15).
  • FIG. 17 shows a system configuration example of the image processing apparatus according to this embodiment.
  • the image processing apparatus includes a processing unit 100, an image sequence acquisition unit 30, and a storage unit 50.
  • the processing unit 100 performs image summarization processing on the image sequence acquired by the image sequence acquisition unit 30 by deleting some of the plurality of images included in the image sequence.
  • the function of the processing unit 100 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.
  • the image sequence acquisition unit 30 acquires an image sequence that is an object of image summarization processing.
  • RGB 3-channel images arranged in time series can be considered.
  • it may be an image sequence that is spatially continuous, such as an image sequence that is spatially arranged and photographed by imaging devices arranged in a horizontal row.
  • the image which comprises an image sequence is not limited to RGB 3 channel image, You may use other color spaces, such as a Gray1 channel image.
  • the storage unit 50 stores the image sequence acquired by the image sequence acquisition unit 30 and also serves as a work area for the processing unit 100 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive).
  • a memory such as a RAM or an HDD (hard disk drive).
  • the processing unit 100 includes an attention image sequence setting unit 1001, a first reference image selection unit 1002, a first determination target image selection unit 1003, and a first deletion possibility determination unit. 1004, a partial image sequence setting unit 1005, a second reference image selection unit 1006, a second determination target image selection unit 1007, and a second deletion possibility determination unit 1008 may be included.
  • the processing unit 100 is not limited to the configuration shown in FIG. 17, and various modifications such as omitting some of these components or adding other components are possible.
  • Each of the above-described units is set to explain each subroutine when the image summarization process executed by the processing unit 100 is divided into a plurality of subroutines, and the processing unit 100 does not necessarily include the above-described units. Does not have as.
  • the attention image sequence setting unit 1001 includes a plurality of image sequences that are acquired by the image sequence acquisition unit 30 (hereinafter, also referred to as acquired image sequences in order to clarify the distinction from the attention image sequence and the summary image sequence).
  • An attention image is extracted from the image, and an attention image sequence including one or more extracted attention images is set.
  • the attention image is, for example, an image obtained by capturing a region of interest (such as a lesion).
  • the detection of the attention area is assumed to be performed by the processing unit 100. For example, it is determined whether or not the attention area has been imaged by performing given image processing on each image of the acquired image sequence. What is necessary is just to make the image currently imaged into an attention image.
  • Various attention area detection methods may be considered. For example, an edge component may be extracted from an image, or a process of determining a color or the like from a pixel value may be performed.
  • the region of interest detection is not limited to that performed in the image processing apparatus.
  • the image sequence acquisition unit 30 is an image sequence to which metadata indicating whether each image is an image of interest is attached. May be obtained.
  • the target image sequence setting unit 1001 does not need to perform the target region detection process, and sets the target image sequence based on the metadata read process.
  • the first reference image selection unit 1002 selects a first reference image from a plurality of images in the image sequence of interest.
  • the first determination target image selection unit 1003 selects, as a first determination target image, an image different from the first reference image among the plurality of images in the acquired image sequence. Note that the first determination target image selection unit 1003 selects a first determination target image from images that are not the target image among a plurality of images in the acquired image sequence in a narrow sense.
  • the first deletion permission determination unit 1004 determines whether or not the first determination target image can be deleted based on the selected first reference image and first determination target image. Details will be described later.
  • the partial image sequence setting unit 1005 sets a partial image sequence composed of a part of images of the acquired image sequence based on the result of the first deletion availability determination process in the first deletion availability determination unit 1004.
  • the number of partial image sequences is not limited to one, and a plurality of partial image sequences may be set. Details will be described later.
  • the processing in the second reference image selection unit 1006, the second determination target image selection unit 1007, and the second deletion possibility determination unit 1008 is independent for each partial image sequence.
  • the second reference image is selected from a plurality of images in the partial image sequence.
  • the second determination target image selection unit 1007 selects an image different from the second reference image from among the plurality of images in the partial image sequence as the second determination target image.
  • the second deletion permission determination unit 1008 determines whether the second determination target image can be deleted based on the selected second reference image and the second determination target image. Details of each process will be described later.
  • FIG. 18 is a flowchart for explaining the image summarization process of this embodiment.
  • an attention image is extracted from a plurality of images in the acquired image sequence, and an attention image sequence is set (S701).
  • the first reference image is selected from the image sequence of interest (S702).
  • the first image among the images included in the image sequence of interest may be set as the first reference image.
  • the target image indicated by J1 is the first first reference image.
  • a process of updating the first reference image is performed based on the current position of the first reference image in the target image sequence.
  • an image that is one behind the current first reference image in the target image sequence may be used as a new first reference image.
  • the current first reference image is an image of J1
  • the image of J2 is selected as a new first reference image.
  • the first determination target image is selected from the acquired image sequence.
  • the process of S702 is performed for the first time, among the images included in the acquired image sequence and not included in the target image sequence, the first image in the acquired image sequence is set as the first determination target image. .
  • a process for updating the first determination target image is performed based on the current position of the first determination target image in the acquired image sequence. Specifically, among the images included in the acquired image sequence and not included in the target image sequence, an image that is one backward from the current first determination target image is added to the new first image in the acquired image sequence.
  • a determination target image may be used.
  • a first deletion permission determination process is performed (S704).
  • determination based on the coverage is performed, and specific processing will be described later.
  • information indicating whether or not the first determination target image at that time can be deleted is stored, and the process returns to S703.
  • the image is selected as the first determination target image when returning to S703. It means that there is no image, and the process returns to S702.
  • the update process of the first reference image is performed, and if updated, the process of S703 and S704 is repeated, so that the new reference image is included in the acquired image sequence, and It is determined whether or not all images not included in the image sequence of interest (all images other than J1 to J3 in the example of FIG. 16A) can be deleted.
  • the last image in the image sequence of interest (J3 in the example of FIG. 16A) is set as the first reference image, and the deletion permission determination by the processing of S703 and S704 using the first reference image is completed.
  • the process returns to step S702, it means that there is no image to be selected as the first reference image in S702, and the first deleteability determination process is terminated, and the process proceeds to S705.
  • each image included in the acquired image sequence and not included in the target image sequence can be deleted.
  • each image can be deleted a plurality of times.
  • an image determined to be deleted at least once can be deleted. This is because, in this embodiment, all the target images are left in the summary image sequence, and if they are covered by any one of the target images, even if they are not covered by other target images This is because there is no problem in deleting.
  • the image that can be deleted is determined not to remain in the summary image sequence.
  • an image that cannot be deleted is not determined to remain in the summary image sequence, and a second deletion permission determination process is performed. This is because an image that is determined not to be deleted is simply not covered by the image of interest, and if another image is covered by a given image among the images that are determined not to be deleted, the other image This is because there is no problem even if it is deleted.
  • three partial image sequences I5 to I7 are set. If there is one image that cannot be deleted in the first deletion permission determination process and it is not continuous, it is not set as a partial image sequence. This is because, since a closed process is performed on each partial image sequence, even if a partial image sequence composed of one image is set, another image can be deleted with a given image in the partial image sequence This is because it cannot happen. Therefore, one non-consecutive image that is determined not to be deleted in the first deletion permission determination process is determined as an image to be left in the summary image sequence without performing the second deletion permission determination process.
  • the top image of the partial image sequence is selected as the second reference image (S706).
  • a second determination target image is selected from images other than the second reference image among images included in the partial image sequence (S707).
  • the processing of S707 is performed for the first time after the setting of the second reference image
  • the image immediately after the second reference image is set as the second determination target image.
  • the second determination target image is updated based on the current position of the second determination target image in the partial image sequence.
  • an image one behind the current second determination target image may be set as a new second determination target image.
  • a second deletion permission determination process is performed (S708).
  • a determination process based on the coverage is performed in the same manner as the first deleteability determination process, and details will be described later.
  • the process returns to S707 to update the second determination target image.
  • the processes of S707 and S708 are repeated and the last image in the partial image sequence is set as the second determination target image, if it can be deleted in S708 and the process returns to S707, the partial image sequence is generated using the second reference image. Since all the other images are covered, the second reference image is left in the summary image sequence and all other images are deleted, and the processing for the partial image sequence is terminated. Specifically, there is no image to be selected as the second determination target image in S707, and the process returns to S705.
  • the process returns to S705, and an image sequence composed of the second determination target image at that time and the subsequent images in the partial image sequence is set as a new partial image sequence. .
  • the first image of the new partial image sequence that is, the second determination target image that cannot be deleted in the above-described processing, is set as the second reference. Can be set as an image (can be left in the summary image sequence).
  • one or a plurality of partial image sequences set as a result of the first deletion permission determination process and the partial image sequences newly set as the processing results of S706 to S708 corresponding to them are sequentially selected.
  • the image summarization processing of this embodiment is terminated.
  • the image set as the second reference image is left in the summary image sequence, and other images are deleted.
  • FIG. 19A to FIG. 19D illustrate the flow of processing for one image sequence among the partial image sequences set as a result of the first deletion permission determination process.
  • FIG. 19A when an image sequence having N images is set as a partial image sequence as a result of the first deletion permission determination process, first, the first image is the second reference. The image is selected and the second image is selected as the second determination target image. Then, it is determined whether or not the second determination target image can be deleted.
  • a second determination target image is newly selected. Specifically, the process is performed to shift the position of the second determination target image backward, and the third image is selected as the second determination target image as shown in FIG. Then, it is determined whether or not the new second determination target image can be deleted, and the image selected as the second determination target image is updated until a second determination target image that is determined to be undeleteable is found.
  • the second to k ⁇ 1th images are deleted. Since the image means that it is covered to some extent by the second reference image, it is deleted and not included in the summary image sequence. On the other hand, since the kth image cannot be sufficiently covered by the second reference image, it must be left in the summary image sequence. For this purpose, the kth image and the subsequent images (k to Nth images) are set as new partial image sequences.
  • the processing shown in FIGS. 19A to 19C may be repeated for the new partial image sequence.
  • the first (k-th in FIG. The reference image, the second image (k + 1th in FIG. 19C, etc.) is processed as the second determination target image.
  • the subsequent processing is the same.
  • the next image is selected as a new second determination target image. If it is determined that the second determination target image is not erasable, the second reference image is left in the summary image sequence, the image determined to be erasable is deleted, and the second determination target image after that point Are set as a new partial image sequence.
  • processing is performed when it is determined that all of the last image in the partial image sequence can be deleted, or when only one image is included in the partial image sequence and the second determination target image cannot be set. Will end.
  • the present invention is not limited to this.
  • the configuration of the processing unit 100 is suitable for parallel processing (for example, a CPU having a plurality of cores is used as the processing unit 100), or the image processing apparatus of this embodiment is configured by a plurality of computers.
  • the second deletion permission determination processing may be performed in parallel on the plurality of partial image sequences. In this way, it is possible to shorten the time required for the second deletion permission determination process.
  • the first deletion permission determination unit 1004 may include a deformation information acquisition unit 1009, a coverage area calculation unit 1010, a coverage rate calculation unit 1011, and a threshold determination unit 1012.
  • the first deletion permission determination unit 1004 is not limited to the configuration of FIG. 20, and various modifications such as omitting some of these components or adding other components are possible. .
  • the deformation information acquisition unit 1009 acquires deformation information between two images.
  • the deformation information acquisition unit 1009 as described above for the deformation information includes the first reference image selected by the first reference image selection unit 1002 and the first selected by the first determination target image selection unit 1003. The deformation information between the determination target images is acquired.
  • the covering area calculation unit 1010 obtains a covering area by projecting one image onto the other image using deformation information (deformation parameters) between two images.
  • the coverage calculation unit 1011 calculates the coverage based on the coverage area.
  • the threshold determination unit 1012 performs a comparison process between the calculated coverage and a given threshold. Since the specific processing content is the same as that of the first embodiment and the like, detailed description is omitted.
  • the second deletion permission determination process is also performed based on the coverage.
  • the second deletion permission determination unit 1008 may include a deformation information acquisition unit 1013, a coverage area calculation unit 1014, a coverage rate calculation unit 1015, and a threshold determination unit 1016.
  • the second deletion permission determination unit 1008 is not limited to the configuration of FIG. 21, and various modifications such as omission of some of these components and addition of other components are possible. .
  • the deformation information acquisition unit 1013 acquires deformation information between the second reference image and the second determination target image.
  • the covering area calculation unit 1014 deforms the second reference image based on deformation information between the second reference image and the second determination target image, and projects the second reference image onto the second determination target image. Calculate the area.
  • the coverage calculation unit 1015 obtains the coverage from the area of the coverage region with respect to the area of the entire second determination target image.
  • the threshold determination unit 1016 performs a comparison process between the calculated coverage and a given threshold. Note that the threshold value used in the second deletion permission determination process may be a value different from the threshold value used in the first deletion permission determination process.
  • the first deleteability determination process and the second deleteability determination process are the same process.
  • the processing unit 100 of the present embodiment includes a deformation information acquisition unit, a coverage area calculation unit, a coverage rate calculation unit, and a threshold value determination unit, each of which includes a first deletion permission determination process and a second deletion determination process. Both of the deletion permission / inhibition determination processing may be performed.
  • the image processing apparatus has an image sequence acquisition unit 30 that acquires an image sequence having a plurality of images, and a plurality of images in the image sequence acquired by the image sequence acquisition unit 30.
  • the processing unit 100 sets a target image sequence composed of one or a plurality of target images included in a plurality of images. Then, the first reference image is selected from the set target image sequence, and the first determination target image is selected from the plurality of images, and represents the deformation between the first reference image and the first determination target image.
  • a process for determining whether or not the first determination target image can be deleted based on the first modification information is performed as a first deletion permission determination process.
  • the processing unit 100 sets a partial image sequence in which a plurality of images determined not to be deleted in the first deletion permission determination process are consecutive from the image sequence. Then, the processing unit 100 selects the second reference image and the second determination target image from the partial image sequence, and the second deformation information representing the deformation between the second reference image and the second determination target image. Based on the above, a process for determining whether or not the second determination target image can be deleted is performed as a second deletion determination process.
  • the attention image is an image that should be noted by the user, and may be, for example, an image in which a specific subject is captured or an image having a specific color. Further, whether or not the image is an attention image is not limited to being determined from the image itself (for example, by image processing or the like). For example, sensor information from a sensor provided in the imaging device is attached to the image as metadata, It may be determined whether the image is an attention image based on the metadata.
  • image summarization processing can be performed using two viewpoints, that is, whether the image is a noticed image and whether the image to be deleted is covered by an image that is left based on deformation information between a plurality of images.
  • An effective image summarization process can be performed.
  • the effect of reducing the number of images is not sufficient as shown in FIG. 16 (B) simply by performing the processing from each viewpoint and simply combining the results. Therefore, here, a two-stage process is performed: a first deleteability determination process based on a target image that is determined to remain, and a second deleteability determination process for a partial image sequence that cannot be deleted based on the target image reference.
  • This enables efficient image summarization processing.
  • the first determination target image in the first deletion permission determination process may be selected from the entire plurality of images in the image sequence.
  • the attention image among the plurality of images in a narrow sense. Selected from images not included in the column.
  • the processing unit 100 may perform at least one of the first coverage determination process and the first structural element determination process as the first deletion permission determination process.
  • the processing unit 100 may perform at least one of the second coverage determination process and the second structural element determination process as the second deletion permission determination process.
  • the first coverage determination processing obtains the coverage of the first determination target image based on the first reference image based on the first deformation information, and performs the first determination based on the obtained coverage. This is processing for determining whether or not the target image can be deleted.
  • the first structural element determination process is a process for determining whether or not the first determination target image can be deleted based on the result of the process using the structural element corresponding to the region of interest and the first deformation information.
  • the second coverage determination processing obtains the coverage of the second determination target image based on the second reference image based on the second deformation information, and performs the second determination based on the obtained coverage. This is processing for determining whether or not the target image can be deleted.
  • the second structural element determination process is a process for determining whether or not the second determination target image can be deleted based on the result of the process using the structural element corresponding to the region of interest and the second deformation information.
  • the attention area is an area where the priority of observation for the user is relatively higher than other areas.
  • the attention area is an area where the priority of observation for the user is relatively higher than other areas.
  • the user is a doctor and desires treatment
  • the object that the doctor desires to observe is a bubble or stool
  • the region of interest is a region in which the bubble or stool portion is copied.
  • the object that the user should pay attention to depends on the purpose of observation, but in any case, in the observation, an area in which the priority of observation for the user is relatively higher than other areas is the attention area.
  • coverage even if a given image is deleted, a certain percentage of the image (for example, a ratio based on area) should be covered by the summary image that remains in the summary image sequence. Can be ensured, and generation of an area that cannot be observed by the image summarization process can be suppressed.
  • a structural element even if a given image is deleted, it is guaranteed that at least a part of a region having a size corresponding to the structural element captured in the image is captured in the summary image. it can. Therefore, by setting the structural element corresponding to the attention area, it is possible to suppress the occurrence of the attention area that cannot be observed by the image summarization process.
  • the processing unit 100 may perform a process of detecting a region of interest from a plurality of images, and set an image from which the region of interest is detected among the plurality of images as a target image.
  • an attention image sets an area with many edge components as an attention area (for example, extracts a fold or a blood vessel structure in a living body), and a structural element sets a lesion area as an attention area (for example, a given size or more) May also be used.
  • the image sequence acquisition unit 30 may acquire a plurality of in-vivo images obtained by imaging the inside of the living body as the image sequence.
  • the processing unit 100 performs a process of detecting a lesion area as an attention area from a plurality of in-vivo images, and sets an image in which the lesion area is detected among the plurality of in-vivo images as an attention image.
  • a process using a lesion area can be performed as an attention area, for example, it can be used for diagnosis using an image acquired by a capsule endoscope or the like.
  • an endoscope apparatus including an imaging unit (for example, provided at the distal end portion of an endoscope scope) and the above-described image processing apparatus.
  • the processing unit 100 may perform the second deletion permission determination process in parallel on the plurality of partial image sequences.
  • the second deletion permission determination processing part can be performed by parallel processing, so that the processing speed can be increased.
  • the image processing apparatus or the like according to the present embodiment may realize part or most of the processing by a program.
  • a processor such as a CPU executes the program, thereby realizing the image processing apparatus according to the present embodiment.
  • a program stored in the information storage medium is read, and a processor such as a CPU executes the read program.
  • the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc.
  • a processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium.
  • the information storage medium includes a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
  • the configuration example of the image processing apparatus according to the present embodiment is the same as that in FIG. 17, although the processing contents in the first deletion permission determination unit 1004 and the second deletion permission determination unit 1008 are different. To do.
  • the processing flow is the same as that in the flowchart of FIG. 18 although the processing contents in S704 and S708 are different, and detailed description thereof is omitted.
  • the attention region here is the same as the reference of the attention image used in the attention image sequence setting unit 1001 in FIG. 17 (for example, the attention image sequence is set using the image obtained by imaging the lesion as the attention image). If there is, the structural element here may be set based on the lesioned part) or may be different.
  • the attention area in the setting of the attention image sequence and the attention area in the first deletion permission determination process are the same, the image in which the attention area is captured is included in the attention image sequence.
  • the region of interest is automatically detected by the system. In this case, it is difficult to detect the attention area with 100% accuracy, and an image that cannot be detected (cannot be the attention image) while the attention area is captured may be generated.
  • the second deletion permission determination process is the same as the first deletion permission determination process, a detailed description thereof will be omitted, and the first deletion permission determination process will be described.
  • the first deletion possibility determination unit 1004 includes a structural element generation unit 1017, a deformation information acquisition unit 1009, a covering region calculation unit 1010, and a region of interest missed possibility determination unit 1018. May be included.
  • the first deletion permission determination unit 1004 is not limited to the configuration in FIG. 22, and various modifications such as omission of some of these components or addition of other components are possible. .
  • the structural element generation unit 1017 generates a structural element used for processing in the attention area miss possibility determination section 1018 based on the attention area.
  • a region having the same shape and the same size as a region of interest that is not preferable to be overlooked is set, but this is not a limitation.
  • the covering area calculation unit 1010 may calculate a covering area and set a non-covering area as a non-covering area in the second determination target image.
  • the attention region miss possibility determination unit 1018 is in a situation where the attention region captured on the first determination target image is not captured by the first reference image (that is, Judgment processing is performed on the possibility of missing the attention area.
  • the structural element generation unit 1017 generates a structural element based on the attention area.
  • an area having a size and shape that is not preferable to be overlooked is set as a structural element.
  • the structural element is a circle with a diameter of 30 pixels. Will be set.
  • the deformation information acquisition unit 1009 acquires deformation information between the first reference image and the first determination target image.
  • the coverage area calculation unit 1010 uses the acquired deformation information to project the first reference image onto the first determination target image to obtain a coverage area.
  • the attention area missing possibility determination unit 1018 determines the possibility of missing the attention area. Specifically, the shrinkage process using the structural element is performed on the non-covered area that is an area other than the covered area in the first determination target image to determine whether or not there is a remaining area.
  • the non-covering region is always a closed region, and the boundary can be set.
  • BO1 that is the outer boundary and BO2 that is the inner boundary are set.
  • the contraction process by the structural element is a process of cutting the overlapping area between the non-covering area and the structural element when the reference point of the structural element is set on the boundary of the non-covering area.
  • a circular area is set as a structural element and the reference point is the center of the circle
  • a circle having a center is drawn on the boundary of the non-covered area
  • the circle and the non-covered area overlap is excluded from the uncovered area.
  • a circle centered on a point on the outer boundary BO1 of the non-covering region is drawn, and an overlapping region with the non-covering region (in this case, a half-line indicated by diagonal lines) (Circular area) is excluded.
  • the outer boundary BO1 is composed of a plurality of points in consideration of discrete processing, the above-described processing may be performed for each point of the plurality of points.
  • a circle centered on the point on the boundary BO1 is sequentially drawn in a given direction, and the overlapping area with the non-covering area is not covered. What is necessary is just to exclude from a covering area
  • the area of the uncovered area is reduced.
  • the non-covering process is performed by BO1 shown in FIG. 23A and BO2 shown in FIG.
  • the covered area is completely deleted and there is no remaining area.
  • a residual area RE that remains without being excluded in both the shrinking process in BO1 and the shrinking process in BO2 occurs. . Therefore, the result of performing the contraction process by the structural element on the entire uncovered region here is as shown in FIG. 23D, and the residual region RE is generated.
  • a non-covered region that is a closed region can be considered as a region inside a boundary (may be a different boundary such as BO1 and BO2, or may be one boundary).
  • a boundary may be a different boundary such as BO1 and BO2, or may be one boundary.
  • R radius
  • the basic concept is the same.
  • the case where there is a residual region is a case where the region corresponding to the structural element is included in the uncovered region as shown in the lower right of FIG.
  • the first determination target image is deleted, there is a possibility that the region of interest cannot be observed even if the first reference image remains.
  • the attention area missing possibility determination unit 1018 performs the contraction process with the structural element on the uncovered area, and whether or not the first determination target image can be deleted based on whether or not there is a remaining area. Make a decision.
  • first and second deletion permission determination processes those using coverage and those using structural elements are conceivable.
  • the first and second deletion permission / inhibition determination processing is not limited to processing using them alone, and a plurality of them may be combined.
  • both the process using the coverage and the process using the structural element are performed as the first deleteability determination process, and the process and the structural element using the coverage are used as the second deleteability determination process. Both processes may be performed.
  • it can be deleted by determination based on the coverage rate,
  • it can be deleted when it can be deleted by the determination based on the structural element, and can be deleted in other cases.
  • the threshold used for the comparison process with the coverage in the first deletion permission determination process and the threshold used for the comparison process with the coverage in the second deletion permission determination process may be the same.
  • the structural element used in the first deleteability determination process (its size in the narrow sense) and the structural element used in the second deleteability determination process (the size in the narrow sense) may be the same. However, it may be different.
  • first deleteability determination process and the second deleteability determination process are not limited to the same process.
  • first deleteability determination process may be a process based on the coverage
  • second deleteability determination process may be both a process based on the coverage and a process based on the structural element.
  • the first and second deletion feasibility determination processing since processing using a plurality of viewpoints (coverage and structural elements in the above example) is performed at least one of the first and second deletion feasibility determination processing, compared to processing from a single viewpoint Since the determination accuracy can be improved and the processing from a given viewpoint (structural element in the above example) can be omitted in one of the first and second deletion permission determination processing, the first and second deletion The processing load can be reduced as compared with the case where the processing is performed using all the viewpoints in both of the determination processing.
  • the first and second deletion permission determination processes it is desirable that processes from both viewpoints are used in at least one of the first and second deletion permission determination processes. For example, it is preferable to avoid using the coverage in the first deletion permission determination process and using the structural element in the second deletion permission determination process. This is because, depending on the image to be processed, there is a possibility that sufficient accuracy cannot be obtained by processing with a single coverage factor or a single structural element.
  • the use of both the coverage rate and the structural element improves the determination accuracy only because both processes are performed in a certain combination of a reference image and a determination target image. However, a combination of the first reference image and the first determination target image in the first deletion permission determination process, and a combination of the second reference image and the second determination target image in the second deletion permission determination process.
  • the deletion possibility determination process may be performed from three or more viewpoints. In that case, in at least one of the first deletion permission determination process and the second deletion permission determination process, it is desirable to perform processing using all viewpoints.
  • the processing unit 100 when the processing unit 100 performs the first coverage determination process as the first deletion permission determination process, the processing unit 100 performs the second coverage determination process as the second deletion permission determination process. May be performed. Further, when the first structural element determination process is performed as the first deletion permission determination process, the processing unit 100 may perform the second structural element determination process as the second deletion permission determination process. .
  • the processing unit 100 may perform both the first coverage determination process and the first structural element determination process as the first deletion permission determination process. Further, the processing unit 100 may perform both the second coverage determination process and the second structural element determination process as the second deletion permission determination process.
  • the first deletion permission determination process and the second deletion permission determination process is performed by both the coverage ratio determination process and the structural element determination process.
  • the determination accuracy can be improved as compared with the case where both the possibility determination processes are only the coverage ratio determination processes or when both the first and second deletion possibility determination processes are only the structural element determination processes.
  • both the coverage determination process and the structural element determination process may be performed in both the first deletion permission determination process and the second deletion permission determination process.
  • the processing load can be reduced by simplifying one of the first and second deletion permission determination processes (for example, omitting the structural element determination process).
  • the first coverage determination process may be a determination process based on a comparison result between a value representing the coverage of the first determination target image based on the first reference image and the first coverage threshold.
  • an element of the first size is set as a structural element, and in a region where the first determination target image is not covered by the contraction process by the set structural element or the first reference image, It may be a process for determining whether or not the set structural element is included.
  • the second coverage determination process is a determination process based on a comparison result between a value representing the coverage of the second determination target image based on the second reference image and the second coverage threshold. Good.
  • an element of the second size is set as a structural element, and in a region where the second determination target image is not covered by the contraction process by the set structural element or the second reference image, It may be a process for determining whether or not the set structural element is included.
  • contraction processing using a structural element may be performed on a determination target image.
  • FIG. 24A contraction processing using a structural element may be performed on a determination target image.
  • the attention area typically, an element having a size twice as large as the attention area is set as a structural element
  • FIG. 24B the remaining area is a required area that is required to be covered by the reference image. That is, in this case, it is sufficient to determine whether or not deletion is possible depending on whether or not the entire covering area is covered with the reference image.
  • the reference image And one of the required coverage areas may be deformed by the deformation information, and inclusion determination using the deformed area may be performed. If the covering area is included in the reference image, the determination target image can be deleted, and if there is a portion that is not included, the determination target image cannot be deleted.
  • the deletion permission / inhibition determination process using the structural element is not limited to the process using the contraction process, and may be a process for determining whether or not the structural element is included in the uncovered area.
  • a simple method that performs a comparison process with a small diameter may be used.
  • processing unit 100 may set a value different from the first coverage threshold value as the second coverage threshold value. Further, the processing unit 100 may set a size different from the first size as the second size.
  • the method shown in FIGS. 19A to 19D is used as a method for selecting the second reference image and the second determination target image in the second deletion permission determination process.
  • the method for selecting the second reference image and the second determination target image is not limited to the method shown in FIGS. 19A to 19D.
  • a method will be described in which two images (a front reference image and a rear reference image) are set as the second reference image, and the image in between is set as the second determination target image.
  • the covering area at this time is obtained by deforming the front reference image based on deformation information between the front reference image and the second determination target image, as shown in FIG.
  • a covered region may be a region that is a union of the region and a region obtained by transforming the rear reference image based on deformation information between the rear reference image and the second determination target image. This is because there is no problem even if the second determination target image is deleted as long as it is covered by at least one of the front reference image and the rear reference image. Note that the processing after calculating the coverage area is the same as that described above for both the method using the coverage and the method using the structural element.
  • the q-th image As a result of selecting the q-th image as the rear reference image and determining whether or not to delete, it is determined that all images between the front reference image and the rear reference image can be deleted Is described as “the q-th image is OK”, and a situation where at least one image between the front reference image and the rear reference image cannot be deleted is expressed as “the q-th image is NG”. .
  • the first to Nth images are input as the partial image sequence, the first image is selected as the front reference image, and the qth image is selected as the rear reference image, and the optimum position of the rear reference image is searched.
  • the second to q ⁇ 1th images are sequentially selected as the second determination target image, and it is determined whether the qth image is OK or NG. If the q-th image is OK, it means that the interval between the front reference image and the rear reference image may be further widened. Therefore, a new rear reference image is assigned to the q + 1-th image and its back. Select from images. On the other hand, when the q-th image is NG, it means that the space between the front reference image and the rear reference image is excessively widened. By selecting the reference image, the determination is made for the front image.
  • the next reference image of the front reference image is searched by updating the rear reference image backward in the case of OK and forward in the case of NG.
  • the position of the new backward reference image By appropriately updating the position of the new backward reference image, the number of images selected as the backward reference image before the discovery of the next summary image can be reduced, and an effect of reducing the amount of calculation can be expected.
  • the second reference image selection unit 1006 includes a front reference image selection unit 1019 and a rear reference image selection unit 1020.
  • the front reference image selection unit 1019 selects the front reference image
  • the rear reference image selection unit 1020 selects the rear reference image.
  • the top image (first image) of the partial image sequence is selected as the front reference image.
  • the partial image sequence is the partial image sequence acquired by the first deletion permission determination process (when the first front reference image selection process is performed)
  • an image other than the top image is selected as the front reference image.
  • the front reference image is the first image unless otherwise specified.
  • a rear reference image selection section (actually corresponding to a range for searching for the next summary image of the front reference image) corresponding to the image to be selected for the rear reference image is set.
  • the case where the rear reference image is the (N + 1) th image corresponds to the case where it is possible to cover all the rear images with only the front reference image and determine whether the rear reference image is unnecessary.
  • a rear reference image is selected from the set rear reference image selection section.
  • the rear reference image is determined based on a given condition. First, when the rear reference image is selected for the first time after setting the front reference image, the i + 1th image (third image in a narrow sense) is selected as the rear reference image.
  • FIG. 28A illustrates the processing so far.
  • the front reference image is the first image
  • the rear reference image Is the third image.
  • the position of the rear reference image may be further separated from the front reference image.
  • a new rear reference image an image behind the current one is selected.
  • the 2 ⁇ a-th image counted from the front reference image may be used as a new rear reference image.
  • the third image second from the front reference image
  • the third image is OK.
  • the fifth image fourth from the front reference image
  • the rear reference image since the rear reference image is selected from the rear reference image selection section, this prevents the image ahead of the current position from being selected.
  • the third image when the third image is OK, the second image is not a summary image, so it may be excluded from the selected section, and the start point of the selected section is set to the third point. Update to an image.
  • the ninth image is selected as a new rear reference image, and the starting point of the rear reference image selection section is updated to the fifth image.
  • the value of q is If it becomes larger, the new rear reference image may become extremely rearward.
  • the back reference image cannot be selected because the image behind N + 1 is a candidate, or the interval between the back reference images before and after the update is too wide, and the next summary image is searched. Or become inefficient.
  • a new rear reference image is determined based on the value of (q + j) / 2.
  • the starting point of the rear reference image selection section is updated to the 9th image, so that the half-open section of [9, 14) is obtained. That is, by setting the image near the center as a new rear reference image, the center of the search range is set as a processing target.
  • the method of halving the search range by determining the center of the search range is not limited to the widely known binary search, and it is also widely known that the binary search has an advantage in terms of computational complexity. Yes.
  • the rear reference image selection section of the present embodiment may be considered that if a given image is OK, all the images ahead of it are OK, and if the given image is NG, all the images behind it are NG.
  • the binary search method can be applied. That is, efficient processing can be expected by selecting a new rear reference image from near the middle between the rear reference image before update and the end point of the rear reference image selection section.
  • the method of doubling the distance from the front reference image starting point and the method corresponding to the binary search are used together.
  • the q-th image is a rear reference image before update
  • the k-th image satisfying the following expression (1) may be used as the next rear reference image.
  • min (a, b) represents the smaller one of a and b.
  • the rear reference image selection section (in the narrow sense, the search range of the next summary image) is narrowed.
  • the next summary image is a k-th image when the k-th image is OK and the k + 1-th image is NG. Therefore, when a location where the OK image and the NG image are adjacent to each other is found. Processing will be terminated.
  • the i-th image is OK
  • the j-th image next to it is NG
  • the q-th image in between is the rear reference image.
  • the q-th image is OK
  • the image is as shown in FIG.
  • an image sequence composed of the image and subsequent images may be set as a new partial image sequence.
  • the subsequent processing is the same and detailed description thereof is omitted.
  • FIG. 29 shows a flowchart for explaining the image summarization processing of the present embodiment. Since S801 to S805 are the same as S701 to S705 of FIG. 18, detailed description thereof is omitted.
  • the head image of the partial image sequence to be processed is selected as the front reference image (S806), and the rear reference image selection section is set (S807).
  • a rear reference image is selected from the rear reference image selection section set in S807 (S809).
  • the processing of S809 is performed for the first time after setting the front reference image in S806, for example, the i + 1th image (two images behind the front reference image) may be selected. In other cases, processing for selecting a new rear reference image is performed in accordance with the position of the immediately preceding rear reference image.
  • the second determination target image is selected (S810).
  • the process of S810 is performed for the first time after the selection of the rear reference image in S809, the first image (second image in FIG. 28A) among the images between the front reference image and the rear reference image is selected. select.
  • the second deletion possibility determination process for example, the coverage area calculation process, the coverage rate calculation process, the threshold determination process, etc.
  • the process returns to S809, the second determination target image is updated to the next image, and the same processing is performed.
  • the processing unit 100 satisfies the pth (p satisfies 1 ⁇ p ⁇ N).
  • a front reference image that is an (integer) image and a rear reference image that is a qth image (q is an integer of p + 2 or more) are selected as the second reference image.
  • the r-th image (r is an integer satisfying p + 1 ⁇ r ⁇ q ⁇ 1) is selected as the second determination target image.
  • the front deformation information representing the deformation between the front reference image and the second determination target image and the rear deformation information representing the deformation between the rear reference image and the second determination target image are used as the second deformation information. Based on the obtained front deformation information and rear deformation information, it is determined whether or not the second determination target image can be deleted.
  • the image to be deleted is covered by the image to be left (if the coverage is high, the area ratio is high, and if it is a structural element, it indicates that at least a part of the region of interest is captured) Guaranteeing is the basis of the processing using the deformation information in the present embodiment. Therefore, if there are a plurality of images to be left, even if an image cannot be covered by one of them, there is no problem if it can be deleted if it can be covered by combining a plurality of images to be left. Therefore, here, the use of two reference images increases the possibility of determining that the determination target image can be deleted, and improves the effect of reducing the number of images by the image summarization process.
  • the processing unit 100 selects a rear reference image from the rear reference image selection section in which start points and end points corresponding to the (p + 2) th to Nth images are set, and 2 based on the front reference image and the rear reference image. It may be determined whether or not the determination target image can be deleted. If it is determined that the (p + 1) th to (q-1) th images can be deleted, the xth (x is an integer satisfying x> q) image included in the rear reference image selection section is used as a new rear reference image. And the starting point of the rear reference image selection section is updated to the qth image.
  • the rear reference image selection section includes the (p + 2) th to Nth images in view of the nature of an image that is a candidate for the rear reference image.
  • a virtual image such as the (N + 1) th image may be selected as the rear reference image
  • the end point of the rear reference image selection section may be larger than N.
  • the next summary image the forward reference image is determined as a summary image, meaning the next summary image
  • the image that is not selected as the rear reference image Even so, an image that can be selected as a summary image may be included in the selected section.
  • an image (p + 1-th image) one behind the front reference image may be set as the starting point of the rear reference image selection section.
  • a method of checking the search range one by one from the top and reducing the search range may be used so that the rear reference image is updated backward one by one.
  • an image that is not adjacent to each other can be selected as a new rear reference image, so that the search range may be greatly reduced by one unit of determination (determination of whether the qth image is OK or NG).
  • Which update method is effective depends on the properties of the partial image sequence to be processed. For example, in a situation where the correct position can be predicted to some extent, the vicinity of the predicted position should be intensively searched. Therefore, a method of moving the rear reference image one by one may be used, and when the correct position cannot be predicted, etc.
  • the above-described binary search or the like may be used in consideration of the expected amount reduction of the calculation amount.
  • the processing unit 100 when it is determined that at least one of the (p + 1) th to (q-1) th images cannot be deleted, the processing unit 100 includes the yth (y is an integer satisfying y ⁇ q) included in the rear reference image selection section. ) May be selected as a new rear reference image. At the same time, the end point of the rear reference image selection section is updated to the qth image.
  • an image ahead of the current rear reference image can be selected as a new rear reference image.
  • the backward search is not limited to selecting adjacent images, an unsearched range may remain ahead of the current backward reference image, and depending on the determination result of whether or not deletion is possible, It is possible that there is a correct answer in the unsearched range. In that case, it is possible to perform appropriate processing by performing a forward search. Further, as in the backward search, selection of a new backward reference image is not limited to adjacent images.
  • the processing unit 100 may set the value of x based on the value of (q + j) / 2 when the j-th image (j is an integer) corresponds to the end point of the rear reference image selection section.
  • the value of y may be set based on the value of (i + q) / 2.
  • the processing unit 100 includes one of the plurality of images selected as the front reference image in the summary image sequence. Processing may be performed. At the same time, one of a plurality of images corresponding to the start point and a rear image in the partial image sequence from one of the plurality of images corresponding to the start point are set as a new partial image sequence, and the set new part The process may be performed again with the value of p set to 1 for the image sequence.
  • the start point and the end point are adjacent indicates that the image corresponding to the start point and the image corresponding to the end point are adjacent in the partial image sequence.
  • N images are given as the partial image sequence
  • the partial image sequence is a set of images that are continuous in time series or spatially. You can define forward and backward. For example, an image acquired at an earlier time in time series is an image ahead of an image acquired at a later time.
  • an image that is predicted to be the farthest from the front reference image in the image group determined to be OK when selected as the rear reference image is displayed as a new partial image sequence.
  • the first image (corresponding to the next summary image) can be selected. This is because, as shown in FIG. 28F and the like, this end condition is equivalent to searching for a position where an OK image and an NG image are adjacent to each other. Therefore, the number of summary images included in the finally output summary image sequence can be reduced, and the burden on the user can be reduced.
  • the present invention is not limited to the first to seventh embodiments and modified examples as they are.
  • the constituent elements can be modified and embodied without departing from the spirit of the invention.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described first to seventh embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in the first to seventh embodiments and the modified examples. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification.
  • a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

画像処理装置、プログラム及び画像処理方法
 本発明は、画像処理装置、プログラム及び画像処理方法等に関する。
 所与の時間間隔により時系列的に静止画の撮像を継続した場合、空間的な広がりを持つ被写体を多数の画像により網羅した場合、或いは動画像を撮像した上で当該動画像を構成する各画像を静止画像としてとらえた場合等では、時間的或いは空間的に連続する非常に大量の画像(以下、画像列とも記載する)が取得されることになる。このような場合には、画像列中で近くにある(つまり時間的或いは空間的に近くにある)画像同士は似通った画像である可能性が高く、撮像した内容を把握するに当たって大量の画像のすべてをチェックする必要性は高くない。そもそも、画像の枚数は数万枚以上となることも珍しくなく、ユーザの手ですべてをチェックすること自体、負担が大きい。
 そのため、画像列から一部の画像を削除することで元の画像列より枚数の少ない画像列に要約する(以下、この処理を画像要約処理と記載する)需要がある。例えば特許文献1には、画像列の中のシーンが変化する境目の画像や、画像列を代表する画像を抽出することで、画像列の内容を把握しやすい画像を残す画像要約処理手法が開示されている。
特開2009-5020号公報 特開2011-24763号公報
 例えば医学分野に画像要約技術を適用する場合、疾患の見逃しを避ける観点から、画像を削除したことによって観察できなくなる領域の発生を抑える必要がある。特に病変領域や異常領域のような重要領域は観察できなくなる領域に含まれてはならない。
 しかし特許文献1の手法のようにシーンが変化する境目の画像だけを残したり、或いは要約後の画像列が直感的に見やすいかどうかといった観点で画像要約を行ったりすると、画像が削除される事によって観察できなくなる領域が発生する可能性があり好ましくない。また、観察できなくなる領域の発生の程度は画像の内容に依存するため、従来の画像要約処理の手法では疾患の見逃し等の程度を制御することが困難であった。
 本発明の幾つかの態様によれば、画像の削除により観察できなくなる領域の発生を抑止する場合に、効率的な画像要約処理を行う画像処理装置、プログラム及び画像処理方法等を提供することができる。
 本発明の一態様は、複数の画像間の類似度に基づく第1の画像要約処理により、第1の要約画像列を取得する第1の画像要約処理部と、前記複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づく第2の画像要約処理により、第2の要約画像列を取得する第2の画像要約処理部と、前記第1の要約画像列と前記第2の要約画像列の統合処理、又は前記第1の画像要約処理と前記第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理部と、を含む画像処理装置に関係する。
 本発明の一態様では、類似度に基づく第1の画像要約処理と、対象物体等の認識処理に基づく第2の画像要約処理とを考えた場合に、それらの統合処理を行って出力要約画像列を取得する。これにより、類似度を用いた場合の利点と、対象物体等の認識処理を用いた場合の利点とを組み合わせた画像要約処理ができ、効率的な画像要約やユーザの利便性向上等が可能になる。
 本発明の他の態様は、複数の画像を有する画像列を取得する画像列取得部と、前記画像列取得部が取得した前記画像列の前記複数の画像の一部を削除する第1の削除可否判定処理及び第2の削除可否判定処理に基づいて、要約画像列を取得する画像要約処理を行う処理部と、を含み、前記処理部は、前記複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、設定した前記注目画像列から第1の基準画像を選択するとともに、前記複数の画像から第1の判定対象画像を選択し、前記第1の基準画像と前記第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、前記第1の判定対象画像の削除可否を判定する処理を、前記第1の削除可否判定処理として行い、前記処理部は、前記画像列から、前記第1の削除可否判定処理において削除不可と判定された前記画像が複数連続する部分画像列を設定し、前記処理部は、前記部分画像列から第2の基準画像と第2の判定対象画像を選択し、前記第2の基準画像と前記第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、前記第2の判定対象画像の削除可否を判定する処理を、前記第2の削除可否判定処理として行う画像処理装置に関係する。
 本発明の他の態様では、注目画像列を設定し、設定した注目画像列に基づいて第1の削除可否判定処理を行い、第1の削除可否判定処理の結果に基づいて、第2の削除可否判定処理を行う。第1,第2の削除可否判定処理を画像間の変形情報に基づく処理とするため、注目画像と変形情報の両方を考慮した画像要約処理が可能になる。その際、前段での結果を用いて後段の処理を行う多段処理となっているため、それぞれを独立で行う場合に比べて効果的な画像要約処理を行うこと等ができる。
 また、本発明の他の態様は、上記の各部としてコンピュータを機能させるプログラムに関係する。
 また、本発明の他の態様は、複数の画像間の類似度に基づいて、第1の要約画像列を取得する第1の画像要約処理と、前記複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づいて、第2の要約画像列を取得する第2の画像要約処理を行う画像処理方法であって、前記第1の要約画像列と前記第2の要約画像列の統合処理、又は前記第1の画像要約処理と前記第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理を行う画像処理方法に関係する。
 また、本発明の他の態様は、複数の画像を有する画像列を取得し、前記複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、設定した前記注目画像列から第1の基準画像を選択するとともに、前記複数の画像から第1の判定対象画像を選択し、前記第1の基準画像と前記第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、前記第1の判定対象画像の削除可否を判定する処理を、第1の削除可否判定処理として行い、前記画像列から、前記第1の削除可否判定処理において削除不可と判定された前記画像が複数連続する部分画像列を設定し、前記部分画像列から第2の基準画像と第2の判定対象画像を選択し、前記第2の基準画像と前記第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、前記第2の判定対象画像の削除可否を判定する処理を、第2の削除可否判定処理として行い、前記第1の削除可否判定処理、及び前記第2の削除可否判定処理に基づいて、前記画像列の前記複数の画像の一部を削除して要約画像列を取得する画像要約処理を行う画像処理方法に関係する。
図1は、本実施形態の画像要約装置のシステム構成例。 図2は、被覆率を算出する手法を説明する図。 図3(A)、図3(B)は第1の画像要約処理の具体例を説明する図。 図4は、第1の画像要約処理を説明するフローチャート。 図5は、第2の画像要約処理を説明するフローチャート。 図6は、第2の画像要約処理を説明する図。 図7は、第1の実施形態の統合処理を説明するフローチャート。 図8(A)、図8(B)は第2の要約画像列の更新処理を説明する図。 図9(A)、図9(B)は第2の要約画像列の更新可否判定処理を説明する図。 図10は、第2の実施形態の統合処理を説明するフローチャート。 図11は、本実施形態の画像要約装置の他のシステム構成例。 図12(A)~図12(C)は第3の実施形態の手法を説明する図。 図13は、第3の実施形態の統合処理を説明するフローチャート。 図14(A)~図14(E)は第4の実施形態の手法を説明する図。 図15は、第4の実施形態の統合処理を説明するフローチャート。 図16(A)~図16(D)は本実施形態の画像要約処理を説明する図。 図17は、第5の実施形態の画像処理装置の構成例。 図18は、第5の実施形態の画像要約処理を説明するフローチャート。 図19(A)~図19(D)は基準画像と判定対象画像の選択手法を説明する図。 図20は、第1の削除可否判定部の構成例。 図21は、第2の削除可否判定部の構成例。 図22は、第1の削除可否判定部の他の構成例。 図23(A)~図23(E)は非被覆領域に対する構造要素による収縮処理を説明する図。 図24(A)、図24(B)は判定対象画像に対する構造要素による収縮処理を説明する図。 図25(A)、図25(B)は基準画像と要被覆領域の包含判定の例。 図26(A)、図26(B)は構造要素を用いた他の処理を説明する図。 図27は、第2の基準画像選択部の構成例。 図28(A)~図28(G)は後方基準画像の更新手法を説明する図。 図29は、第7の実施形態の画像要約処理を説明するためのフローチャート。 図30は、画像処理装置の基本的なシステム構成例。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.本実施形態の手法
 まず本実施形態の手法について説明する。時間的或いは空間的に連続する大量の画像から構成される画像列が取得された場合、当該画像列を用いてユーザが何らかの処理(例えば内視鏡画像列であれば診断等の医療行為)を行う際に、画像要約処理を行うことが望ましい。なぜなら、画像列に含まれる画像の枚数は非常に多く、ユーザがその全てを見た上で判断を行うことは多大な労力を要するためである。また、画像列に含まれる画像の中には、互いに似通った画像が存在する可能性が高く、そのような似通った画像を全てチェックしたとしても取得できる情報量は限られ、労力に見合わない。
 具体例としては、カプセル内視鏡を用いて撮像される画像列が考えられる。カプセル内視鏡とは、小型カメラを内蔵したカプセル形状の内視鏡であり、所与の時間間隔(例えば1秒に2回等)で画像を撮像する。カプセル内視鏡は、内服から排出までに数時間(場合によっては十数時間)を要するため、1ユーザの1回の検査において数万枚の撮像画像が取得されることになる。また、カプセル内視鏡は生体内での移動の際に、当該生体の動きの影響を受けること等により、同じ場所にとどまったり、逆方向へ戻ったりする。そのため、大量の画像の中には他の画像と同じような被写体を撮像していて、病変の発見等において有用性の高くない画像も多数存在してしまう。
 従来の画像要約処理では、シーンが変化する境目の画像や、画像列を代表する画像を抽出していた。しかしこのような手法では、画像を削除する際に、その削除対象となる画像に撮像されていた被写体と、残す画像に撮像されている被写体との関係は特に考慮していない。そのため、要約前の画像列に含まれる画像上に撮像されていた被写体が、要約後の画像列に含まれるどの画像上にも撮像されていないということが起こりえる。
 このことは特に医療分野での画像要約処理においては好ましくない。医療分野では、その目的上、注目すべき領域である注目領域(例えば病変部)の見落としは極力抑止しなくてはならない。そのためには、生体内のできるだけ広い範囲を撮像することが望ましく、画像要約処理において、所与の画像を削除することで観察できなくなる被写体範囲が生じることは抑止すべきである。
 そこで本出願人は、画像の削除により観察できなくなる領域の発生を抑止する観点から、画像要約処理を行う手法を提案する。具体的には、画像要約処理の対象となる画像列に含まれる複数の画像間の類似度に基づいた画像要約処理を用いる。類似度を用いることで複数の画像の関係に基づいた画像要約処理が可能になる。
 類似度を求める手法は種々考えられるが、例えば画像列から基準画像(残す画像、基準画像の設定手法によっては残す候補となる画像)と判定対象画像(削除するか否かの判定の対象画像)を選択し、基準画像と判定対象画像の間の変形情報に基づいた画像要約処理を行ってもよい。具体的には、図2に示したように、基準画像を変形することで判定対象画像上に被覆領域を算出する。基準画像で撮像された被写体と、判定対象画像の被覆領域上に撮像された被写体とは対応することになる。つまり、判定対象画像における被覆領域外の範囲(以下、非被覆領域と表記する)は、当該判定対象画像を削除した場合、基準画像を残したとしてもカバーすることができない領域となる。
 よって、一例としては判定対象画像に占める被覆領域の割合等を被覆率として算出し、算出した被覆率に基づいて判定対象画像を削除するか否かを判定することで、観察できなくなる被写体範囲の発生度合いを制御する。例えば被覆率が閾値以上である際に判定対象画像を削除し、被覆率が閾値未満の際に判定対象画像を削除しないものとすれば、閾値の設定に応じてカバーできない領域の発生度合いを制御できる。
 変形情報を用いた画像要約処理の別の例としては、図23(A)~図23(E)に示したように、非被覆領域に対する構造要素(注目領域に対応する)による収縮処理の結果に基づいて、判定対象画像の削除可否を判定してもよい。詳細については後述するが、この場合、判定対象画像を削除したとしても当該判定対象画像上に撮像された構造要素のサイズ以上の領域の少なくとも一部は、基準画像上に撮像されることを保証できる。そのため、判定対象画像に注目領域全体が撮像されていた場合に、当該注目領域の判定対象画像上の位置によらず、その少なくとも一部を基準画像により観察できるため、注目領域の見逃し可能性を抑止することが可能になる。
 なお、変形情報を用いる手法は類似度を算出する手法の一例であり、他の手法により画像間の類似度を求めてもよい。
 ただし、類似度を用いる画像要約処理では、画像間の関係に基づいて処理が行われるため、処理対象となる画像に撮像されている被写体やシーン等は考慮されない可能性がある。よって、画像上に撮像したい対象(例えばカプセル内視鏡ではドクターの観察対象であり、狭義には病変部等の領域)が明確であるのならば、類似度に基づいた画像要約処理とは別に、画像上に当該対象が撮像されているか否かという観点から行われる画像要約処理を行うことも有用である。
 よって本出願人は、類似度に基づいた第1の画像要約処理と、対象物体又はシーンの認識処理に基づく第2の画像要約処理の両方を行うとともに、それらを統合して出力要約画像列を取得する統合処理を行う手法を提案する。このようにすることで、2つの画像要約処理の利点を兼ね備えた画像要約処理が可能になる。具体的には、観察できなくなる被写体範囲が生じることを抑止しつつ、観察対象としている物体やシーンを効率的に観察可能な画像要約処理を行うことができる。
 以下、この手法について第1~第4の実施形態を用いて具体例を説明する。第1の実施形態では、第1の画像要約処理により第1の要約画像列を取得するとともに、第2の画像要約処理により第2の要約画像列を取得し、統合処理として第1の要約画像列と第2の要約画像列を統合する処理を行う。第2の実施形態では、第1の要約画像列と第2の要約画像列を取得した後、第1の要約画像列に基づいて第2の要約画像列の更新処理(狭義には、第2の要約画像列に含まれる要約画像の枚数を削減する処理)を行い、第1の要約画像列と、更新処理後の第2の要約画像列を統合する。
 第3、第4の実施形態は、要約画像列の統合処理というよりは、第1の画像要約処理と第2の画像要約処理という2つの処理の統合処理に関する実施形態となる。第3の実施形態では、第2の画像要約処理の結果(狭義には第2の要約画像列)に基づいた第1の画像要約処理の実行を前記統合処理として行う。具体的には、第1、第2の実施形態では第1の要約画像列に含まれる要約画像は類似度に基づいて決定されていたが、第3の実施形態では類似度の他に、第2の画像要約処理の結果も用いて要約画像を決定することになる。
 第4の実施形態では、第3の実施形態の手法、及び第2の実施形態での第2の要約画像列の更新処理を組み合わせて、フィードバック処理を行う。具体的には、第2の画像要約処理の結果に基づいた第1の画像要約処理を行って第1の要約画像列を取得する。その後、取得した第1の要約画像列に基づいて第2の要約画像列の更新処理が実行する。そして、更新処理後の第2の要約画像列に基づいた第1の画像要約処理を再度行って第1の要約画像列を取得し、取得した第1の要約画像列を出力要約画像列とする。更新処理を実行できなかった場合には、その際の第1の要約画像列を出力要約画像列とすればよく、結果的には第3の実施形態と同様となる。
 なお、以下の説明では、類似度に基づいた第1の画像要約処理により得られる画像列を第1の要約画像列とし、第1の要約画像列に含まれる画像を類似度要約画像と呼ぶことにする。また、対象物体等の認識処理に基づいた第2の画像要約処理により得られる画像列を第2の要約画像列とし、第2の要約画像列に含まれる画像を物体要約画像と呼ぶ。統合処理等まで含めた処理に基づいて最終的に出力される画像列を出力要約画像列とし、出力要約画像列に含まれる画像を出力要約画像と呼ぶ。
 また、類似度として上記の変形情報を用いる処理を行い、認識処理として注目領域の検出処理を用いた場合、第1~第4の実施形態以外の手法を考えることもできる。類似度だけを用いた処理と同様に、被覆率による削除可否判定だけでは、注目領域が撮像された画像である注目画像の削除可否について特に配慮されていない。例えば、注目画像の、他の画像(他の注目画像であってもよいし、注目画像ではない画像であってもよい)による被覆率が高ければ、注目画像であっても削除対象となる。よって、極端な場合には、画像列から注目画像が全て削除されてしまい、画像要約処理後の要約画像列から注目領域が観察できないという可能性もある。
 また、構造要素による削除可否判定では、注目領域全体が撮像された画像を削除し、当該注目領域のごく一部しか撮像されていない画像が残されるケースがあり、注目領域の観察という観点からは好ましくない場合もあり得る。
 もちろん、変形情報を用いた処理(被覆率、構造要素、或いはその両方を用いた処理等)により効果的な画像要約処理を行うことが可能なケースも十分考えられる。しかし、カプセル内視鏡を用いた場合の病変部のように、重点的に観察すべき注目領域があるのであれば、注目領域が撮像されているか否かという観点による処理の有用性は高い。具体的には、注目画像を積極的に(狭義には必ず)要約画像列に残すことで、変形情報を用いた処理で生じうる問題に対処できる。
 そこで本出願人は、取得した画像列のうち、注目領域が撮像された1又は複数の画像を注目画像列として設定し、設定した注目画像列に基づいて、変形情報を用いた画像削除可否判定処理を行って要約画像列を取得する手法を提案する。ただし、図16(A)に示したように注目画像列を求め、それとは独立に変形情報に基づいて画像要約処理を行った結果の画像列を求めた場合、単純な和集合をとったのでは、図16(B)のI1に示した箇所のように画像が密となる部分が存在する可能性がある。この箇所では、他の画像により十分カバーされている画像が要約画像列に残されてしまうおそれがあり、画像要約処理による画像枚数の削減効果が低くなってしまう可能性がある。そのためここでは、注目画像列に基づく第1の削除可否判定処理を行い、その後第1の削除可否判定処理の結果に基づく第2の削除可否判定処理を行うという2段階処理により、画像要約処理による画像枚数の削減効果を高めるものとする。第1,第2の削除可否判定処理は変形情報を用いた処理であり、その詳細については後述する。
 ここでの画像処理装置の1つの実施形態としては、図30に示したように処理部100と、画像列取得部30を含むものが考えられる。画像列取得部30は、複数の画像を有する画像列を取得する。そして処理部100は、複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、設定した注目画像列から第1の基準画像を選択するとともに、複数の画像から第1の判定対象画像を選択し、第1の基準画像と第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、第1の判定対象画像の削除可否を判定する処理を、第1の削除可否判定処理として行う。また、処理部100は、画像列から、第1の削除可否判定処理において削除不可と判定された画像が複数連続する部分画像列を設定する。さらに、処理部100は、部分画像列から第2の基準画像と第2の判定対象画像を選択し、第2の基準画像と第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、第2の判定対象画像の削除可否を判定する処理を、第2の削除可否判定処理として行う。
 以下、第5の実施形態では基本的な手法について説明する。第5の実施形態では、第1,第2の削除可否判定処理として被覆率を用いた例について説明する。ただし、第1,第2の削除可否判定処理には種々の変形例(例えば構造要素を用いる手法)が考えられる。よって、それらの変形例について第6の実施形態で説明する。また、第2の削除可否判定処理における基準画像(第2の基準画像)と、判定対象画像(第2の判定対象画像)の選択手法にも種々の変形例が考えられるため、それらの変形例を第7の実施形態で説明する。
 2.第1の実施形態
 第1の実施形態の手法について説明する。まず画像要約装置のシステム構成例について説明し、その後第1の画像要約処理及び第2の画像要約処理の具体例について述べる。最後に統合処理の手法を説明する。
 2.1 システム構成例
 図1に本実施形態の画像要約装置の構成例を示す。図1に示したように、画像要約装置は、画像列取得部30と、第1の画像要約処理部100と、第2の画像要約処理部200と、統合処理部300と、出力部40とを含む。なお、画像要約装置は図1の構成に限定されず、これらの一部の構成要素(例えば出力部40等)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 画像列取得部30は、画像要約処理の対象となる画像列データを取得する。取得する画像列データは、時間的或いは空間的に連続する複数の画像であり、画像入力装置10や画像データベース20等から取得される。画像入力装置10は、デジタルカメラやカプセル内視鏡等、画像を撮像する撮像装置が考えられる。画像データベース20は、大量の画像を記憶するデータベースであり、撮像装置等で取得された画像データを蓄積する。なお、画像データベース20は画像要約装置とは離れた位置に設けられてもよく、画像要約装置とネットワークを介して接続されるサーバ等で構成されてもよい。また、画像入力装置10及び画像データベース20は、画像要約装置とは別体として設けられることを想定しているが、画像要約装置に含まれることを妨げない。
 第1の画像要約処理部100は、類似度に基づいた第1の画像要約処理を行う。第1の画像要約処理部100は、類似度算出部110と、要約処理部120と、第1の要約画像列生成部130を含んでもよい。なお、第1の画像要約処理部100は図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 類似度算出部110は、画像列取得部30で取得した画像列に含まれる画像間の類似度を算出する。要約処理部120は、算出した類似度に基づいて、要約処理(具体的には、第1の要約画像列に残される類似度要約画像と、削除画像の決定処理)を行う。第1の要約画像列生成部130は、要約処理部120での要約処理に基づいて、第1の画像要約処理部100の出力である第1の要約画像列を生成する。なお、第1の画像要約処理の詳細については後述する。
 第2の画像要約処理部200は、対象物体又はシーンの認識処理に基づいた第2の画像要約処理を行う。第2の画像要約処理部200は、認識処理部210と、要約処理部220と、第2の要約画像列生成部230を含んでもよい。なお、第2の画像要約処理部200は図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 認識処理部210は、画像列取得部30で取得した画像列に含まれる画像が対象物体を含んでいるか、又は対象としているシーンを撮像しているかの認識処理を行う。認識処理の手法は種々考えられるが、例えば対象物体やシーンを表すテンプレートを記憶しておき、当該テンプレートを用いたマッチング処理を行ってもよい。要約処理部220は、認識処理部210での認識結果に基づいて、要約処理(具体的には、第2の要約画像列に残される物体要約画像と、削除画像の決定処理)を行う。具体的には、同一対象物体や同一シーンが連続している領域を考慮してセグメンテーション処理を行った上で、生成されたセグメント(連続画像列)から、少なくとも1枚の画像を物体要約画像として選定する処理を行う。第2の要約画像列生成部230は、要約処理部220での要約処理に基づいて、第2の画像要約処理部200の出力である第2の要約画像列を生成する。なお、第2の画像要約処理の詳細については後述する。
 統合処理部300は、第1の画像要約処理部100及び第2の画像要約処理部200での処理に基づいた統合処理を行う。本実施形態では、第1の要約画像列と第2の要約画像列の統合処理を行う。詳細は後述する。
 出力部40は、統合処理部300での統合処理の結果として取得された出力要約画像列を出力する。出力部40は、例えば液晶ディスプレイや有機ELディスプレイなどにより実現される表示部であってもよく、その場合には出力要約画像列に含まれる出力要約画像を表示すること等が考えられる。なお、画像要約装置がユーザとのインターフェースとなる表示部等を備える必要はなく、出力部40(表示部)が画像要約装置とは別体として設けられてもよい。
 2.2 第1の画像要約処理
 次に類似度に基づいた第1の画像要約処理について説明する。ここで用いられる類似度としては、画像間の動きベクトル、SSDやSAD、さらには、正規化相互相関等の相関値等が考えられる。その他、通常複数の画像間の類似度として算出されるような情報であれば、任意の情報を類似度として利用することができる。
 類似度による画像要約処理の手法としては、従来からよく行われている、類似度の小さい順にソートして、上位から設定した数までを選択することによりシーンチェンジの検出を行う手法を用いることが考えられる。
 また、図2に示したように、基準画像(第1の要約画像列に残す類似度要約画像、或いは類似度要約画像の候補画像)により、判定対象画像がどの程度被覆されているかを表す被覆率を類似度として用い、当該被覆率に基づいて判定対象画像の削除可否判定を行って画像要約を行ってもよい。ここでは被覆率を用いた手法を詳しく説明する。
 被覆率を用いる手法では、基準画像と判定対象画像との間の変形情報を用いて、基準画像を変形して判定対象画像上に射影する。ここで、変形情報とは、基準画像上に撮像された被写体が判定対象画像上でどのように変形して撮像されているかに相当する情報であり、変形推定や動きベクトル等から求めてもよいし、特許文献2に記載された手法により推定される非剛体変形パラメータ等を用いてもよい。
 図2は基準画像として、判定対象画像の前方の第1の基準画像と、判定対象画像の後方の第2の基準画像の2枚を設定した例である。判定対象画像上のA1が第1の基準画像を変形して得られた領域であり、A2が第2の基準画像を変形して得られた領域である。被覆率としては例えば、A1とA2の和集合に相当する領域を被覆領域として求め、判定対象画像全体に占める被覆領域の割合の値を用いることが考えられる。
 判定対象画像の削除可否判定は、被覆率と事前に設定された閾値(システムにより設定されてもよいし、ユーザからの入力に基づいて決定されてもよい)との比較処理により行えばよい。具体的には、被覆率が閾値未満であれば、判定対象画像を削除不可と判定し、被覆率が閾値以上であれば、判定対象画像を削除可能と判定する。被覆率が閾値以上の場合とは、判定対象画像に撮像された被写体範囲のうち、閾値により表される程度の部分が第1の基準画像及び第2の基準画像の少なくとも一方には撮像されているということになるため、第1、第2の基準画像が類似度要約画像として残されるのであれば、判定対象画像を削除したとしても、そこに撮像された領域は十分にカバーできることになる。
 第1、第2の基準画像及び判定対象画像の選択処理を図示したものが図3(A)、図3(B)である。なお、この処理では、第1の基準画像は類似度要約画像として選択されることが確定しているが、第2の基準画像は類似度要約画像の候補であり、最終的に類似度要約画像として選択されるかは確定していない。
 図3(A)に示したように、全画像列のk番目の画像が第1の基準画像として選択されているとする(なお、1~k-1番目の画像については類似度要約画像とするか削除画像とするかの判定処理が終了しており、k~N番目の画像が処理対象となっている場合に相当する)。この場合、まずk+2番目の画像を第2の基準画像として選択する。
 さらに第1の基準画像と第2の基準画像の間の画像の前方から順次判定対象画像を選択し、第1の基準画像と判定対象画像の間の変形情報に基づいて第1の基準画像を変形するとともに、第2の基準画像と判定対象画像の間の変形情報に基づいて第2の基準画像を変形して被覆率を算出する。そして算出した被覆率に基づいて、判定対象画像の削除可否の判定を行う。
 図3(A)に示したように、第1の基準画像と第2の基準画像の間の画像の全てについて、削除可能と判定された場合(ここでは閾値を70%としている)には、第2の基準画像として、第1の基準画像に比べてさらに離れた画像を選択してもよい可能性があるということであるから、図3(B)に示したように第2の基準画像の再選択を行う。具体的には、k+2番目だった第2の基準画像を、k+3番目に更新すればよい。
 そして、再度第1の基準画像と第2の基準画像の間の画像について削除可否の判定を行う。図3(B)に示したように、削除不可と判定された判定対象画像があった場合には、第1の基準画像と現在の第2の基準画像の2枚では、間に含まれる全ての画像をカバーすることができない(具体的には削除不可と判定された判定対象画像がカバーできない)ということであるから、2つの基準画像の間を広げすぎた、すなわち第2の基準画像の更新(選択位置のインクリメント)が不適切であったと考えられる。
 よって、現時点の第2の基準画像の1つ前の画像(図3(A)での第2の基準画像に相当)を類似度要約画像として残す。具体的には、現時点の第2の基準画像の1つ前の画像を新たな第1の基準画像として選択し、それとともに第2の基準画像、判定対象画像についても新たに選択して処理を継続する。
 図4は、類似度として被覆率を用いた場合の第1の画像要約処理を説明するフローチャートである。この処理が開始されると、最初の類似度要約画像として画像要約処理の対象となる画像列のI番目の画像を設定する(S101)。ここでIの値は1であってもよいし(つまり画像列の先頭の画像を類似度要約画像としてもよいし)、1以外の値であってもよい。
 次に、I番目の画像を第1の基準画像として設定し(S102)、それとともにI番目の画像を第2の基準画像として設定する(S103)。ここでIはI=I+2を満たす値を初期値とする。
 そして、Iが処理対象の画像列に含まれる画像の枚数を超える値であるかの判定を行い(S104)、Yesの場合には画像要約処理を終了する。Noの場合には、適切に第2の基準画像を設定できたということであるから、第1の基準画像と第2の基準画像の間の画像を順次判定対象画像として設定し、削除可否判定を行う(S105~S108)。具体的には、第1の基準画像の次の画像を最初の判定対象画像とし、図2で示した手法により被覆率を求めて閾値との比較処理を行う(S106,S107)。被覆率が閾値以上(S107でYes)の場合には、判定対象画像は削除可能と言うことであるから、現在の判定対象画像の1つ後方の画像を新たな判定対象画像とする(図4ではiのインクリメントに相当)。S107でNoと判定されることなく、S105~S108のループが終了した場合には、図3(A)に示したように第1,第2の基準画像により、間の画像を全てカバーできるということであるため、Iの値をインクリメントして第2の基準画像を更新して(S109)、S104に戻る。
 S107でNoと判定された場合には、図3(B)に示したように第1,第2の基準画像の間の少なくとも1枚の画像が、2つの基準画像では十分にカバーできないということであるため、当該タイミングでの第2の基準画像の1つ前の画像を要約画像に残す必要がある。よって、I-1番目の画像を次の類似度要約画像として設定する(S110)。それとともにI=I-1として(S111)、S102に戻ることで、類似度要約画像として設定した画像を新たな第1の基準画像に設定して処理を継続する。
 2.3 第2の画像要約処理
 次に対象物体又はシーンの認識処理に基づいた第2の画像要約処理について説明する。ここでの認識処理に関しては、参照画像との類似度による検出処理や、機械学習によるパターン認識で得られる認識結果等、様々な画像認識や画像検出の処理結果を利用することができる。
 第2の画像要約処理では、画像要約処理の対象となる画像列の全画像に対して認識処理が行われ、各画像に対して対象物体が撮像されているか否か、或いは対象としているシーンが撮像されているか否かの判定が行われる。そして、対象物体が撮像されている画像のうち連続する画像、或いは対象シーンが撮像されている画像のうち連続する画像を連続画像列(セグメント)として設定し、各セグメントにつき少なくとも1枚の画像を抽出し、第2の要約画像列に残される物体要約画像として設定する。
 図5は、対象物体やシーンの認識処理に基づく第2の画像要約処理を説明するフローチャートである。ここでは特に、認識された対象物体の面積が最大となる画像を物体要約画像として選択する例について説明するが、連続画像列から物体要約画像を選択する手法はこれに限定されるものではない。
 なお、図5の処理の前処理として認識処理は行われているものとする。その結果として、対象物体等が検出された画像には前方から順にIDが振られており、そのIDは画像要約処理の対象となる画像列(入力画像列)における画像の位置を表す番号との対応付けがされている。例えば、図6に示したように入力画像列に対する認識処理により、斜線で示された画像で対象物体等が検出されたとすると、斜線で示された画像の中で先頭から順にIDが振られることになる(ここでは画像番号及びIDを0から始めたが、これには限定されない)。また、IDが振られた画像が入力画像列において何番目かという対応付けがされているため、ID=0の画像は入力画像列の1番目、ID=4の画像は入力画像列の7番目といった情報は保持されている。図5は、これ以降のセグメンテーション処理及び代表画像(要約画像)の選択処理を説明するものである。
 図5の処理が開始されると、まずカウンタ値であるcountを初期化する(S201)。ここでcountは物体要約画像の枚数に相当するカウンタである。なお、1セグメントから1枚の要約画像を選択する例を示しているため、countはセグメンテーション処理の結果設定されるセグメントにも対応するカウンタとなる。次に対象物体の面積の最大値を表す変数maxを初期化する(S202)。
 初期化後は、S203~S208のループを繰り返して、前処理としてIDが振られた画像を対象に前方から順に処理を行う。具体的には、j=0を初期値として、ID=jの画像での対象物体の面積とmaxとを比較し、面積がmaxよりも大きい場合には、maxの値を面積の値で書き換えるとともに、count番目の要約画像として現在のIDの画像を設定する(S204)。ただし、要約画像はIDの値で表現するのではなく、入力画像列の何番目の画像であるかという表現の方が好ましいため、入力画像列での番号とIDとの対応付けに基づいて、入力画像列の何番目の画像がcount番目の要約画像であるかという情報を保持することになる。
 次に、ID=jの画像がID=j+1の画像と入力画像列において隣り合っているかの判定を行う(S205)。S205でNoの場合とは、図6でいえばID=2やID=4のように、セグメントの最後に位置する画像を処理対象としていると言うことである。よって、現在のセグメントでの処理を終了し、次のセグメントでの処理の前処理として、countの値をインクリメントするとともに(S206)、面積の最大値maxを初期化する(S207)。
 また、S205でYesの場合とは、図6でいえばID=1やID=3のように、セグメントの先頭或いは途中に位置する画像を処理対象としていると言うことであるから、S206,S207の処理は行われない。なお、セグメントの先頭の画像が処理対象の場合には、max=0であるためS204では現在の画像が暫定的な物体要約画像として選択されることになる。一方、セグメントの途中の画像が処理対象の場合には、現在のセグメントに含まれ、且つ処理対象より前方にある所与の画像がcount番目の物体要約画像として暫定的に選択されているとともに、その際の対象物体の面積がmaxとして保持されている。そのため、S204では、その暫定的な物体要約画像での対象物体の面積と、ID=jの画像での対象物体の面積との比較処理を行い、ID=jの画像での対象物体の面積の方が大きければID=jの画像によりcount番目の物体要約画像の上書き処理を行う。また、暫定的な物体要約画像での対象物体の面積の方が大きければ、その物体要約画像がそのまま保持される。
 結果として、S203~S208でのループでは、セグメンテーション処理を行って、各セグメントで対象物体の面積が最大となる画像を物体要約画像とする処理を行うことになり、対象物体が検出された全画像について上述の処理を行った場合には処理を終了する。
 なお、ここでは対象物体の面積が最大になるような画像を物体要約画像として選択する手法について述べたが、対象物体の画像内での位置、色情報、テクスチャ情報、認識、または検出の精度等、画像認識、または画像検出の結果の情報を利用して、同様に画像要約処理を行ってもよい。
 2.4 統合処理
 次に本実施形態での統合処理について説明する。ここでは、第1の画像要約処理により得られた第1の要約画像列と、第2の画像要約処理により得られた第2の要約画像列の少なくとも一方に含まれる画像を、出力要約画像列の出力要約画像として選択する処理を行う。
 図7は、本実施形態の統合処理を説明するフローチャートである。図7に示したように、統合処理はS301~S306のループとなり、S302~S305の処理を入力画像列の全画像について行うことになる。
 具体的には、入力画像列のi番目の画像が、第1の要約画像列に含まれているか(類似度要約画像であるか)の判定を行う(S302)。Yesの場合には、i番目の画像を出力要約画像列の出力要約画像として選択する(S303)。S302でNoの場合には、i番目の画像が、第2の要約画像列に含まれているか(物体要約画像であるか)の判定を行う(S304)。Yesの場合には、S303に移行しi番目の画像を出力要約画像として選択する。S304でNoの場合には、i番目の画像を削除画像とする(S305)。そして、この処理をi=0を初期値とし、iをインクリメントしつつ入力画像列全体に対して行う。
 以上の本実施形態では、画像要約装置は図1に示したように、複数の画像間の類似度に基づく第1の画像要約処理により、第1の要約画像列を取得する第1の画像要約処理部100と、複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づく第2の画像要約処理により、第2の要約画像列を取得する第2の画像要約処理部200と、第1の要約画像列と第2の要約画像列の統合処理、又は第1の画像要約処理と第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理部300を含む。
 ここで、複数の画像とは画像列取得部30で取得した画像列全体に相当することが想定されるが、当該画像列の一部であってもよい。
 これにより、画像間の類似度判定、及び対象物体又はシーンの認識処理という異なる観点で行われた画像要約処理により得られた要約画像列を統合して出力要約画像列を取得することができるため、双方の画像要約処理の利点を兼ね備えた画像要約処理を行うことが可能になる。対象物体等の認識処理を用いた第2の画像要約処理を行うことで、重要な対象物体が撮影されている画像のうち適切なものを残した要約画像列を生成できるが、画像認識、検出処理でも重要な対象物体をすべて検出することは難しい。その点、類似度という異なる観点での画像要約処理により、観察できなくなる領域の発生を抑止することで、検出できなかった重要物体を第1の画像要約処理による第1の要約画像列に含めることが可能になり、統合処理により相補的な出力要約画像列を生成することができる。
 また、第1の画像要約処理部100は、複数の画像から基準画像及び判定対象画像を選択し、基準画像と判定対象画像の間の変形情報に基づいて、基準画像による判定対象画像の被覆率を類似度として算出し、被覆率に基づいて判定対象画像の削除可否の判定を行う処理を、第1の画像要約処理として行ってもよい。
 ここで被覆率とは、判定対象画像上に撮像された被写体のうち、どの程度の被写体が基準画像上に撮像されているかを表す情報である。例えば、縦横比が1:1の画像が取得される場合に、判定対象画像には実空間上で縦横それぞれ10mの正方形の被写体が画像いっぱいに撮像され、基準画像には前述の被写体に包含される縦横それぞれ5mの正方形の領域が画像いっぱいに撮像されたとする。この場合、判定対象画像には実空間における100mの領域が撮像され、基準画像には実空間における25mの領域(かつ前述の100mの領域に含まれる領域)が撮像されたことになる。よって、基準画像は判定対象画像の25%をカバーしていることになるため、被覆率としては25%、25m2、或いは0.25等の値が考えられる。なお、平面的な被写体に正対して撮像が行われることはまれであるため、一般的には同一の被写体であっても、基準画像と判定対象画像とで形状が異なっている。本実施形態ではそのような変形に対応する変形情報を特許文献2等の手法で取得しておき、当該変形情報を用いて被覆率を算出する。なお被覆率とは、基準画像による判定対象画像のカバーの程度を表す情報であればよく、割合・比率等に限定されるものではない。
 また、削除可否の判定処理は例えば所与の閾値との比較処理である。閾値を高くすれば(例えば100%に近い値に設定すれば)、画像を削除することにより観察できなくなる領域が発生することに対する抑止効果の向上が期待できる。一方、閾値を低くすれば、要約処理後の要約画像列に含まれる画像の枚数を少なくすることができる。上述の抑止効果の向上と、画像枚数を少なくすることはトレードオフの関係にあり閾値の設定により制御が可能となるため、状況に応じて適切に閾値を設定することが望ましい。
 これにより、第1の画像要約処理により画像を削除した結果、観察できなくなる被写体領域が発生することを抑止でき、またその抑止の程度(強度)を制御することが可能になる。本実施形態の手法を用いることで、上述した削除可否の判定処理に用いる閾値としてx%に相当する値を用いれば、判定対象画像を削除したとしても、当該判定対象画像上に撮像された被写体のうち、x%は基準画像によりカバーされている(x%の被写体範囲は基準画像上に撮像されている)ことが保証できるためである。なお、変形情報として被写体の画像上での変形を、全く誤差を生じずに求めることが困難である以上、閾値としてxを設定しても、判定対象画像のうち基準画像によりカバーされている領域がx%未満となる可能性は生じうる。
 また、第1~第N(Nは2以上の整数)の画像が入力画像列として入力された場合に、第1の画像要約処理部100は、第pの画像を第1の基準画像として選択し、第q(qはp+2≦q≦N-1を満たす整数)の画像を第2の基準画像として選択するとともに、第r(rはp+1≦r≦q-1を満たす整数)の画像を判定対象画像として選択する。そして、第1の基準画像と判定対象画像の間の変形情報、及び第2の基準画像と前記判定対象画像の間の前記変形情報に基づいて前記被覆率を算出して、被覆率に基づいて判定対象画像の削除可否の判定を行う。この場合に、例えば第p+1~第q-1の画像が削除可能と判定された場合には、第2の基準画像として第q+1の画像を新たに選択することができる。
 これにより、図3(A)、図3(B)に示したように、判定対象画像の前方及び後方に基準画像を設定した上で、被覆率に基づいた画像要約処理が可能になる。この場合、2つの基準画像を用いるため、基準画像を1つ設定する場合等に比べて、判定対象画像を削除可能と判定できる可能性が高くなり、要約処理後の画像枚数を少なくすることが可能になる。
 また、第1の画像要約処理部100は、第p+1~第q-1の画像のうち少なくとも1つが削除不可と判定された場合には、第1の基準画像として選択された画像を、第1の要約画像列に含める処理を行ってもよい。さらに、第q-1の画像を新たな第1の基準画像として選択して再度処理を行ってもよい。
 これにより、第1の基準画像を第1の要約画像列に含めることが可能になる。また、第1の基準画像と第2の基準画像の間の判定対象画像のうち少なくとも1つが削除不可である場合とは、第1の基準画像と第2の基準画像の間を広げすぎたケースに相当するため、その際の第2の基準画像の前方にある(狭義には前方にあり且つ直近にある)画像は第1の要約画像列に残すべきである。よって、第q-1の画像を新たな第1の基準画像として選択し、同様の処理を繰り返すことになる。
 ただし、第1の画像要約処理における第2の基準画像の再選択(更新)処理は、入力画像列の後方に1つずつ移動させていく手法に限定されるものではない。
 例えば、第p+2~第Nの画像に対応する始点及び終点が設定された第2の基準画像選択区間から第2の基準画像を選択して、第1の基準画像及び第2の基準画像に基づいて判定対象画像の削除可否の判定を行う場合を考える。この際、第1の画像要約処理部100は、第p+1~第q-1の画像が削除可能と判定された場合には、第2の基準画像選択区間に含まれる第x(xはx>qを満たす整数)の画像を新たな第2の基準画像として選択するとともに、第2の基準画像選択区間の始点を第qの画像に更新してもよい。また、第p+1~第q-1の画像のうち少なくとも1つが削除不可と判定された場合には、第2の基準画像選択区間に含まれる第y(yはy<qを満たす整数)の画像を新たな第2の基準画像として選択するとともに、第2の基準画像選択区間の終点を前記第qの画像に更新してもよい。
 ここで、第2の基準画像選択区間は、第2の基準画像の候補を表すという性質とともに、第1の要約画像列に残される類似度要約画像(狭義にはすでに見つかっている類似度要約画像の次の類似度要約画像)の候補を表すという性質を有するものである。よって、第2の基準画像選択区間とは類似度要約画像の探索範囲に相当する。
 これにより、第2の基準画像を更新する際に、新たな第2の基準画像の位置を柔軟に決定することが可能になる。第2の基準画像を1つずつ後方に移す手法は、言うなれば探索範囲を先頭から1つずつチェックして、探索範囲を減らしていく手法であるため、正解の位置によっては計算量が非常に多くなってしまう。その点、隣り合わない画像も新たな第2の基準画像として選択可能にすることで、一単位の判定(一回の第2の基準画像選択処理及びそれに伴う削除可否判定)により探索範囲を大きく減らすことができる。よって、計算量の削減効果が期待でき、システムに対する負荷を軽減したり、処理時間を短縮したりすることが可能になる。なお、後方への探索が隣り合う画像を選択するものに限定されない以上、現在の第2の基準画像よりも前方に未探索範囲が残っていることがありえ、削除可否の判定結果によっては当該未探索範囲に正解があるということが考えられる。その場合を考慮して前方への探索も可能にし、その際の第2の基準画像の選択は後方への探索と同様に隣り合う画像に限定されないものとする。
 また、第1の画像要約処理部100は、第j(jは整数)の画像が第2の基準画像選択区間の終点に対応する場合に、(q+j)/2の値に基づいてxの値を設定してもよい。或いは、第i(iは整数)の画像が第2の基準画像選択区間の始点に対応する場合に、(i+q)/2の値に基づいてyの値を設定してもよい。
 これにより、新たな第2の基準画像を選択するに当たって、二分探索の手法を用いることが可能になる。後方への探索の場合には、現在の第2の基準画像と終点との中間となる画像を選択し、前方への探索の場合には、現在の第2の基準画像と始点との中間となる画像を選択することになる。よって、探索範囲(第2の基準画像選択区間の長さに相当)を半減させていくことが可能になり、第2の基準画像としてlogN枚の画像を選択すれば、全探索範囲の探索が終了することが期待される。よって、計算量のオーダーはN×logNに抑えることができ、Nが非常に大きい場合には1つずつ後方に移す手法(計算量のオーダーはN)に比べて計算量の削減効果が大きい。なお、(q+j)/2及び(i+q)/2は整数になるとは限らないため、それぞれの値に対応する画像が存在しない場合もある。その際には、例えば(q+j)/2を超えない最大の整数、或いはそれより1大きい整数等を考えればよい。ただし、第2の基準画像の更新は、二分探索による手法に限定されるものではなく、種々の手法を用いてもよい。例えば、探索範囲内での正解の位置がある程度予測される場合等では、予測位置及びその周辺を重点的に探索できるように第2の基準画像を選択することで、計算量の削減等が期待できる。
 また、第1の画像要約処理部100は、基準画像と判定対象画像の間の変形情報に基づいて、基準画像により判定対象画像が覆われる領域である被覆領域を求め、被覆率として、判定対象画像に占める被覆領域の割合を算出してもよい。
 これにより、被覆領域に基づいて被覆率を算出することが可能となる。被覆領域は具体的には図2に示したものであり、基準画像を変形情報に基づいて変形した上で、判定対象画像上に射影した領域を表す。基準画像に撮像された被写体領域と、求めた被覆領域に撮像された被写体領域は対応する(変形情報に誤差がない理想的な状況であれば一致する)ことになる。よって、被覆率を判定対象画像に占める被覆領域の割合(具体的にはそれぞれの面積の比)から求めることが可能になる。なお、被覆領域は基準画像を変形情報に基づいて変形して求めればよく、求めた被覆領域は必ずしも判定対象画像上に射影されるものに限定されない。また、被覆領域は基準画像の全体に基づいて求めるものに限定されず、基準画像の一部を変形情報により変形することで求めてもよい。
 また、第2の画像要約処理部200は、認識処理に基づいて、複数の画像のうち同一の対象物体を含む連続する画像、又は複数の画像のうち同一のシーンと認識された連続する画像を、要約画像の抽出対象となる連続画像列として設定し、設定した連続画像列から少なくとも1枚の画像を要約画像として抽出する処理を、第2の画像要約処理として行ってもよい。
 ここで、連続画像列から少なくとも1枚抽出される要約画像とは、第2の要約画像列に残す物体要約画像を指す。
 これにより、第2の画像要約処理として図5、図6を用いて説明した連続画像列(セグメント)を設定する手法を用いることができる。連続画像列とは同一の対象物体を含む連続する画像、又は同一のシーンと認識された連続する画像であるため、連続画像列から当該連続画像列に含まれる画像の枚数よりも少ない枚数の画像を抽出して物体要約画像とすることで、対象物体又はシーンが要約画像列に含まれなくなることを抑止しつつ、画像の冗長性を低減することが可能になる。なお、冗長性の低減効果を高めるのであれば、連続画像列から要約画像として抽出する画像の枚数は少なくすればよく、狭義には1枚の画像を抽出すればよい。
 また、第2の画像要約処理部100は、対象物体の面積に基づいて、連続画像列から抽出する要約画像(物体要約画像)を選択してもよい。
 これにより、対象物体が画像上においてより大きく撮像されている画像を要約画像とすることができるため、ユーザによる観察等を容易にすること等が可能になる。また、面積が大きかったとしても、輝度値が小さく暗くつぶれている場合、形状が極端で観察に不向きである場合、画像周縁部に位置することで歪曲収差等のひずみを無視できない場合等、ユーザにとって必ずしも見やすいとはいえない状況も考えられる。よって、面積の他に画像内での位置、色情報、テクスチャ情報、認識の精度等の画像認識、または画像検出の情報を利用してもよい。それにより、対象物体の画像的特徴を考慮した画像要約を行うことができるため、検出された対象物体が見易いような画像を要約画像として選定することができ、対象物体をよりよく把握することが可能になる。
 また、統合処理部300は、第1の要約画像列及び第2の要約画像列の少なくとも一方に含まれる画像を出力要約画像列の要約画像(出力要約画像)として選択する処理を、第1の要約画像列と第2の要約画像列の統合処理として行ってもよい。
 これにより、図7に示した統合処理が可能になる。図7のフローチャートからわかるように、本実施形態の統合処理はシンプルな手法により実現できるため、処理負荷が軽いという利点がある。
 また、第1の画像要約処理部100は、複数の画像間の類似度に基づいて、シーンチェンジを検出して第1の画像要約処理を行ってもよい。
 これにより、シーンチェンジによる画像要約を行うことにより、連続する類似する画像を削除するため、ほとんど同じような冗長なシーンを削除することができ、効率良く画像数を削減して画像要約列を生成することが可能になる。なお、この処理は複数の画像間の類似度を用いるため、第1の画像に撮像された第1のシーンと、第2の画像に撮像された第2のシーンとが異なることを検出できれば十分であり、第1のシーンや第2のシーンが具体的にどのようなシーンに対応するかを認識する必要はない。これに対して、第2の画像要約処理でのシーンの認識処理とは、処理対象となる画像に撮像されたシーンが検出対象であるシーンと一致するか否かを判定する必要があり、例えば検出対象シーンの特徴量等を保持しておく必要がある点で相違する。
 また、複数の画像はカプセル内視鏡画像であってもよい。そして、第2の画像要約処理部200は、カプセル内視鏡画像に撮像される生体内の注目領域を対象物体として、認識処理を行う。
 ここで、注目領域とは、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域であり、例えば、ユーザが医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目領域は、その泡部分や便部分を写した領域になる。すなわち、ユーザが注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。
 これにより、カプセル内視鏡を用いて撮像した画像に対して本実施形態の画像要約処理を適用することが可能になる。上述したように、医療分野では病変等の見逃しは極力抑止しなくてはならない。第2の画像要約処理において注目領域を対象物体とすることで、注目領域が検出された画像を効率的に要約画像列に残すことが可能になるが、注目領域の検出は必ずしも成功するとは限らない。よって、注目領域を撮像しているにもかかわらず、認識処理の結果としては対象物体が検出されずに、物体要約画像の候補にならずに削除対象となる画像が発生しうる。そのため、類似度(狭義には被覆率)を用いた画像要約処理を併用することの利点が大きい。特にカプセル内視鏡を用いる例では、ドクターが外部から生体内にあるカプセル内視鏡を操作することは困難であり、撮像対象を効率的に変えていくことはできないため、似通った画像が多数取得されうる。さらに、操作が困難であるから、撮像画像をリアルタイムで逐一チェックするのではなく、大量に蓄積された後に処理を行うことが想定される。よって、カプセル内視鏡が取得した画像列に対して本実施形態の画像要約処理を行う利点は大きい。
 また、第2の画像要約処理部200は、特定の波長帯域の光の照射により取得された特殊光画像に基づいて、生体内の注目領域の認識処理を行ってもよい。
 これにより、特殊光画像を用いた観察が可能になるため、第2の画像要約処理における対象物体の検出精度を向上させることが可能になり、重要物体(注目領域)を撮像した画像が画像要約処理により削除されてしまうことを抑止できる。なお、対象物体の検出精度の向上が期待できるとしても、類似度を用いた第1の画像要約処理を併用することが望ましく、さらなる注目領域の見逃し抑止効果が期待できる。
 なお、特定の波長帯域とは、白色光の波長帯域よりも狭い帯域である。具体的には特殊光画像は生体内画像であり、特定の波長帯域とは、血液中のヘモグロビンに吸収される波長の波長帯域であってもよい。さらに具体的には、390nm~445nmまたは530nm~550nmの波長帯域であってもよい。これはNBI(Narrow Band Imaging)と呼ばれる狭帯域光観察に対応する。
 これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(R,G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm~445nmまたは530nm~550nmとはヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。
 また、特定の波長帯域の光とは、NBIに対応するものに限定されず、AFI(Auto Fluorescence Imaging)と呼ばれる蛍光観察やIRI(Infra Red Imaging)と呼ばれる赤外光観察に対応するものであってもよい。
 また、以上の本実施形態は、複数の画像間の類似度に基づく第1の画像要約処理により、第1の要約画像列を取得する第1の画像要約処理部100と、複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づく第2の画像要約処理により、第2の要約画像列を取得する第2の画像要約処理部200と、第1の要約画像列と第2の要約画像列の統合処理、又は第1の画像要約処理と第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理部300としてコンピュータを機能させるプログラムにも適用できる。
 これにより、上述の画像要約処理を行うプログラムを実現できる。例えば、画像要約処理がPC等の情報処理システムにおいて行われるのであれば、このプログラムはPCの処理部(CPUやGPU等)に読み出されて実行される。そして、上記プログラムは、情報記憶媒体に記録される。ここで、情報記録媒体としては、DVDやCD等の光ディスク、光磁気ディスク、ハードディスク(HDD)、不揮発性メモリーやRAM等のメモリーなど、PC等の情報処理システムによって読み取り可能な種々の記録媒体を想定できる。
 3.第2の実施形態
 次に第2の実施形態について説明する。本実施形態の画像要約装置のシステム構成例は、第1の実施形態で用いた図1と同様であるため詳細な説明は省略する。第1の実施形態に比べて、統合処理部300での統合処理が異なるため、その点について詳述する。
 第1の画像要約処理による第1の要約画像列、及び第2の画像要約処理による第2の要約画像列を取得する点は第1の実施形態と同様である。本実施形態では、2つの要約画像列を統合する前に、第1の要約画像列に基づいて第2の要約画像列の更新処理を行う。
 図8(A)、図8(B)は第2の実施形態の統合処理を説明する図である。図8(A)では連続的な横方向の直線により入力画像列(入力画像列に含まれる複数の画像)を表している。また、縦方向の線が第2の画像要約処理の結果、選択された物体要約画像を表す。また、図8(A)における横方向の矢印は、その範囲に含まれる画像が対象物体等を連続して検出したことを表すものであり、1つ1つの矢印が連続画像列(セグメント)に対応する。同様に、図8(B)の横方向の直線が入力画像列を表し、縦方向の線が類似度要約画像を表す。
 本実施形態の統合処理では、第2の画像要約処理の結果として設定された複数の連続画像列を1つの結合連続画像列にまとめ、当該結合連続画像列から少なくとも1枚の要約画像を抽出することで、第2の要約画像列に含まれる物体要約画像の枚数を削減する。
 具体例を説明する。まず、第1の要約画像列に含まれる類似度要約画像のうち隣り合う2つの画像を選択する。そして、その2つの類似度要約画像の間に、第2の画像要約処理で設定された連続画像列が複数含まれている場合には、それら複数の連続画像列を結合できるか否かの判定を行う。
 或いは、隣り合う類似度要約画像を基準とするのではなく、隣り合う連続画像列を選択し、その双方が隣り合う類似度要約画像の間にあるか否かに基づいて、連続画像列を結合できるか否かの判定を行ってもよい。
 ここで、連続画像列が2つの類似度要約画像の間にあるとは、当該連続画像列に含まれる少なくとも1枚の画像が2つの類似度要約画像の間にあればよく、連続画像列の全ての画像列が2つの類似度要約画像の間にある必要はない。
 また、連続画像列に含まれる所与の画像を抽出し、抽出した画像が2つの類似度要約画像の間にある場合に、抽出元となった連続画像列を結合判定の対象としてもよい。この場合、抽出画像とされる画像は、物体要約画像として選択された画像が典型ではあるが、連続画像列に含まれる他の画像を用いてもよい。
 図8(A)、図8(B)を用いて例を示す。図8(B)のうち隣り合う2つの類似度要約画像としてC1及びC2に着目した場合、図8(A)に示した連続画像列B1及び連続画像列B2は、上述の定義よりともにC1とC2の間に含まれることになる。よって、B1とB2に対して、結合できるか否かの判定を行う。
 連続画像列の結合可否判定の具体例を図9(A)に示す。類似度要約画像と、処理対象となっている複数の連続画像列から選択された物体要約画像を用いて判定を行う。具体的には、類似度要約画像を変形して複数の物体要約画像(少なくとも結合判定対象となっている連続画像列の数だけの枚数)のそれぞれに射影して被覆領域を求める。この処理は被覆率を用いた第1の画像要約処理と同様に、画像間の変形情報に基づいて行えばよい。その上で、物体要約画像の各画像について、検出された対象物体が被覆領域内にあるか否かの判定を行い、全ての物体要約画像において、対象物体が被覆領域内にあれば、対象となっている連続画像列を結合連続画像列に結合することが可能と判定する。類似度要約画像と、各被覆領域は同一の被写体範囲を撮像しているのであるから、全ての画像について対象物体が被覆領域内にある場合には、その対象物体は同一の物体である可能性が高いといえる。つまりこの対象物体については、複数の連続画像列から少なくとも連続画像列の数だけの物体要約画像を抽出する必要はなく、当該複数の連続画像列を結合した上で、結合連続画像列から少なくとも1枚の物体要約画像を抽出すれば足りる。
 なお、結合連続画像列(図8(A)のB1とB2の和集合に相当)から抽出される物体要約画像は、選択の基準となる特徴量を変更しない限り、結合前の連続画像列から抽出された物体要約画像のいずれかと一致することになる。つまり、図8(A)の例で言えば、B3又はB4のいずれかを結合連続画像列から物体要約画像として抽出することになるため、連続画像列の結合処理とは狭義には物体要約画像の一部を削除する処理に相当する。
 なお、類似度要約画像は前方だけでなく後方にもあることから、後方についても図9(B)のように同様の処理を行う。そして、図9(A)と図9(B)のどちらか一方の処理において結合可能と判定されたら、連続画像列の結合処理を行えばよい。
 図10は、本実施形態の統合処理を説明するフローチャートである。図10に示したように、統合処理はS401~S408のループとなり、S402~S407の処理を入力画像列の全画像について行うことになる。
 具体的には、入力画像列のi番目の画像が、第1の要約画像列に含まれているかの判定を行う(S402)。Yesの場合には、i番目の画像を出力要約画像として選択する(S403)。S402でNoの場合には、i番目の画像が、第2の要約画像列に含まれているかの判定を行う(S404)。S404でNoの場合には、i番目の画像を削除画像とする(S407)。S404でYesの場合(つまりi番目の画像は物体要約画像の場合)には、i番目の画像と、1つ前の物体要約画像について、類似度要約画像との関係に基づく判定を行う(S405)。具体的には、図8(A)、図8(B)を用いて上述したように、隣り合う類似度要約画像の間に、i番目の画像と1つ前の物体要約画像が入っている場合にYesとなる。S405でNoの場合には、連続画像列の結合は行われないため、i番目の画像が第2の要約画像列から削除されることはなくなる。よって、S403に移行しi番目の画像を出力要約画像として選択する。
 また、S405でYesの場合には、連続画像列を結合できる可能性があるため、図9(A)、図9(B)に示した判定を行う(S406)。S406でNoの場合には、連続画像列の結合は行われないため、i番目の画像が第2の要約画像列から削除されることはなくなる。よって、S403に移行しi番目の画像を出力要約画像として選択する。一方、S406でYesの場合には、2つの連続画像列が結合されることから、S407に移行しi番目の画像は削除画像とする。そして、この処理をi=0を初期値とし、iをインクリメントしつつ入力画像列全体に対して行う。
 なお、図10のフローチャートは、1度に結合対象となる連続画像列が2つに限定されている点、連続画像列を結合した際には後方の連続画像列に対応する物体要約画像が削除される点等からわかるように、本実施形態の処理の一例を示したものに過ぎず、図10とは異なる処理により本実施形態の手法が実現されてもよいことは言うまでもない。
 以上の本実施形態では、統合処理部300は、第1の要約画像列に基づいて、第2の画像要約処理において設定された複数の連続画像列を1つの結合連続画像列に結合し、結合連続画像列から少なくとも1枚の画像を要約画像(物体要約画像)として抽出することで、第2の要約画像列の更新処理を行う。
 これにより、第1の要約画像列に基づいて、第2の要約画像列を更新することが可能になる。更新処理とは狭義には物体要約画像の一部を削除して、第2の要約画像列に含まれる画像の枚数を削減する処理になる。なお、連続画像列の結合処理は具体的には、図8(A)、図8(B)及び図9に示した処理を行えばよいし、他の手法により行ってもよい。
 また、統合処理部300は、第1の要約画像列、及び更新処理後の第2の要約画像列の少なくとも一方に含まれる画像を出力要約画像列の要約画像(出力要約画像)として選択する処理を、第1の要約画像列と第2の要約画像列の統合処理として行ってもよい。
 これにより、更新処理後の第2の要約画像列を用いて、第1の要約画像列との統合処理を行うことが可能になる。これにより、類似度を用いた画像要約処理と、対象物体等の認識処理を用いた画像要約処理の両方の利点を残しつつ、更新処理を行わない場合(第1の実施形態等)に比べて、出力要約画像列に含まれる画像の枚数を削減することができ、出力要約画像列を利用するユーザの利便性を高めること等が可能になる。
 4.第3の実施形態
 次に第3の実施形態について説明する。本実施形態の画像要約装置のシステム構成例を図11に示す。図11に示したように、基本的な構成は第1の実施形態と同様であるが、第1の画像要約処理部100と、統合処理部300との接続が双方向となっている点が異なる。
 本実施形態では、統合処理部300は、まず第2の画像要約処理の結果を取得し、取得した結果に基づいて第1の画像要約処理部100に対して第1の画像要約処理を実行させる。
 具体例を図12(A)~図12(C)に示す。図12(A)~図12(C)の表現については図8(A)、図8(B)と同様である。図12(A)に示したように、第2の要約画像列は、第1の実施形態と同様に対象物体又はシーンの認識処理に基づいて、例えば連続画像列から少なくとも1枚の要約画像を抽出することで取得する。また、第1の画像要約処理は、第1の実施形態等であれば、図12(B)のようになり、S(i)が類似度要約画像(第1の基準画像)として選択された場合には、次の類似度要約画像であるS(i+1)は第2の基準画像を設定した上で被覆率に基づいた判定を行うことで探索される。
 しかし、類似度(被覆率)に基づいて削除可能と判定された画像であっても、観察対象としている対象物体が撮像されており、かつ連続画像列を代表する画像なのであれば出力要約画像として選択するべきであり、第1の実施形態でもそのような統合処理を行っている。その観点から考えると、第1の画像要約処理において、類似度だけでなく第2の画像要約処理の結果を用いて類似度要約画像(或いは第1の基準画像)を選択することで、同様の効果が期待できる。
 そこで本実施形態では、類似度要約画像(第1の基準画像)の設定後、次の類似度要約画像を探索する際に、物体要約画像となっている画像は、類似度に関係なく類似度要約画像として選択するものとする。例えば、図12(B)に示したように、E1で示した画像は類似度の判定では削除画像とされるはずであるが、当該画像は図12(A)のD1に示したように物体要約画像として選択されている。よって、図12(C)に示したように、本実施形態での第1の画像要約処理では、当該画像を類似度要約画像S(i+1)として設定する。
 その後も同様に、類似度で所与の条件を満たした場合、或いは第2の要約画像列の要約画像が見つかった場合に、次に要約画像を設定すればよい。図12(C)の例であれば、S(i+2)は類似度に基づいて選択されたものであるし、S(i+3)は物体要約画像に基づいて選択されたものである。狭義の類似度要約画像(第1の実施形態の第1の画像要約処理の結果)の画像列中の位置は、他の類似度要約画像(狭義には1つ前の類似度要約画像)に依存して決定される。そのため、第2の画像要約処理の結果を入れ込んで類似度要約画像を選択した場合には、図12(B)、図12(C)から明らかなように、第2の画像要約処理の結果を用いない場合に比べて、一般的に類似度要約画像として選択される画像は大きく異なるものになる。
 なお、第2の画像要約処理の結果に基づいた第1の画像要約処理により、対象物体等の認識処理と類似度の両方を考慮した画像列が取得できるため、最終的な出力要約画像列は第1の画像要約処理の結果を用いればよい。
 図13は、本実施形態の統合処理を説明するフローチャートである。実際には、第2の画像要約処理の結果に基づいた第1の画像要約処理を説明するフローチャートであり、図4に近いものである。
 図13のS501~S511については、図4のS101~S111と同様であるため詳細な説明は省略する。図13は図4のS505の次のステップとして、S512~S514が加わったものであり、S512では処理対象となっているi番目の画像が、第2の画像要約処理の結果、物体要約画像となっているか否かの判定を行う。S512でYesの場合には、S505~S508のループを抜けて、i番目の画像を次の類似度要約画像として設定するとともに(S513)、I=iとして(S514)、S502に戻りS514で設定した類似度要約画像を新たな第1の基準画像に設定して処理を継続する。
 以上の本実施形態では、統合処理部300は、第1の画像要約処理部に対して、第2の画像要約処理の結果に基づいて、第1の画像要約処理を実行させる処理を、第1の画像要約処理と第2の画像要約処理の統合処理として行う。
 これにより、画像間の類似度判定、及び対象物体又はシーンの認識処理という異なる観点で行われた画像要約処理を統合して出力要約画像列を取得することができるため、双方の画像要約処理の利点を兼ね備えた画像要約処理を行うことが可能になる。
 また、第1の画像要約処理部100は、統合処理に基づいて、複数の画像から第2の要約画像列に含まれる画像(物体要約画像)を基準画像として選択するとともに、複数の画像から判定対象画像を選択し、基準画像と判定対象画像の間の変形情報に基づいて、基準画像による判定対象画像の被覆率を類似度として算出し、被覆率に基づいて判定対象画像の削除可否の判定を行う処理を、第1の画像要約処理として行ってもよい。
 これにより、第1の画像要約処理と第2の画像要約処理の統合処理として、具体的に第2の画像要約処理の結果に基づいて、第1の画像要約処理における基準画像の選択処理を行うことが可能になる。さらに具体的には、第2の要約画像列に含まれる物体要約画像をそのまま基準画像としつつ、物体要約画像以外の画像においては基本通り類似度に基づいて処理を行えばよい。
 また、統合処理部300は、統合処理により、第1の画像要約処理部で生成された第1の要約画像列を出力要約画像列として取得してもよい。
 これにより、第2の画像要約処理に基づく第1の画像要約処理の結果をそのまま出力要約画像列とすることが可能になる。上述したように、本実施形態の手法では第2の画像要約処理の結果、要約画像(物体要約画像)とされた画像は、第1の画像要約処理における要約画像(類似度要約画像)として選択される。よって、第1の画像要約処理において、対象物体等の認識処理に基づく画像が残されることになるため、第1の要約画像列と第2の要約画像列との統合処理等は考慮しなくてもよい。
 5.第4の実施形態
 次に第4の実施形態について説明する。本実施形態の画像要約装置のシステム構成例は、第3の実施形態で用いた図11と同様であるため詳細な説明は省略する。本実施形態では、第3の実施形態の手法と、第2の実施形態における第2の要約画像列の更新処理(連続画像列の結合処理)を組み合わせた手法を用いる。具体的には、第3の実施形態と同様に第2の画像要約処理の結果に基づいた第1の画像要約処理を行い、その結果取得される第1の要約画像列に基づいて第2の要約画像列を更新できるかの判定を行う。更新処理が行えた場合には、更新処理後の第2の画像要約処理の結果に基づいた第1の画像要約処理を行い、その結果取得される新たな第1の要約画像列を出力要約画像列として取得する。
 具体例を図14(A)~図14(E)に示す。図14(A)が最初に取得される第2の要約画像列を表し、図14(B)が第2の画像要約処理の結果を用いない場合の第1の要約画像列を表す。本実施形態では第3の実施形態と同様に、第2の画像要約処理の結果を用いて第1の画像要約処理を行うため、取得される第1の要約画像列は図14(C)となる。
 図14(C)の第1の要約画像列が取得された後に、これを用いて図14(A)の第2の要約画像列の更新処理を実行できるか否かの判定を行う。具体的には第2の実施形態で上述したように、複数の連続画像列を結合連続画像列に結合できるか否かの判定を行うことになる。例えば、図14(A)の連続画像列F1とF2は、ともに隣り合う類似度要約画像G1とG2の間に含まれるため、結合判定の対象となる。
 この結果、図14(D)のように第2の要約画像列が更新された場合、図14(A)のF3に示した物体要約画像は削除されることから、出力要約画像にF3に対応する画像を含めなくてもよいことになる。つまり、図14(C)の第1の要約画像列のG1が不要となるため、第1の要約画像列についても変更する必要が生じる。具体的には、更新処理後の第2の要約画像列である図14(D)に基づいて再度第1の画像要約処理を行えばよく、その結果新たな第1の要約画像列として図14(E)が取得される。
 なお、図14(E)を取得するに当たっては、入力画像列全体に対して処理を行ってもよい。ただし、第2の要約画像列が更新されたことで、図14(C)のどの画像を削除する必要があるかはわかるため、削除対象であるG1の1つ前の類似度要約画像(G3)以前の画像については変化がないことは新たな第1の画像要約処理を行わずともわかることである。よって、変化が生じうる部分、つまり図14(C)のG3で示した画像以降に対して処理を行うものとしてもよい。
 図15は、本実施形態の統合処理を説明するフローチャートである。この処理が開始されると、まず第2の画像要約処理が行われる(S601)。S601の処理は図5の処理に相当する。次に、第2の画像要約処理の結果(狭義には第2の要約画像列)に基づいて、第1の画像要約処理を行う(S602)。S602の処理は図13の処理に相当する。
 その後、第1の要約画像列に基づいて第2の要約画像列の更新処理を行う(S603)。S603の処理は図10のS404~S406等の処理に相当する。そして、更新処理の結果、第2の要約画像列が変化したか(狭義には第2の要約画像列の要約画像の一部が削除されたか)の判定を行い(S604)、変化した場合には、更新処理後の第2の要約画像列に基づいて、第1の画像要約処理を行う(S605)。S605の処理後、或いはS604でNoの場合には、S606に移行し、対応する第1の要約画像列を出力要約画像列に設定して処理を終了する。S604でYesの場合には、S605での処理結果が出力要約画像列に設定されることになり、S604でNoの場合には、S602での処理結果が出力要約画像列に設定されることになる。
 なお、第2の画像要約処理の結果に基づいた第1の画像要約処理をステップAとし、第1の要約画像列に基づいた第2の要約画像列の更新処理をステップBとした場合に、以上の説明では、最初のステップA(図15のS602に相当)とその結果を用いたステップB(S603)を実行し、ステップBの結果を用いて2度目のステップA(S605)を行うものとしていた。ただし、入力画像列によっては2度目のステップAの結果を用いて、2度目のステップBを実行できる(更新処理の結果第2の要約画像列が変化する)可能性もあり得る。
 よって、本実施形態の変形例としては、ステップA及びステップBを、1つ前のステップの結果を入れ込みつつ任意の回数繰り返し実行するものとしてもよい。この場合、N回目(Nは2以上の整数)のステップAを行った段階で処理を終了して、その結果を出力要約画像列としてもよい。或いは、ステップBを実行できなかった(或いは実行したが第2の要約画像列が変化しなかった)ことを検出した場合に、その直前のステップAの結果を出力要約画像列としてもよい。
 以上の本実施形態では、統合処理部300は、統合処理により、第1の画像要約処理部で生成された第1の要約画像列に基づいて、第2の要約画像列に含まれる画像の枚数を削減する第2の要約画像列の更新処理の実行可否判定を行う。
 これにより、第3の実施形態の手法を用いた場合の第1の要約画像列(第3の実施形態ではそのまま出力要約画像列となる)を用いて、第2の実施形態で用いた第2の要約画像列の更新処理が可能か否かの判定を行うことが可能になる。第1の要約画像列を求めた時点で、第3の実施形態で述べたとおり第1の画像要約処理と第2の画像要約処理の統合処理は行えているが、その結果は含まれる画像の枚数削減は考慮されていない。出力要約画像列の画像枚数を減らすことでユーザの利便性向上が図れるため、画像の枚数削減を試みることには利点があり、ここでは第2の実施形態で用いた第2の要約画像列の更新処理(具体的には連続画像列の結合処理等)を用いるものとする。
 また、統合処理部300は、第2の要約画像列の更新処理が実行可能と判定された場合には、第2の要約画像列の更新処理を行ってもよい。そして、第1の画像要約処理部に対して、更新処理後の第2の画像要約処理の結果に基づいて、第1の画像要約処理を実行させる処理を、第1の画像要約処理と第2の画像要約処理の統合処理として行う。
 これにより、更新処理後の第2の画像要約処理の結果(更新後の第2の要約画像列)に基づいた第1の画像要約処理を行うことが可能になる。第2の要約画像列の更新処理を行うことで、第2の要約画像列に含まれる物体要約画像の枚数を削減することができる(図14(A)から図14(D)へと削減される)が、出力要約画像列に対応する第1の要約画像列(図14(C))にはそのままでは削除処理が反映されない。また、図14(A)におけるF3が更新処理により削除された場合に、第1の要約画像列から対応する画像(図14(C)のG1)を単純に削除することは好ましくない。なぜなら、図14(B)(第2の画像要約処理を考慮しない第1の画像要約処理の結果)から明らかなように、H3の次の類似度要約画像としてはH2(或いはH2よりもH3に近い画像)を選ばなくては、その間の画像は類似度の観点からカバーできないことになる。しかし、図14(C)でG1を削除してしまうとG3の次の要約画像はG2になってしまい、間隔が広くなりすぎG3とG2間の画像をカバーしきれない。よって、図14(A)から図14(D)のように、第2の要約画像列に対する更新処理が行われた場合には、図14(C)から単純にG1を削除するのではなく、更新処理後の第2の要約画像列を用いて第1の画像要約処理を再度行って図14(E)を取得することが望ましい。
 また、統合処理部300は、統合処理により、第1の画像要約処理部で生成された第1の要約画像列を出力要約画像列として取得してもよい。
 これにより、更新処理後の第2の要約画像列に基づいた第1の画像要約処理により取得された第1の要約画像列を出力要約画像列とすることが可能になる。本実施形態においても、第3の実施形態と同様に、第1の画像要約処理において、対象物体等の認識処理に基づく画像が残されることになるため、第1の要約画像列と第2の要約画像列との統合処理等は考慮しなくてもよい。なお、第2の要約画像列の更新処理を試みた結果、処理前後で変化がない(物体要約画像の削減ができなかった)場合も考えられる。その場合には、更新処理後の第2の要約画像列に基づいた第1の画像要約処理を行ったとしても、出力結果は更新処理前の第2の要約画像列に基づいた第1の画像要約処理と変わらないため、図15のフローチャートに示したように、再度の第1の画像要約処理はスキップすることが望ましい。その場合には、出力要約画像列として取得される第1の要約画像列は、更新処理前の第2の要約画像列に基づくもの(図15におけるS602の処理結果)となる。
 6.第5の実施形態
 第5の実施形態について説明する。具体的には、画像処理装置のシステム構成例を説明し、フローチャートを用いて処理の流れを説明した後、第1の削除可否判定処理、第2の削除可否判定処理の各処理の詳細について説明する。
 6.1 システム構成例
 図17に本実施形態における画像処理装置のシステム構成例を示す。画像処理装置は、処理部100と、画像列取得部30と、記憶部50を含む。
 処理部100は、画像列取得部30が取得した画像列に対して、当該画像列に含まれる複数の画像の一部を削除することで、画像要約処理を行う。この処理部100の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
 画像列取得部30は、画像要約処理の対象となる画像列を取得する。取得する画像列は、時系列順に並んだRGB3チャンネル画像が考えられる。或いは、横一列に並べられた撮像機器により撮影された、空間的に並んだ画像列のように空間的に連続する画像列であってもよい。なお、画像列を構成する画像はRGB3チャンネル画像に限定されるものではなく、Gray1チャンネル画像等、他の色空間を用いてもよい。
 記憶部50は、画像列取得部30が取得した画像列を記憶する他、処理部100等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
 また、処理部100は、図17に示したように注目画像列設定部1001と、第1の基準画像選択部1002と、第1の判定対象画像選択部1003と、第1の削除可否判定部1004と、部分画像列設定部1005と、第2の基準画像選択部1006と、第2の判定対象画像選択部1007と、第2の削除可否判定部1008と、を含んでもよい。なお処理部100は、図17の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また上述の各部は、処理部100で実行される画像要約処理を複数のサブルーチンに分割した際に、各サブルーチンを説明するために設定したものであり、必ずしも処理部100が上述の各部を構成要件として有するわけではない。
 注目画像列設定部1001は、画像列取得部30が取得した画像列(以下、注目画像列や要約画像列等との区別を明確にするため、取得画像列とも表記する)を構成する複数の画像から注目画像を抽出し、抽出した1又は複数の注目画像から構成される注目画像列を設定する。ここで、注目画像とは例えば注目領域(病変部等)が撮像された画像のことである。注目領域の検出は処理部100で行われることが想定され、例えば取得画像列の各画像に対して所与の画像処理を行うことで注目領域が撮像されたか否かを判定し、注目領域が撮像されている画像を注目画像とすればよい。注目領域の検出手法は種々考えられ、例えば画像からエッジ成分を抽出するものであってもよいし、画素値から色味等を判定する処理が行われてもよい。
 ただし、注目領域の検出が画像処理装置において行われるものには限定されず、例えば画像列取得部30が、各画像に対して注目画像であるか否かを表すメタデータが付与された画像列を取得するものであってもよい。その場合、注目画像列設定部1001は注目領域の検出処理を行う必要はなく、メタデータの読み出し処理に基づいて注目画像列を設定することになる。
 第1の基準画像選択部1002は、注目画像列の複数の画像から第1の基準画像を選択する。第1の判定対象画像選択部1003は、取得画像列の複数の画像のうち、第1の基準画像とは異なる画像を第1の判定対象画像として選択する。なお、第1の判定対象画像選択部1003は、狭義には取得画像列の複数の画像のうち、注目画像ではない画像から第1の判定対象画像を選択する。
 第1の削除可否判定部1004は、選択された第1の基準画像と第1の判定対象画像に基づいて、第1の判定対象画像の削除可否を判定する。詳細については後述する。
 部分画像列設定部1005は、第1の削除可否判定部1004での第1の削除可否判定処理の結果に基づいて、取得画像列の一部の画像から構成される部分画像列を設定する。部分画像列の数は1つに限定されず、複数の部分画像列が設定されてもよい。詳細については後述する。
 部分画像列が複数設定された場合、第2の基準画像選択部1006、第2の判定対象画像選択部1007、第2の削除可否判定部1008での処理は、各部分画像列に対して独立に行われる。具体的には、部分画像列の複数の画像から第2の基準画像を選択する。第2の判定対象画像選択部1007は、部分画像列の複数の画像のうち、第2の基準画像とは異なる画像を第2の判定対象画像として選択する。第2の削除可否判定部1008は、選択された第2の基準画像と第2の判定対象画像に基づいて、第2の判定対象画像の削除可否を判定する。各処理の詳細については後述する。
 6.2 処理の流れ
 図18に本実施形態の画像要約処理を説明するフローチャートを示す。この処理が開始されると、まず取得画像列の複数の画像から注目画像を抽出し、注目画像列を設定する(S701)。そして、注目画像列から第1の基準画像を選択する(S702)。S702の処理が初めて行われる場合には、注目画像列に含まれる画像のうち先頭の画像を第1の基準画像とすればよい。図16(A)の例であれば、J1で示した注目画像が最初の第1の基準画像となる。また、S702の2回目以降の処理では現在の第1の基準画像の注目画像列における位置に基づいて、第1の基準画像を更新する処理を行う。具体的には、注目画像列において、現在の第1の基準画像よりも1つ後方の画像を新たな第1の基準画像とすればよい。図16(A)の例では、現在の第1の基準画像がJ1の画像であれば、新たな第1の基準画像としてJ2の画像を選択することになる。
 第1の基準画像が選択されたら、取得画像列から第1の判定対象画像を選択する。ここではS702の処理が初めて行われる場合には、取得画像列に含まれ、且つ注目画像列に含まれない画像のうち、取得画像列において最も前にある画像を第1の判定対象画像とする。また、S703の2回目以降の処理では現在の第1の判定対象画像の取得画像列における位置に基づいて、第1の判定対象画像を更新する処理を行う。具体的には、取得画像列に含まれ、且つ注目画像列に含まれない画像のうち、取得画像列において、現在の第1の判定対象画像よりも1つ後方の画像を新たな第1の判定対象画像とすればよい。
 第1の基準画像と、第1の判定対象画像が選択されたら、第1の削除可否判定処理を行う(S704)。ここでは被覆率に基づく判定を行うものであり、具体的な処理は後述する。S704の処理後は、その時点での第1の判定対象画像が削除可能であるか削除不可であるかという情報を記憶し、S703に戻る。S703,S704での処理が繰り返されることで、取得画像列に含まれ、且つ注目画像列に含まれない画像が順次第1の判定対象画像として選択されて、選択された各画像に対して削除可能或いは削除不可という結果が求められる。
 取得画像列に含まれ、且つ注目画像列に含まれない画像のうち、取得画像列において最後の画像についてS704の判定が行われると、S703に戻った際に第1の判定対象画像として選択する画像がないということになり、S702に戻る。S702では、第1の基準画像の更新処理が行われ、更新された場合にはS703,S704の処理を繰り返すことで、新たな第1の基準画像を用いて、取得画像列に含まれ、且つ注目画像列に含まれない全ての画像(図16(A)の例ではJ1~J3以外の全ての画像)の削除可否判定が行われる。
 そして、注目画像列の最後の画像(図16(A)の例ではJ3)を第1の基準画像とし、当該第1の基準画像を用いたS703,S704の処理による削除可否判定が終わってS702に戻った際に、S702において第1の基準画像として選択する画像がないということになり、第1の削除可否判定処理を終了してS705に移行する。
 以上の処理により、取得画像列に含まれ、且つ注目画像列に含まれない各画像について、削除可能であるか否かの判定が行われる。なお、注目画像が複数有る場合には、各画像について複数回削除可否判定が行われるが、ここでは、少なくとも1回削除可能と判定された画像は削除可能であるものとする。なぜなら、本実施形態では注目画像は全て要約画像列に残されるものとしており、その注目画像のうちどれか1つによりカバーされているのであれば、他の注目画像によりカバーされていなかったとしても、削除することに問題はないためである。
 この結果、削除可能とされた画像は要約画像列に残さないものとして確定させる。しかし、削除不可とされた画像については、要約画像列に残すものとは確定せず、さらに第2の削除可否判定処理を行う。なぜなら、削除不可とされた画像は、注目画像によりカバーされていないというだけであり、削除不可とされた画像のうち所与の画像により他の画像がカバーされるのであれば、当該他の画像は削除しても問題ないためである。
 ここで、第1の削除可否判定処理で削除不可である画像は、その全てが連続するとは限らない。例えば、第1の削除可否判定処理の結果、図16(C)に示したように注目画像により削除可能となる区間が求められた場合には、I2~I4に示したように、削除不可である画像は3つの部分に分かれている。この際に、削除不可である画像全体に対して削除可否判定処理を行うのは非効率である。なぜなら、複数の部分のうち、第1の部分と第2の部分は取得画像列において離れていることから、撮像対象である被写体も変化している可能性が高く、第1の部分の画像により第2の部分の画像が削除可能となる可能性は低いことが想定される。つまり、複数の部分にまたがった処理を行う必要性は低く、各部分で閉じた処理を行えば十分である。
 よってここでは、取得画像列において、第1の削除可否判定処理で削除不可とされた画像が連続する区間を検出し、当該区間に相当する画像から構成される部分画像列を設定する(S705)。図16(D)の例ではI5~I7の3つの部分画像列が設定されることになる。なお、第1の削除可否判定処理で削除不可とされた画像が1枚であり、連続していない場合には部分画像列として設定しない。なぜなら、各部分画像列に対して閉じた処理を行う以上、1枚の画像から構成される部分画像列を設定しても、部分画像列の所与の画像により他の画像が削除できるという状況は起こりえないためである。よって、第1の削除可否判定処理で削除不可とされた連続しない1枚の画像については、第2の削除可否判定処理を行うことなく、要約画像列に残す画像として確定させる。
 部分画像列が設定されたら、当該部分画像列の先頭の画像を第2の基準画像として選択する(S706)。そして、部分画像列に含まれる画像のうち、第2の基準画像以外の画像から第2の判定対象画像を選択する(S707)。ここでは、第2の基準画像の設定後に初めてS707の処理が行われる場合には、第2の基準画像の1つ後方の画像(部分画像列の2番目の画像)を第2の判定対象画像とする。また、S708の後にS707の処理が行われる場合には、現在の第2の判定対象画像の部分画像列における位置に基づいて、第2の判定対象画像の更新処理が行われる。具体的には、部分画像列において、現在の第2の判定対象画像よりも1つ後方の画像を新たな第2の判定対象画像とすればよい。
 第2の基準画像、第2の判定対象画像が選択されたら、第2の削除可否判定処理が行われる(S708)。本実施形態では第1の削除可否判定処理と同様に、被覆率に基づく判定処理が行われるものであり、詳細については後述する。
 S708で削除可能と判定された場合には、S707に戻り第2の判定対象画像を更新する。S707,S708の処理を繰り返し、部分画像列における最後の画像を第2の判定対象画像とした際に、S708で削除可能とされS707に戻った場合には、第2の基準画像により部分画像列の他の画像が全てカバーされるということであるため、第2の基準画像を要約画像列に残し、他の画像を全て削除するものとして、当該部分画像列に対する処理を終了する。具体的には、S707において第2の判定対象画像として選択する画像がないということになり、S705に戻る。
 一方、少なくとも1つの第2の判定対象画像が削除不可とされた場合には、その時点での第2の判定対象画像は第2の基準画像ではカバーできないということであるから、要約画像列に残す必要がある。よって、S708で削除不可の場合には、S705に戻り、その時点での第2の判定対象画像、及び部分画像列におけるそれ以降の画像から構成される画像列を新たな部分画像列として設定する。この新たな部分画像列に対してS706~S708の処理を行うことで、新たな部分画像列の先頭の画像、つまり上述の処理において削除不可とされた第2の判定対象画像を第2の基準画像として設定できる(要約画像列に残すことができる)。
 S705では、第1の削除可否判定処理の結果設定された1又は複数の部分画像列、及びそれらに対するS706~S708の処理結果として新たに設定された部分画像列を順次選択することになる。そして、全ての部分画像列に対して処理が終了したら(S705で選択する部分画像列がなかったら)、本実施形態の画像要約処理を終了する。なお、本実施形態では、第2の基準画像として設定された画像は要約画像列に残されることになり、他の画像は削除されることになる。
 第1の削除可否判定処理の結果設定された部分画像列のうちの1つの画像列に対する処理の流れを図示したものが図19(A)~図19(D)である。図19(A)に示したように、N枚の画像を有する画像列が第1の削除可否判定処理の結果部分画像列として設定された場合には、まず1番目の画像が第2の基準画像として選択され、2番目の画像が第2の判定対象画像として選択される。そして、第2の判定対象画像の削除可否が判定される。
 第2の判定対象画像が削除可能と判定された場合には、新たに第2の判定対象画像を選択する。具体的には第2の判定対象画像の位置を後ろにずらす処理となり、図19(B)に示したように3番目の画像が第2の判定対象画像として選択される。そして、新たな第2の判定対象画像の削除可否が判定され、削除不可と判定される第2の判定対象画像が見つかるまで、第2の判定対象画像として選択される画像を更新していく。
 図19(C)に示したように、2番目~k-1番目までの画像が削除可能と判定され、k番目の画像が削除不可と判定された場合、2番目~k-1番目までの画像とは第2の基準画像によりある程度カバーされているということであるから、削除処理を行い要約画像列には含めない。それに対して、k番目の画像は第2の基準画像では十分カバーできないため、要約画像列に残す必要がある。そのために、ここではk番目の画像とそれ以降の画像(k~N番目の画像)を新たな部分画像列として設定する。
 そして、この新たな部分画像列に対して再度図19(A)~図19(C)の処理を繰り返せばよい。具体的には図19(D)に示したように、N-x+1枚の画像からなる新たな部分画像列に対して、先頭(図19(C)等ではk番目)の画像を第2の基準画像、2番目(図19(C)等ではk+1番目)の画像を第2の判定対象画像として処理を行う。以降の処理は同様であり、第2の判定対象画像が削除可能と判定されたら、次の画像を新たな第2の判定対象画像として選択する。また、第2の判定対象画像が削除不可と判定されたら、第2の基準画像を要約画像列に残し、削除可能と判定された画像を削除し、その時点での第2の判定対象画像以降の画像を新たな部分画像列に設定する。最終的には、部分画像列の最後の画像まで全て削除可能と判定された場合、或いは部分画像列に含まれる画像が1枚のみであり第2の判定対象画像が設定できなかった場合に処理が終了することになる。
 なお、図18のフローチャートでは、第1の削除可否判定処理の結果、複数の部分画像列が設定された場合には、当該複数の部分画像列を1つずつ順次処理していくものとしたが、これに限定されるものではない。処理部100の構成が並列処理に適している(例えば処理部100として複数のコアを有するCPUが用いられている)場合や、複数のコンピュータにより本実施形態の画像処理装置が構成され、各コンピュータで分散処理が行われる場合等では、複数の部分画像列に対して並列に第2の削除可否判定処理を行ってもよい。このようにすれば、第2の削除可否判定処理に要する時間を短縮すること等が可能になる。
 6.3 第1の削除可否判定処理
 次に、第1の削除可否判定処理の具体例として、被覆率を用いた処理について説明する。図20に示したように、第1の削除可否判定部1004は、変形情報取得部1009と、被覆領域算出部1010と、被覆率算出部1011と、閾値判定部1012と、を含んでもよい。ただし、第1の削除可否判定部1004は、図20の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 変形情報取得部1009は、2つの画像間の変形情報を取得する。変形情報については上述したとおりである変形情報取得部1009は、第1の基準画像選択部1002で選択された第1の基準画像と、第1の判定対象画像選択部1003で選択された第1の判定対象画像の間の変形情報を取得する。
 被覆領域算出部1010は、2つの画像間の変形情報(変形パラメータ)を利用して、一方の画像を他方の画像へ射影して被覆領域を求める。被覆率算出部1011は、被覆領域に基づいて被覆率を算出する。閾値判定部1012は、算出された被覆率と所与の閾値との比較処理を行う。具体的な処理内容は第1の実施形態等と同様であるため、詳細な説明は省略する。
 6.4 第2の削除可否判定処理
 次に第2の削除可否判定処理について説明する。本実施形態では、第2の削除可否判定処理も被覆率に基づいて行われる。図21に示したように、第2の削除可否判定部1008は、変形情報取得部1013と、被覆領域算出部1014と、被覆率算出部1015と、閾値判定部1016と、を含んでもよい。ただし、第2の削除可否判定部1008は、図21の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 変形情報取得部1013は第2の基準画像と第2の判定対象画像の間の変形情報を取得する。被覆領域算出部1014は、第2の基準画像と第2の判定対象画像との間の変形情報に基づいて、第2の基準画像を変形して第2の判定対象画像上に射影して被覆領域を算出する。被覆率算出部1015は、第2の判定対象画像全体の面積に対する被覆領域の面積等から被覆率を求める。閾値判定部1016は、算出された被覆率と所与の閾値との比較処理を行う。なお、第2の削除可否判定処理で用いる閾値は、第1の削除可否判定処理で用いる閾値と異なる値であってもよい。
 本実施形態では第1の削除可否判定処理と、第2の削除可否判定処理は同様の処理となる。つまり、変形情報取得部は、1009と1013の2つが設けられる必要はなく、1つにまとめられてもよく、その他の各部についても同様である。よって、本実施形態の処理部100は、変形情報取得部と、被覆領域算出部と、被覆率算出部と、閾値判定部とを含み、それらの各部が第1の削除可否判定処理と第2の削除可否判定処理の両方を行うものであってもよい。
 以上の本実施形態では、画像処理装置は図17に示したように、複数の画像を有する画像列を取得する画像列取得部30と、画像列取得部30が取得した画像列の複数の画像の一部を削除する第1の削除可否判定処理及び第2の削除可否判定処理に基づいて、要約画像列を取得する画像要約処理を行う処理部100を含む。処理部100は、複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定する。そして、設定した注目画像列から第1の基準画像を選択するとともに、複数の画像から第1の判定対象画像を選択し、第1の基準画像と第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、第1の判定対象画像の削除可否を判定する処理を、第1の削除可否判定処理として行う。また、処理部100は、画像列から、第1の削除可否判定処理において削除不可と判定された画像が複数連続する部分画像列を設定する。そして、処理部100は、部分画像列から第2の基準画像と第2の判定対象画像を選択し、第2の基準画像と第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、第2の判定対象画像の削除可否を判定する処理を、第2の削除可否判定処理として行う。
 ここで、注目画像とはユーザとって注目すべき画像のことであり、例えば特定の被写体が撮像されている画像であってもよいし、特定の色味を持った画像であってもよい。また、注目画像か否かは画像そのものから(例えば画像処理等により)決定されることに限定されず、例えば撮像装置に設けられたセンサからのセンサ情報をメタデータとして画像に付与しておき、当該メタデータに基づいて注目画像か否かが決定されてもよい。
 これにより、注目画像か否かという観点と、複数の画像間の変形情報に基づき残す画像により削除する画像がカバーされているか否かという観点の2つの観点を用いた画像要約処理ができるため、効果的な画像要約処理を行うことが可能になる。ただし、各観点の処理を行い、結果を単純に組み合わせただけでは、図16(B)に示すように画像枚数の削減効果が十分でない。よってここでは、残すことが確定している注目画像を基準とした第1の削除可否判定処理と、注目画像基準では削除できない部分画像列に対する第2の削除可否判定処理の2段階処理を行うことで、効率的な画像要約処理を可能にしている。なお、第1の削除可否判定処理における第1の判定対象画像は、画像列の複数の画像全体から選択されてもよいが、処理効率を考慮すれば狭義には複数の画像のうち、注目画像列に含まれない画像から選択される。
 また、処理部100は、第1の被覆率判定処理、及び第1の構造要素判定処理の少なくとも一方の処理を、第1の削除可否判定処理として行ってもよい。また、処理部100は、第2の被覆率判定処理、及び第2の構造要素判定処理の少なくとも一方の処理を、第2の削除可否判定処理として行ってもよい。ここで、第1の被覆率判定処理は、第1の変形情報に基づいて、第1の基準画像による第1の判定対象画像の被覆率を求め、求めた被覆率に基づいて第1の判定対象画像の削除可否を判定する処理である。第1の構造要素判定処理は、注目領域に対応する構造要素及び第1の変形情報を用いた処理の結果に基づいて、第1の判定対象画像の削除可否を判定する処理である。同様に、第2の被覆率判定処理は、第2の変形情報に基づいて、第2の基準画像による第2の判定対象画像の被覆率を求め、求めた被覆率に基づいて第2の判定対象画像の削除可否を判定する処理である。第2の構造要素判定処理は、注目領域に対応する構造要素及び前記第2の変形情報を用いた処理の結果に基づいて、前記第2の判定対象画像の削除可否を判定する処理である。
 ここで、注目領域とは、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域であり、例えば、ユーザが医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目領域は、その泡部分や便部分を写した領域になる。すなわち、ユーザが注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。
 これにより、変形情報を用いた処理として、被覆率を用いた処理、及び第2の実施形態で詳述する構造要素を用いた処理の少なくとも一方の処理を行うことが可能になる。被覆率を用いた場合には、所与の画像を削除したとしても、その画像のある程度の割合(例えば面積を基準とした割合)の領域は、要約画像列に残す要約画像によりカバーされることを保証でき、画像要約処理により観察できなくなる領域の発生を抑止できる。また、構造要素を用いた場合には、所与の画像を削除したとしても、その画像に撮像された構造要素に対応するサイズの領域の少なくとも一部は、要約画像に撮像されることを保証できる。よって、注目領域に対応する構造要素を設定することで、画像要約処理により観察できなくなる注目領域が発生することを抑止できる。
 また、処理部100は、複数の画像から注目領域を検出する処理を行い、複数の画像のうち、注目領域が検出された画像を注目画像として設定してもよい。
 これにより、注目領域に基づいて注目画像を設定することが可能になる。ここでの注目領域は、構造要素の設定基準となる注目領域と同様のものであることが想定されるが、異なる注目領域を設定してもよい。例えば、注目画像はエッジ成分の多い領域を注目領域として設定し(例えば生体内のヒダや血管構造等を抽出する)、構造要素は病変部を注目領域として設定する(例えば所与の大きさ以上の病変見逃しを抑止する)といった手法を用いてもよい。
 また、画像列取得部30は、画像列として、生体内を撮像した複数の生体内画像を取得してもよい。処理部100は、複数の生体内画像から、病変領域を注目領域として検出する処理を行い、複数の生体内画像のうち、病変領域が検出された画像を注目画像として設定する。
 これにより、注目領域として病変領域を用いた処理を行うことができるため、例えばカプセル内視鏡等で取得された画像を用いた診断等に用いることが可能になる。
 また、以上の本実施形態は、撮像部(例えば内視鏡スコープの先端部等に設けられる)と、上記の画像処理装置と、を含む内視鏡装置に適用してもよい。
 また、処理部100は、部分画像列を複数設定した場合には、複数の部分画像列に対して並列に第2の削除可否判定処理を行ってもよい。
 これにより、第2の削除可否判定処理の部分を並列処理により行うことができるため、処理の高速化が可能になる。
 また、本実施形態の画像処理装置等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサがプログラムを実行することで、本実施形態の画像処理装置等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサが実行する。ここで、情報記憶媒体(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 7.第6の実施形態
 次に、第1の削除可否判定処理、及び第2の削除可否判定処理の他の手法について説明する。本実施形態の画像処理装置の構成例は、第1の削除可否判定部1004、及び第2の削除可否判定部1008での処理内容が異なるものの、図17と同様であるため詳細な説明は省略する。また、処理の流れについても、S704及びS708での処理内容が異なるものの、図18のフローチャートと同様であるため詳細な説明は省略する。
 7.1 構造要素を用いた削除可否判定
 まず、第1の削除可否判定処理及び第2の削除可否判定処理として、注目領域に対応した構造要素を用いた処理を行う例について説明する。ここでの注目領域は、図17の注目画像列設定部1001で用いられる注目画像の基準と同一のものである(例えば、病変部が撮像された画像を注目画像として注目画像列を設定したのであれば、ここでの構造要素も病変部に基づいて設定される)としてもよいし、別のものであってもよい。
 ここで、注目画像列の設定における注目領域と、第1の削除可否判定処理での注目領域が同一のものであるとした場合、注目領域が撮像された画像は注目画像列に含まれるため、要約画像列に残されることが想定されている以上、第1の削除可否判定において注目領域の見逃し可能性を判定することに意味があるのかという疑問も生じる。しかし、画像要約処理が必要なほど大量の画像を処理対象としている以上、注目領域の検出はシステムにより自動的に行われることが自然である。その場合、注目領域を100%の精度で検出することは困難であり、注目領域が撮像されながら検出できない(注目画像とすることができない)画像が生じうる。そのような画像における注目領域も見逃すことなく観察しようとすれば、注目領域の見逃し可能性に基づく判定を行うことには意味があり、以下で説明するように注目画像列の設定に用いた注目領域と同等の注目領域を、構造要素の設定に用いることにも利点があると言える。
 なお、第2の削除可否判定処理は第1の削除可否判定処理と同様となるため、詳細な説明は省略し、第1の削除可否判定処理について説明する。
 図22に示したように、第1の削除可否判定部1004は、構造要素生成部1017と、変形情報取得部1009と、被覆領域算出部1010と、注目領域見逃し可能性判定部1018と、を含んでもよい。ただし、第1の削除可否判定部1004は、図22の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 構造要素生成部1017は、注目領域に基づいて、注目領域見逃し可能性判定部1018での処理に用いられる構造要素を生成する。ここでは、見逃しが好ましくない注目領域と同一形状、同一サイズの領域を設定するが、これに限定されるものではない。
 被覆領域算出部1010は、被覆領域を算出するとともに、第2の判定対象画像のうち被覆領域ではない領域を非被覆領域として設定してもよい。
 注目領域見逃し可能性判定部1018は、第1の判定対象画像を削除した場合に、第1の判定対象画像上に撮像された注目領域が、第1の基準画像では撮像されない状況となる(つまり注目領域を見逃す状況となる)可能性についての判定処理を行う。
 具体的な処理の流れを説明する。構造要素生成部1017は、注目領域に基づいて構造要素を生成しておく。ここでは、注目領域の典型的な大きさ等を考慮して、見逃すことが好ましくないサイズ、形状の領域を構造要素として設定する。例えば、注目領域が病変部であり、画像上で直径30ピクセルの円よりも大きい病変は深刻度が高く見逃すべきではない、ということがわかっているのであれば、構造要素は直径30ピクセルの円を設定することになる。
 第1の基準画像と第1の判定対象画像が選択されたら、変形情報取得部1009は、第1の基準画像と第1の判定対象画像の間の変形情報を取得する。被覆領域算出部1010は、取得された変形情報を利用して、第1の基準画像を第1の判定対象画像上へ射影し、被覆領域を求める。
 被覆領域が算出されたら、注目領域見逃し可能性判定部1018は、注目領域の見逃し可能性を判定する。具体的には、第1の判定対象画像のうち被覆領域以外の領域である非被覆領域に対して、構造要素を用いた収縮処理を行い、残留領域があるか否かの判定を行う。
 収縮処理の具体例について図23(A)~図23(E)を用いて説明する。非被覆領域は図23(A)に示したように、必ず閉じた領域となり、その境界を設定することができる。例えば、図23(A)では外側境界であるBO1と、内側境界であるBO2を設定することになる。
 この際、構造要素による収縮処理とは、当該構造要素の基準点を非被覆領域の境界上に設定した場合に、非被覆領域と構造要素の重複領域を削る処理となる。例えば、構造要素として円形状の領域を設定し、その基準点を円の中心とした場合には、非被覆領域の境界上に中心を有する円を描き、当該円と非被覆領域とが重なる部分を非被覆領域から除外する処理を行うことになる。具体的には、図23(A)に示したように、非被覆領域の外側境界BO1上の点を中心とする円を描き、非被覆領域との重複領域(ここでは、斜線で示した半円形状の領域)を除外する。
 外側境界BO1は離散的に処理されることを考えれば複数の点から構成されていることになるため、当該複数の点の各点について上述した処理を行えばよい。一例としては、図23(A)に示したように境界上の一点を起点として、所与の方向において順次境界BO1上の点を中心とする円を描き、非被覆領域との重複領域を非被覆領域から除外していけばよい。
 非被覆領域の境界の一部が判定対象画像の境界と一致する場合等では、非被覆領域の境界は1つの場合も考えられ、その際には当該1つの境界について上述の処理を行えばよい。また、図23(A)に示したように、非被覆領域の境界としてBO1とBO2の2つが考えられる場合には、それぞれについて上述の処理を行う。具体的には、図23(B)に示したように、内側境界BO2についても、BO2上に中心を有する円を描き、非被覆領域との重複領域を除外する処理を行い、この処理をBO2を構成する各点について繰り返せばよい。
 このような収縮処理を行うことで、非被覆領域の面積は小さくなる。例えば、図23(A)の非被覆領域の左部に着目した場合、図23(A)で示したBO1での収縮処理、及び図23(B)で示したBO2での収縮処理により、非被覆領域は完全に削除され、残留する領域は存在しない。一方、非被覆領域の右下部分に着目した場合、図23(C)に示したように、BO1での収縮処理でもBO2での収縮処理でも除外対象とならずに残存する残留領域REが生じる。よって、ここでの非被覆領域全体に対して構造要素による収縮処理を行った結果は、図23(D)のようになり、残留領域REが生じることになる。
 ここで、半径rの円を構造要素とした場合の収縮処理の持つ意味について考える。閉じた領域である非被覆領域は、境界(BO1とBO2のように異なる境界であってもよいし、1つの境界であってもよい)の内側にある領域と考えることができる。この境界について上述の収縮処理を行うことで、非被覆領域に含まれる点のうち、上記境界上の点から距離r以内にある点は削除の対象となる。つまり、削除対象とならなかった残留領域に含まれる点を考えた場合、当該点からは境界上の任意の点までの距離がrより大きくなるということである。よって、残留領域上の任意の点を中心とする半径rの円を描いた場合に、当該円の円周はどの境界とも交差することがない。これは言い換えれば、半径R(=r)の円で表される注目領域が、残留領域中の点をその中心とすることで、非被覆領域の中に完全に収まってしまうという状況を表す。なお、構造要素として円以外の形状(四角形等)を用いた場合であっても、基本的な考え方は同一である。
 つまり、残留領域が存在する場合とは、図23(E)の右下に示したように、構造要素に対応する領域が非被覆領域に含まれる場合となり、そのような位置に病変部等の注目領域があった場合には、第1の判定対象画像を削除してしまうと、第1の基準画像を残したとしても注目領域を観察できない可能性が生じてしまう。逆に、残留領域が存在しない場合とは、図23(E)の左上に示したように、注目領域の少なくとも一部は被覆領域に含まれることになり、第1の判定対象画像を削除したとしても、注目領域の少なくとも一部は第1の基準画像に残すことができる。以上のことより、注目領域見逃し可能性判定部1018では、非被覆領域に対して構造要素による収縮処理を行い、残留領域が存在するか否かに基づいて、第1の判定対象画像の削除可否判定を行う。
 7.2 削除可否判定の変形例
 上述したように、第1,第2の削除可否判定処理としては、被覆率を用いたものや構造要素を用いたものが考えられる。ただし、第1,第2の削除可否判定処理はそれらを単体で用いる処理に限定されず、複数を組み合わせてもよい。
 例えば、第1の削除可否判定処理として、被覆率を用いた処理と構造要素を用いた処理の両方を行い、第2の削除可否判定処理としても、被覆率を用いた処理と構造要素を用いた処理の両方を行ってもよい。この場合、観察できなくなる領域の発生を抑止し、且つ注目領域の見落とし可能性を抑止することで要約画像列の有用性を高めるという観点から考えれば、被覆率に基づく判定で削除可能とされ、且つ構造要素に基づく判定で削除可能とされた場合に削除可能として、それ以外の場合には削除不可とすればよい。なお、第1の削除可否判定処理での被覆率との比較処理に用いる閾値と、第2の削除可否判定処理での被覆率との比較処理に用いる閾値とは同一のものであってもよいし、異なるものであってもよい。同様に、第1の削除可否判定処理で用いる構造要素(狭義にはそのサイズ)と、第2の削除可否判定処理で用いる構造要素(狭義にはそのサイズ)は同一のものであってもよいし、異なるものであってもよい。
 また、第1の削除可否判定処理と第2の削除可否判定処理は同一の処理であるものに限定されない。例えば、第1の削除可否判定処理は被覆率に基づく処理であり、第2の削除可否判定処理は被覆率に基づく処理と構造要素に基づく処理の両方の処理であってもよい。このようにすれば、複数の観点(上述の例では被覆率と構造要素)を用いた処理が第1,第2の削除可否判定処理の少なくとも一方で行われるため、単一観点の処理に比べて判定精度の向上が期待でき、且つ所与の観点(上述の例では構造要素)での処理は第1,第2の削除可否判定処理の一方では省略できるため、第1,第2の削除可否判定処理の両方において全ての観点を用いて処理を行う場合に比べて、処理負荷を軽減することが可能になる。
 ただし2つの観点を用いるのであれば、第1,第2の削除可否判定処理の少なくとも一方の処理では、両方の観点での処理が用いられることが望ましい。例えば、第1の削除可否判定処理では被覆率を用い、第2の削除可否判定処理では構造要素を用いる、といったことは避けるとよい。なぜなら、処理対象となる画像によっては被覆率単体、或いは構造要素単体での処理では十分な精度が出せない可能性があるからである。被覆率と構造要素の両方を用いることで判定精度が向上するというのは、ある基準画像と判定対象画像の組み合わせにおいて両方の処理を行うからこそ実現されるものである。しかし、第1の削除可否判定処理での第1の基準画像と第1の判定対象画像の組み合わせと、第2の削除可否判定処理での第2の基準画像と第2の判定対象画像の組み合わせとは、上述の選択手法に従えば重複することはない。つまり第1の削除可否判定処理では被覆率を用い、第2の削除可否判定処理では構造要素を用いるような例では、画像要約処理全体としてみれば、被覆率と構造要素の両方を用いて処理しているとはいえ、それぞれは別個独立に用いられているに過ぎず、判定精度の向上効果が十分でない可能性がある。それにもかかわらず、処理部100が複数の異なる削除可否判定処理を実行できなくてはならないため、システム構成として効率的ではない。
 なお、被覆率とも構造要素とも異なる観点を導入して、3つ以上の観点による削除可否判定処理を行ってもよい。その場合、第1の削除可否判定処理と第2の削除可否判定処理の少なくとも一方の処理では、全ての観点を用いた処理を行うことが望ましい。
 以上の本実施形態では、処理部100は、第1の削除可否判定処理として、第1の被覆率判定処理を行う場合には、第2の削除可否判定処理として、第2の被覆率判定処理を行ってもよい。また、処理部100は、第1の削除可否判定処理として、第1の構造要素判定処理を行う場合には、第2の削除可否判定処理として、第2の構造要素判定処理を行ってもよい。
 これにより、第1,第2の削除可否判定処理として、被覆率に基づいた判定処理を行うことが可能になる。同様に、第1,第2の削除可否判定処理として、構造要素に基づいた判定処理を行うことが可能になる。この場合、第1,第2の削除可否判定処理は単一の観点による処理で実現できるため、被覆率と構造要素の両方を併用する場合に比べて、処理負荷を軽くすることができる。
 また、処理部100は、第1の被覆率判定処理及び第1の構造要素判定処理の両方の処理を、第1の削除可否判定処理として行ってもよい。また、処理部100は、第2の被覆率判定処理及び第2の構造要素判定処理の両方の処理を、第2の削除可否判定処理として行ってもよい。
 これにより、第1の削除可否判定処理と第2の削除可否判定処理の少なくとも一方は、被覆率判定処理と構造要素判定処理の両方の処理が行われることになり、第1,第2の削除可否判定処理がともに被覆率判定処理だけの場合、或いは第1,第2の削除可否判定処理がともに構造要素判定処理だけの場合に比べて、判定精度を向上させることが可能になる。なお、当然第1の削除可否判定処理と第2の削除可否判定処理の両方で、被覆率判定処理と構造要素判定処理の両方の処理が行われてもよい。ただし、第1,第2の削除可否判定処理のどちらか一方の処理を簡略化する(例えば構造要素判定処理を省略する)ことで、処理負荷を軽くすることができる。
 また、第1の被覆率判定処理は、第1の基準画像による第1の判定対象画像の被覆率を表す値と、第1の被覆率閾値との比較結果に基づく判定処理であってもよい。第1の構造要素判定処理は、第1のサイズの要素を構造要素として設定し、設定した構造要素による収縮処理、又は第1の基準画像により第1の判定対象画像が覆われない領域に、設定した構造要素が含まれるか否かを判定する処理であってもよい。
 同様に、第2の被覆率判定処理は、第2の基準画像による第2の判定対象画像の被覆率を表す値と、第2の被覆率閾値との比較結果に基づく判定処理であってもよい。第2の構造要素判定処理は、第2のサイズの要素を構造要素として設定し、設定した構造要素による収縮処理、又は第2の基準画像により第2の判定対象画像が覆われない領域に、設定した構造要素が含まれるか否かを判定する処理であってもよい。
 これにより、被覆率に基づく判定処理として、求めた被覆率と閾値との比較処理を行うことが可能になる。図2のように被覆率を求めれば、判定処理自体は閾値との比較を行えばよいため処理が容易である。また、構造要素に基づく判定処理として、図23(A)~図23(E)に示したような構造要素を用いた収縮処理を行うことが可能になる。ただし、構造要素による収縮処理の対象は非被覆領域に限定されるものではない。
 例えば、図24(A)に示したように、判定対象画像を対象として構造要素による収縮処理を行ってもよい。この場合、収縮処理により削られる領域内に注目領域が完全に収まってしまわないように設定する(典型的には構造要素として注目領域の2倍のサイズの要素を設定する)ことで、図24(B)に示したように、残存領域は基準画像により被覆されることが求められる要被覆領域となる。つまりこの場合、要被覆領域全体が基準画像により被覆されているか否かにより削除可否判定を行えばよく、具体的には図25(A)、図25(B)に示したように、基準画像及び要被覆領域の一方を変形情報により変形し、変形後の領域を用いた包含判定を行えばよい。要被覆領域が基準画像に包含される場合には、判定対象画像は削除可能となり、包含されない部分があれば判定対象画像は削除不可となる。
 また、構造要素を用いた削除可否判定処理は収縮処理を用いるものに限定されず、非被覆領域に構造要素が含まれるか否かを判定する処理であればよい。例えば、図26(A)や図26(B)に示したように、被覆領域の境界上の点(p1~p6等)から判定対象画像の境界までの距離(k1~k6等)、或いは判定対象画像の境界上の点から被覆領域の境界までの距離に基づいて、非被覆領域の最大径に相当する値を求め、求めた値と構造要素(この場合注目領域と同等のサイズ)の最小径との比較処理を行うような、簡易的な手法であってもよい。
 また、処理部100は、第2の被覆率閾値として、第1の被覆率閾値とは異なる値を設定してもよい。また、処理部100は、第2のサイズとして、第1のサイズとは異なるサイズを設定してもよい。
 これにより、第1の削除可否判定処理と第2の削除可否判定処理で、同一観点の処理を行う場合であっても、それぞれで判定の基準値を変更することが可能になり、柔軟な2段階判定処理が実現できる。
 8.第7の実施形態
 第5の実施形態では、第2の削除可否判定処理における第2の基準画像と第2の判定対象画像の選択手法として、図19(A)~図19(D)の手法を説明した。しかし、第2の基準画像と第2の判定対象画像の選択手法は図19(A)~図19(D)の手法に限定されるものではない。本実施形態では、第2の基準画像として2枚の画像(前方基準画像と後方基準画像)を設定し、その間の画像を第2の判定対象画像とする手法について説明する。
 基準画像が2枚あるが、この際の被覆領域は図2に示したように、前方基準画像を前方基準画像と第2の判定対象画像との間の変形情報に基づいて変形して求めた領域と、後方基準画像を後方基準画像と第2の判定対象画像との間の変形情報に基づいて変形して求めた領域との和集合となる領域を被覆領域とすればよい。なぜなら、前方基準画像と後方基準画像の少なくとも一方によりカバーされていれば、第2の判定対象画像は削除しても問題ないためである。なお、被覆領域算出後の処理は、被覆率を用いる手法でも構造要素を用いる手法でも上述したものと同様である。
 前方基準画像と後方基準画像により間の画像が全て削除可能と判定された場合とは、前方基準画像と後方基準画像を要約画像列に残せば、その間の画像を全て削除してもよいということである。しかし、画像要約処理後の画像枚数の削減効果を高めるのであれば、間の画像を全て削除可能という条件を満たしつつ、前方基準画像と後方基準画像をできるだけ離れた位置に設定することが望ましい。よってここでは、前方基準画像は固定して、後方基準画像の位置を変化させつつ、最適な位置を探索することになる。具体的には、図3(A)、図3(B)に示した手法を用いる。
 以下、文章を簡略化するために、第qの画像を後方基準画像として選択して削除可否判定を行った結果、前方基準画像と後方基準画像の間の画像が全て削除可能と判定された状況を「第qの画像がOKである」と表記し、前方基準画像と後方基準画像の間の少なくとも1枚の画像が削除不可である状況を「第qの画像がNGである」と表記する。
 ここでは、部分画像列として第1~第Nの画像が入力され、第1の画像を前方基準画像、第qの画像を後方基準画像として選択して、最適な後方基準画像の位置を探索する場合に、第2~第q-1の画像を順次第2の判定対象画像として選択し、第qの画像がOKかNGかを判定する。第qの画像がOKである場合には、前方基準画像と後方基準画像の間隔をもっと広げてもよい可能性があるということであるから、新たな後方基準画像を第q+1の画像及びその後方の画像から選択する。一方、第qの画像がNGである場合には、前方基準画像と後方基準画像の間を広げすぎたということであるから、基本的には第qの画像よりも前方の画像を新たな後方基準画像として選択することで前方の画像について判定を行うことになる。
 つまり、本実施形態では終了条件を満たすまでは、OKの場合は後方に、NGの場合は前方に後方基準画像を更新することで、前方基準画像の次の要約画像を探索することになる。新たな後方基準画像の位置を適切に更新することで、次の要約画像の発見までに後方基準画像として選択される画像の枚数を減らすことができ、計算量の削減効果も期待できる。以下、本実施形態の手法を詳細に説明する。
 本実施形態では、図27に示したように第2の基準画像選択部1006は、前方基準画像選択部1019と、後方基準画像選択部1020を含む。前方基準画像選択部1019は前方基準画像を選択し、後方基準画像選択部1020は後方基準画像を選択する。
 ここでは上述したように部分画像列の先頭の画像(第1の画像)を前方基準画像として選択する。なお、部分画像列が第1の削除可否判定処理により取得された部分画像列である場合(最初の前方基準画像選択処理が行われる場合)には、先頭以外の画像を前方基準画像として選択してもよいが、以下では断りがない限り、前方基準画像は先頭の画像であるものとして説明する。
 その後、後方基準画像を選択する。ここでは、後方基準画像の選択対象となる画像に対応する後方基準画像選択区間(実際には前方基準画像の次の要約画像を探索する範囲に相当)を設定する。第iの画像~第jの画像に対応する半開区間[i,j)を後方基準画像選択区間とし、iを前方基準画像の次の画像に対応させ(狭義にはi=2)、j=N+2とする。なお、j=N+2としたのは、後方基準画像として仮想的な第N+1の画像を設定してもよいためである。後方基準画像が第N+1の画像である場合とは、前方基準画像だけでその後方の画像全てをカバーでき、後方基準画像が不要であるか否かを判定する場合に相当する。
 そして、設定された後方基準画像選択区間から後方基準画像を選択する。ここでは効率的に処理を行うために、後方基準画像を所与の条件に基づいて決定する。まず、前方基準画像設定後、初めて後方基準画像が選択される場合には、後方基準画像として第i+1の画像(狭義には第3の画像)を選択する。
 ここまでの処理を図示したものが図28(A)である。ここではN=12の画像列を考えており、前方基準画像が1番目の画像、後方基準画像選択区間が2番目の画像~14番目の画像(i=2,j=14)、後方基準画像が3番目の画像となっている。
 後方基準画像が選択された後の、第2の判定対象画像選択処理、被覆率算出処理、削除可否判定処理、及びこれらの処理の繰り返しについては詳細な説明は省略する。図28(A)の場合、第2の判定対象画像としては2番目の画像を選択するだけでよい。
 所与の画像(最初は第3の画像)を後方基準画像として選択した場合に、その画像がOKであれば、後方基準画像の位置を前方基準画像からさらに離してもよいということであるから、新たな後方基準画像として、現在のものよりも後方の画像を選択する。
 一例としては、現在の後方基準画像が前方基準画像から数えてa番目の画像である場合に、前方基準画像から数えて2×a番目の画像を新たな後方基準画像としてもよい。具体的には図28(B)に示したように、3番目の画像(前方基準画像から数えて2番目)が後方基準画像として選択された場合に、当該3番目の画像がOKであれば、次の後方基準画像は5番目(前方基準画像から数えて4番目)の画像を選択することになる。
 ところで、q番目の画像がOKならば、q-1番目以前の画像は要約画像列に残される要約画像として選択する必要はない。よって、後方基準画像として現在位置(q番目)よりも前方の画像を選択するメリットはないため、後方基準画像選択区間を更新するとよい。具体的には、選択区間の始点iをi=qとすればよい。この変形例では、後方基準画像は後方基準画像選択区間から選択されることとしているため、こうすることで現在位置よりも前方の画像を選択することがなくなる。例えば、図28(B)に示したように、3番目の画像がOKである場合、2番目の画像は要約画像とはならないため、選択区間から外してよく、選択区間の始点を3番目の画像に更新する。
 同様に、5番目の画像がOKならば(この場合、2~4番目の画像が第2の判定対象画像として選択され第2の削除可否判定処理が行われる)、図28(C)に示したように9番目の画像を新たな後方基準画像として選択するとともに、後方基準画像選択区間の始点を5番目の画像に更新する。
 しかし、図28(C)において仮に9番目の画像がOKである場合を考えればわかるように、q番目の画像を後方基準画像として、当該第qの画像がOKの場合に、qの値が大きくなると新たな後方基準画像が極端に後方になってしまう可能性がある。例えば、N+1番目よりも後方の画像が候補になってしまい後方基準画像が選択不可となったり、そうでなくても更新前後の後方基準画像の間隔が広くなりすぎて、次の要約画像の探索が非効率的になったりする。
 そこで、新たな後方基準画像として現在位置よりも後方の画像を選択する場合に、他の手法を併用してもよい。一例としては新たな後方基準画像を、(q+j)/2の値に基づいて決定する。例えば9番目の画像がOKの場合、後方基準画像選択区間の始点が9番目の画像に更新されるため、[9,14)の半開区間となる。つまり、その中央付近の画像を新たな後方基準画像とすることで、探索範囲の中央を処理対象とすることになる。探索範囲の中央について判定を行うことで探索範囲を半減させていく手法は、広く知られている二分探索に他ならず、二分探索が計算量の面で利点があることもまた広く知られている。本実施形態の後方基準画像選択区間とは、所与の画像がOKであればそれより前方の画像は全てOKと考えてよく、所与の画像がNGであればその後方の画像は全てNGと考えてよいという性質のものであり、二分探索の手法を適用可能である。つまり、更新前の後方基準画像と、後方基準画像選択区間の終点との中間付近から、新たな後方基準画像を選択することで、効率的な処理が期待できる。
 ここでは、前方基準画像起点の距離を2倍にしていく手法と、二分探索に対応する手法を併用するものとする。例えば、第qの画像が更新前の後方基準画像である場合に、次の後方基準画像として下式(1)を満たす第kの画像とすればよい。ここでmin(a,b)はaとbのうち小さい方を表すものである。
Figure JPOXMLDOC01-appb-M000001
 一方、上述したように第qの画像がNGの場合には、OKの場合とは逆に現在位置よりも前方から新たな後方基準画像を選択することになる。どの程度前方の画像を選択するかは種々の手法により決定可能であるが、例えばここでも二分探索に対応した手法を用いてもよい。この場合、後方基準画像選択区間の始点が第iの画像であるため、新たな後方基準画像は、(i+q)/2の値に基づいて決定される。また、第qの画像がNGである以上、第qの画像及びその後方の画像は要約画像として選択されることはない。よって後方基準画像選択区間の終点を更新してよく、j=qとすればよい。9番目の画像がNGである場合の例を図28(D)に示す。新たな後方基準画像として7番目の画像が選択されるとともに、後方基準画像選択区間の終点jがj=9に更新される。
 なお、後方基準画像選択区間が半開区間であるとしたのは、ここでの説明の便宜のためである。つまり、第qの画像がOKの場合は、当該第qの画像は要約画像として選択される可能性を残しているため、後方基準画像選択区間の始点iをi=qとした場合に、iは後方基準画像選択区間に含まれているとよい。一方、第qの画像がNGの場合は、当該第qの画像は要約画像として選択されないため、後方基準画像選択区間の終点jをj=qとした場合に、jは後方基準画像選択区間に含めないほうがよい。以上のことから、後方基準画像選択区間を[i,j)としたにすぎず、符号や式の表記次第では開区間や閉区間により後方基準画像選択区間を表すことに何も問題はない。
 以上の処理により、後方基準画像選択区間(狭義には次の要約画像の探索範囲)を狭めていく。次の要約画像とは、第kの画像がOKであり且つ第k+1の画像がNGである場合の第kの画像であるから、OKの画像とNGの画像が隣り合っている箇所が見つかったら処理を終了することになる。上述の例では、終了の直前では二分探索的に処理を行っていくことが想定され、例えば図28(E)のようになる。第iの画像はOKであり、その2つ隣の第jの画像はNGであり、その間の第qの画像が後方基準画像となっている。この場合、第qの画像がOKであれば図28(F)、NGであれば図28(G)のようになり、どちらにせよ後方基準画像選択区間の始点と終点が隣り合い、且つ始点に対応する画像がOK、終点に対応する画像がNGとなる。よって、次の要約画像として始点に対応する画像を選択すればよいため、部分画像列に対する探索処理は終了する。
 次の要約画像が見つかったのであれば、当該画像及びそれ以降の画像からなる画像列を新たな部分画像列として設定すればよい。新たな部分画像列が設定されたら、それ以降の処理については同様であるため詳細な説明は省略する。
 図29に本実施形態の画像要約処理を説明するフローチャートを示す。S801~S805については、図18のS701~S705と同様であるため詳細な説明は省略する。部分画像列の設定後、処理対象である部分画像列の先頭の画像を前方基準画像として選択し(S806)、後方基準画像選択区間を設定する(S807)。S806の直後に行われるS807の処理としては、例えば上述したようにi=2,j=N+2を満たす[i,j)の半開区間を設定すればよい。また、後述するようにS810やS811の後にS807の処理が行われる場合には、すでに設定されている後方基準画像選択区間の更新処理となる。
 S807で後方基準画像選択区間の設定(或いは更新)処理が行われたら、その始点と終点が隣り合うか(j=i+1を満たすか)の判定を行う(S808)。S808でYesの場合には、図28(F)に示したように第iの画像が、第1の画像(前方基準画像)の次の要約画像であるとわかった状況であるから、S805に戻り第iの画像及びそれ以降の画像を部分画像列に設定する。
 S808でNoの場合には、まだ次の要約画像が見つかっていない状況であるから、S807で設定した後方基準画像選択区間から後方基準画像を選択する(S809)。S806による前方基準画像設定後、初めてS809の処理が行われる場合には、例えば第i+1の画像(前方基準画像の2つ後方の画像)を選択すればよい。それ以外の場合には、直前の後方基準画像の位置に応じて、新たな後方基準画像を選択する処理を行うことになる。
 S809で後方基準画像を選択したら、第2の判定対象画像を選択する(S810)。S809での後方基準画像選択後、初めてS810の処理が行われる場合には、前方基準画像と後方基準画像の間の画像のうち先頭の画像(図28(A)等では2番目の画像)を選択する。第2の判定対象画像選択後の第2の削除可否判定処理(例えば、被覆領域算出処理、被覆率算出処理、閾値判定処理等)については図18のS708と同様である。S811で削除可能と判定された場合には、S809に戻り第2の判定対象画像を1つ後方の画像に更新し、同様の処理を行う。S810,S811の処理を繰り返すことで、前方基準画像と後方基準画像の間の画像が全て削除可能であるか、或いは少なくとも1つが削除不可であるかの判定が実行される。全て削除可能の場合にはS810の判定で、第2の判定対象画像=後方基準画像となり、S807に戻る。また、少なくとも1枚の画像が削除不可である場合にはS811の判定で削除不可となりS807に戻る。なお、図29では不図示であるが、S810からS807に戻ったのか、或いはS811からS807に戻ったのかという情報を保持しておき、それに応じて次のS807等での処理を変更する必要がある。
 S810からS807に戻った場合には、全ての画像が削除可能な状況であるため、後方基準画像選択区間の始点を更新する処理を行い、その結果S807では1つ前の後方基準画像よりも後方の画像が新たな後方基準画像として選択される。一方、S811からS807に戻った場合には、少なくとも1枚の画像が削除不可である状況であるため、後方基準画像選択区間の終点を更新する処理を行い、その結果S807では1つ前の後方基準画像よりも前方の画像が新たな後方基準画像として選択される。
 以上の本実施形態では、第1~第N(Nは2以上の整数)の画像が部分画像列として設定された場合に、処理部100は、第p(pは1≦p≦Nを満たす整数)の画像である前方基準画像と、第q(qはp+2以上の整数)の画像である後方基準画像を、第2の基準画像として選択する。それとともに、第r(rはp+1≦r≦q-1を満たす整数)の画像を第2の判定対象画像として選択する。そして、前方基準画像と第2の判定対象画像の間の変形を表す前方変形情報、及び後方基準画像と第2の判定対象画像の間の変形を表す後方変形情報を、第2の変形情報として求め、求めた前方変形情報及び後方変形情報に基づいて、第2の判定対象画像の削除可否の判定を行う。
 これにより、第2の削除可否判定処理において、基準画像を前方と後方に2枚設定することが可能になる。上述したように、残す画像により削除される画像がカバーされる(被覆率であれば面積等の割合が高いこと、構造要素であれば注目領域の少なくとも一部が撮像されることを表す)ことを保証する、ということが本実施形態での変形情報を用いた処理の基本である。よって、残す画像が複数有るのであれば、そのうちの1枚ではカバーしきれない画像であっても、複数の残す画像を組み合わせることでカバーできるのであれば、削除しても問題はない。よってここでは、基準画像を2枚用いることで、判定対象画像が削除可能と判定される可能性を上げて、画像要約処理による画像枚数の削減効果を向上させるものとする。
 また、処理部100は、第p+2~第Nの画像に対応する始点及び終点が設定された後方基準画像選択区間から後方基準画像を選択して、前方基準画像及び後方基準画像に基づいて2の判定対象画像の削除可否の判定を行ってもよい。そして、第p+1~第q-1の画像が削除可能と判定された場合には、後方基準画像選択区間に含まれる第x(xはx>qを満たす整数)の画像を新たな後方基準画像として選択するとともに、後方基準画像選択区間の始点を第qの画像に更新する。
 ここで、後方基準画像選択区間は、後方基準画像の候補となる画像という性質を鑑みれば、第p+2~第Nの画像を含むことになる。ただし、後方基準画像として第N+1の画像のように仮想的な画像を選択してもよいため、後方基準画像選択区間の終点がNより大きくなってもよい。また、後方基準画像選択区間には次の要約画像(前方基準画像は要約画像として確定しており、その次の要約画像という意味)の探索範囲という側面もあるため、後方基準画像として選択されない画像であっても、要約画像として選択されうる画像は当該選択区間に含まれるものとしてもよい。その場合後方基準画像選択区間の始点として前方基準画像の1つ後方の画像(第p+1の画像)を設定してもよいことになる。
 これにより、後方基準画像を更新する際に、新たな後方基準画像の位置を柔軟に決定することが可能になる。後方基準画像を1つずつ後方に更新していくように、探索範囲を先頭から1つずつチェックして、探索範囲を減らしていく手法を用いてもよい。或いは、隣り合わない画像も新たな後方基準画像として選択可能にすることで、一単位の判定(第qの画像がOKかNGかという判定)により探索範囲を大きく減らすようにしてもよい。どのような更新手法が効果的であるかは、処理対象である部分画像列の性質等にもよる。例えば、正解位置がある程度予測可能な状況では、予測位置近辺を重点的に探索すべきであるため、後方基準画像を1つずつ移動させる手法を用いればよいし、正解位置が予測できない場合等では、計算量の期待値削減等を考慮して、上述した二分探索等を用いればよい。
 また、処理部100は、第p+1~第q-1の画像のうち少なくとも1つが削除不可と判定された場合には、後方基準画像選択区間に含まれる第y(yはy<qを満たす整数)の画像を新たな後方基準画像として選択してもよい。それとともに、後方基準画像選択区間の終点を第qの画像に更新する。
 これにより、後方基準画像を更新する際に、現在の後方基準画像よりも前方の画像を、新たな後方基準画像として選択することが可能になる。上述したように、後方への探索が隣り合う画像を選択するものに限定されない以上、現在の後方基準画像よりも前方に未探索範囲が残っていることがありえ、削除可否の判定結果によっては当該未探索範囲に正解があるということが考えられる。その場合には、前方への探索を行うことで適切な処理を行うことが可能になる。また、後方への探索と同様に、新たな後方基準画像の選択は隣り合う画像に限定されない。
 また、処理部100は、第j(jは整数)の画像が後方基準画像選択区間の終点に対応する場合に、(q+j)/2の値に基づいてxの値を設定してもよい。或いは、第i(iは整数)の画像が後方基準画像選択区間の始点に対応する場合に、(i+q)/2の値に基づいてyの値を設定してもよい。
 これにより、新たな後方基準画像を選択するに当たって、二分探索の手法を用いることが可能になる。後方への探索の場合には、現在の後方基準画像と終点との中間となる画像を選択し、前方への探索の場合には、現在の後方基準画像と始点との中間となる画像を選択することになる。よって、探索範囲(後方基準画像選択区間の長さに相当)を半減させていくことが可能になり、後方基準画像としてlogN枚の画像を選択すれば、全探索範囲の探索が終了することが期待される。よって、計算量のオーダーはN×logNに抑えることができ、Nが非常に大きい場合には、後方基準画像を前方から1つずつ後ろに移動させていく手法(計算量のオーダーはN)に比べて計算量の削減効果が大きい。なお、(q+j)/2及び(i+q)/2は整数になるとは限らないため、それぞれの値に対応する画像が存在しない場合もある。その際には、例えば(q+j)/2を超えない最大の整数、或いはそれより1大きい整数等を考えればよい。
 また、処理部100は、後方基準画像選択区間の始点又は終点を更新した結果、始点と終点が隣り合う場合に、前方基準画像として選択された複数の画像の1つを、要約画像列に含める処理を行ってもよい。それとともに、始点に対応する複数の画像の1つ、及び始点に対応する複数の画像の1つよりも部分画像列において後方の画像を新たな部分画像列として設定し、設定された新たな部分画像列に対して、上記pの値を1に設定して再度処理を行ってもよい。
 ここで、始点と終点が隣り合うとは、始点に対応する画像と終点に対応する画像が、部分画像列において隣り合うことを表す。部分画像列としてN枚の画像が与えられた場合には、部分画像列は時系列的に或いは空間的に連続する画像の集合であることが想定されているため、その連続性から画像列の前方、後方を定義することができる。例えば時系列的に早い時刻に取得された画像は、それより遅い時刻に取得された画像よりも前方の画像となる。具体的には、部分画像列の各画像を第1~第Nの画像として表し、振られた数値が小さい画像ほど前方にあるものとする。よって、画像列中の第iの画像と第j(>i)の画像が隣り合うとは、j=i+1を満たす状況を指す。
 これにより、部分画像列に対する処理の終了条件として、後方基準画像選択区間の始点、終点に基づく条件を設定することが可能になる。このような終了条件を設定することで、後方基準画像として選択された場合にOKと判定される画像群のうち、前方基準画像から最も離れていると予想される画像を、新たな部分画像列の先頭画像(次の要約画像に相当)として選択することができる。なぜなら、図28(F)等に示したように、この終了条件とはOKの画像とNGの画像が隣り合う位置を探索することに等しいためである。そのため、最終的に出力される要約画像列に含まれる要約画像の枚数を少なくすることができ、ユーザの負担軽減等が可能になる。
 以上、本発明を適用した7つの実施の形態1~7およびその変形例について説明したが、本発明は、各実施の形態1~7やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1~7や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1~7や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
 BO1 外側境界、BO2 内側境界、RE 残留領域、
10 画像入力装置、20 画像データベース、30 画像列取得部、
40 出力部、50 記憶部、100 第1の画像要約処理部、
110 類似度算出部、120 要約処理部、
130 第1の要約画像列生成部、200 第2の画像要約処理部、
210 認識処理部、220 要約処理部、230 第2の要約画像列生成部、
300 統合処理部、1001 注目画像列設定部、
1002 第1の基準画像選択部、1003 第1の判定対象画像選択部、
1004 第1の削除可否判定部、1005 部分画像列設定部、
1006 第2の基準画像選択部、1007 第2の判定対象画像選択部、
1008 第2の削除可否判定部、1009、1013 変形情報取得部、
1010、1014 被覆領域算出部、1011、1015 被覆率算出部、
1012、1016 閾値判定部、1017 構造要素生成部、
1018 注目領域見逃し可能性判定部、1019 前方基準画像選択部、
1020 後方基準画像選択部

Claims (38)

  1.  複数の画像間の類似度に基づく第1の画像要約処理により、第1の要約画像列を取得する第1の画像要約処理部と、
     前記複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づく第2の画像要約処理により、第2の要約画像列を取得する第2の画像要約処理部と、
     前記第1の要約画像列と前記第2の要約画像列の統合処理、又は前記第1の画像要約処理と前記第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理部と、
     を含むことを特徴とする画像処理装置。
  2.  請求項1において、
     前記第1の画像要約処理部は、
     前記複数の画像から基準画像及び判定対象画像を選択し、前記基準画像と前記判定対象画像の間の変形情報に基づいて、前記基準画像による前記判定対象画像の被覆率を前記類似度として算出し、前記被覆率に基づいて前記判定対象画像の削除可否の判定を行う処理を、前記第1の画像要約処理として行うことを特徴とする画像処理装置。
  3.  請求項2において、
     第1~第N(Nは2以上の整数)の画像が入力画像列として入力された場合に、
     前記第1の画像要約処理部は、
     第p(pは1≦p≦Nを満たす整数)の画像を第1の基準画像として選択し、第q(qはp+2以上の整数)の画像を第2の基準画像として選択するとともに、第r(rはp+1≦r≦q-1を満たす整数)の画像を前記判定対象画像として選択し、
     前記第1の基準画像と前記判定対象画像の間の前記変形情報、及び前記第2の基準画像と前記判定対象画像の間の前記変形情報に基づいて前記被覆率を算出して、前記被覆率に基づいて前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  4.  請求項3において、
     前記第1の画像要約処理部は、
     第p+1~第q-1の画像が削除可能と判定された場合には、前記第2の基準画像として第q+1の画像を選択することを特徴とする画像処理装置。
  5.  請求項4において、
     前記第1の画像要約処理部は、
     前記第p+1~第q-1の画像のうち少なくとも1つが削除不可と判定された場合には、前記第1の基準画像として選択された前記画像を、前記第1の要約画像列に含める処理を行うとともに、前記第q-1の画像を新たな前記第1の基準画像として選択して再度処理を行うことを特徴とする画像処理装置。
  6.  請求項2乃至5のいずれかにおいて、
     前記第1の画像要約処理部は、
     前記基準画像と前記判定対象画像の間の前記変形情報に基づいて、前記基準画像により前記判定対象画像が覆われる領域である被覆領域を求め、前記被覆率として、前記判定対象画像に占める前記被覆領域の割合を算出することを特徴とする画像処理装置。
  7.  請求項1乃至6のいずれかにおいて、
     前記第2の画像要約処理部は、
     前記認識処理に基づいて、前記複数の画像のうち同一の前記対象物体を含む連続する画像、又は前記複数の画像のうち同一の前記シーンと認識された連続する画像を、要約画像の抽出対象となる連続画像列として設定し、設定した前記連続画像列から少なくとも1枚の画像を前記要約画像として抽出する処理を、前記第2の画像要約処理として行うことを特徴とする画像処理装置。
  8.  請求項7において、
     前記第2の画像要約処理部は、
     前記対象物体の面積に基づいて、前記連続画像列から抽出する前記要約画像を選択することを特徴とする画像処理装置。
  9.  請求項1乃至8のいずれかにおいて、
     前記統合処理部は、
     前記第1の要約画像列及び前記第2の要約画像列の少なくとも一方に含まれる画像を前記出力要約画像列の要約画像として選択する処理を、前記第1の要約画像列と前記第2の要約画像列の前記統合処理として行うことを特徴とする画像処理装置。
  10.  請求項7又は8において、
     前記統合処理部は、
     前記第1の要約画像列に基づいて、前記第2の画像要約処理において設定された複数の前記連続画像列を1つの結合連続画像列に結合し、前記結合連続画像列から少なくとも1枚の画像を前記要約画像として抽出することで、前記第2の要約画像列の更新処理を行うことを特徴とする画像処理装置。
  11.  請求項10において、
     前記統合処理部は、
     前記第1の要約画像列、及び前記更新処理後の前記第2の要約画像列の少なくとも一方に含まれる画像を前記出力要約画像列の要約画像として選択する処理を、前記第1の要約画像列と前記第2の要約画像列の前記統合処理として行うことを特徴とする画像処理装置。
  12.  請求項1乃至8のいずれかにおいて、
     前記統合処理部は、
     前記第2の画像要約処理の結果に基づく前記第1の画像要約処理を、前記第1の画像要約処理部に実行させる処理を、前記第1の画像要約処理と前記第2の画像要約処理の前記統合処理として行うことを特徴とする画像処理装置。
  13.  請求項12において、
     前記第1の画像要約処理部は、
     前記統合処理に基づいて、前記複数の画像から前記第2の要約画像列に含まれる画像を基準画像として選択するとともに、前記複数の画像から判定対象画像を選択し、前記基準画像と前記判定対象画像の間の変形情報に基づいて、前記基準画像による前記判定対象画像の被覆率を前記類似度として算出し、前記被覆率に基づいて前記判定対象画像の削除可否の判定を行う処理を、前記第1の画像要約処理として行うことを特徴とする画像処理装置。
  14.  請求項12又は13において、
     前記統合処理部は、
     前記統合処理により、前記第1の画像要約処理部で生成された前記第1の要約画像列に基づいて、前記第2の要約画像列に含まれる前記画像の枚数を削減する前記第2の要約画像列の更新処理を行うことを特徴とする画像処理装置。
  15.  請求項14において、
     前記統合処理部は、
     前記更新処理後の前記第2の画像要約処理の結果に基づく前記第1の画像要約処理を、前記第1の画像要約処理部に実行させる処理を、前記第1の画像要約処理と前記第2の画像要約処理の前記統合処理として行うことを特徴とする画像処理装置。
  16.  請求項12乃至15のいずれかにおいて、
     前記統合処理部は、
     前記統合処理により、前記第1の画像要約処理部で生成された前記第1の要約画像列を前記出力要約画像列として取得することを特徴とする画像処理装置。
  17.  請求項1乃至16のいずれかにおいて、
     前記第1の画像要約処理部は、
     前記複数の画像間の前記類似度に基づいて、シーンチェンジを検出して前記第1の画像要約処理を行うことを特徴とする画像処理装置。
  18.  請求項1乃至17のいずれかにおいて、
     前記複数の画像はカプセル内視鏡画像であり、
     前記第2の画像要約処理部は、
     前記カプセル内視鏡画像に撮像される生体内の注目領域を、前記対象物体として前記認識処理を行うことを特徴とする画像処理装置。
  19.  請求項18において、
     前記第2の画像要約処理部は、
     特定の波長帯域の光の照射により取得された特殊光画像に基づいて、前記生体内の前記注目領域の前記認識処理を行うことを特徴とする画像処理装置。
  20.  複数の画像を有する画像列を取得する画像列取得部と、
     前記画像列取得部が取得した前記画像列の前記複数の画像の一部を削除する第1の削除可否判定処理及び第2の削除可否判定処理に基づいて、要約画像列を取得する画像要約処理を行う処理部と、
     を含み、
     前記処理部は、
     前記複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、
     設定した前記注目画像列から第1の基準画像を選択するとともに、前記複数の画像から第1の判定対象画像を選択し、
     前記第1の基準画像と前記第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、前記第1の判定対象画像の削除可否を判定する処理を、前記第1の削除可否判定処理として行い、
     前記処理部は、
     前記画像列から、前記第1の削除可否判定処理において削除不可と判定された前記画像が複数連続する部分画像列を設定し、
     前記処理部は、
     前記部分画像列から第2の基準画像と第2の判定対象画像を選択し、
     前記第2の基準画像と前記第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、前記第2の判定対象画像の削除可否を判定する処理を、前記第2の削除可否判定処理として行うことを特徴とする画像処理装置。
  21.  請求項20において、
     前記処理部は、
     第1の被覆率判定処理、及び第1の構造要素判定処理の少なくとも一方の処理を、前記第1の削除可否判定処理として行い、
     前記処理部は、
     第2の被覆率判定処理、及び第2の構造要素判定処理の少なくとも一方の処理を、前記第2の削除可否判定処理として行い、
     前記第1の被覆率判定処理は、
     前記第1の変形情報に基づいて、前記第1の基準画像による前記第1の判定対象画像の被覆率を求め、求めた前記被覆率に基づいて前記第1の判定対象画像の削除可否を判定する処理であり、
     前記第1の構造要素判定処理は、
     注目領域に対応する構造要素及び前記第1の変形情報を用いた処理の結果に基づいて、前記第1の判定対象画像の削除可否を判定する処理であり、
     前記第2の被覆率判定処理は、
     前記第2の変形情報に基づいて、前記第2の基準画像による前記第2の判定対象画像の前記被覆率を求め、求めた前記被覆率に基づいて前記第2の判定対象画像の削除可否を判定する処理であり、
     前記第2の構造要素判定処理は、
     前記注目領域に対応する前記構造要素及び前記第2の変形情報を用いた処理の結果に基づいて、前記第2の判定対象画像の削除可否を判定する処理であることを特徴とする画像処理装置。
  22.  請求項21において、
     前記処理部は、
     前記第1の削除可否判定処理として、前記第1の被覆率判定処理を行う場合には、
     前記第2の削除可否判定処理として、前記第2の被覆率判定処理を行い、
     前記処理部は、
     前記第1の削除可否判定処理として、前記第1の構造要素判定処理を行う場合には、
     前記第2の削除可否判定処理として、前記第2の構造要素判定処理を行うことを特徴とする画像処理装置。
  23.  請求項21において、
     前記処理部は、
     前記第1の被覆率判定処理及び前記第1の構造要素判定処理の両方の処理を、前記第1の削除可否判定処理として行うことを特徴とする画像処理装置。
  24.  請求項21又は23において、
     前記処理部は、
     前記第2の被覆率判定処理及び前記第2の構造要素判定処理の両方の処理を、前記第2の削除可否判定処理として行うことを特徴とする画像処理装置。
  25.  請求項21乃至24のいずれかにおいて、
     前記第1の被覆率判定処理は、
     前記第1の基準画像による前記第1の判定対象画像の前記被覆率を表す値と、第1の被覆率閾値との比較結果に基づく判定処理であり、
     前記第1の構造要素判定処理は、
     第1のサイズの要素を前記構造要素として設定し、設定した前記構造要素による収縮処理、又は前記第1の基準画像により前記第1の判定対象画像が覆われない領域に、設定した前記構造要素が含まれるか否かを判定する処理であり、
     前記第2の被覆率判定処理は、
     前記第2の基準画像による前記第2の判定対象画像の前記被覆率を表す値と、第2の被覆率閾値との比較結果に基づく判定処理であり、
     前記第2の構造要素判定処理は、
     第2のサイズの要素を前記構造要素として設定し、設定した前記構造要素による収縮処理、又は前記第2の基準画像により前記第2の判定対象画像が覆われない領域に、設定した前記構造要素が含まれるか否かを判定する処理であることを特徴とする画像処理装置。
  26.  請求項25において、
     前記処理部は、
     前記第2の被覆率閾値として、前記第1の被覆率閾値とは異なる値を設定することを特徴とする画像処理装置。
  27.  請求項25又は26において、
     前記処理部は、
     前記第2のサイズとして、前記第1のサイズとは異なるサイズを設定することを特徴とする画像処理装置。
  28.  請求項20乃至27のいずれかにおいて、
     第1~第N(Nは2以上の整数)の画像が前記部分画像列として設定された場合に、
     前記処理部は、
     第p(pは1≦p≦Nを満たす整数)の画像である前方基準画像と、第q(qはp+2以上の整数)の画像である後方基準画像を、前記第2の基準画像として選択するとともに、第r(rはp+1≦r≦q-1を満たす整数)の画像を前記第2の判定対象画像として選択し、
     前記前方基準画像と前記第2の判定対象画像の間の変形を表す前方変形情報、及び前記後方基準画像と前記第2の判定対象画像の間の変形を表す後方変形情報を、前記第2の変形情報として求め、
     求めた前記前方変形情報及び前記後方変形情報に基づいて、前記第2の判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  29.  請求項28において、
     前記処理部は、
     第p+2~第Nの画像に対応する始点及び終点が設定された後方基準画像選択区間から前記後方基準画像を選択して、前記前方基準画像及び前記後方基準画像に基づいて前記第2の判定対象画像の削除可否の判定を行い、
     第p+1~第q-1の画像が削除可能と判定された場合には、前記後方基準画像選択区間に含まれる第x(xはx>qを満たす整数)の画像を新たな前記後方基準画像として選択するとともに、前記後方基準画像選択区間の前記始点を前記第qの画像に更新することを特徴とする画像処理装置。
  30.  請求項29において、
     前記処理部は、
     前記第p+1~第q-1の画像のうち少なくとも1つが削除不可と判定された場合には、前記後方基準画像選択区間に含まれる第y(yはy<qを満たす整数)の画像を新たな前記後方基準画像として選択するとともに、前記後方基準画像選択区間の前記終点を前記第qの画像に更新することを特徴とする画像処理装置。
  31.  請求項29又は30において、
     前記処理部は、
     前記後方基準画像選択区間の前記始点又は前記終点を更新した結果、前記始点と前記終点が隣り合う場合に、
     前記前方基準画像として選択された前記複数の画像の1つを、前記要約画像列に含める処理を行うとともに、
     前記始点に対応する前記複数の画像の1つ、及び前記複数の画像のうち、前記始点に対応する前記複数の画像の1つよりも前記部分画像列において後方の前記画像を新たな前記部分画像列として設定し、設定された新たな前記部分画像列に対して、前記pの値を1に設定して再度処理を行うことを特徴とする画像処理装置。
  32.  請求項20乃至31のいずれかにおいて、
     前記処理部は、
     前記複数の画像から注目領域を検出する処理を行い、
     前記複数の画像のうち、前記注目領域が検出された前記画像を前記注目画像として設定することを特徴とする画像処理装置。
  33.  請求項32において、
     前記画像列取得部は、
     前記画像列として、生体内を撮像した複数の生体内画像を取得し、
     前記処理部は、
     前記複数の生体内画像から、病変領域を前記注目領域として検出する処理を行い、
     前記複数の生体内画像のうち、前記病変領域が検出された前記画像を前記注目画像として設定することを特徴とする画像処理装置。
  34.  請求項20乃至33のいずれかにおいて、
     前記処理部は、
     前記部分画像列を複数設定した場合には、複数の前記部分画像列に対して並列に前記第2の削除可否判定処理を行うことを特徴とする画像処理装置。
  35.  複数の画像間の類似度に基づく第1の画像要約処理により、第1の要約画像列を取得する第1の画像要約処理部と、
     前記複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づく第2の画像要約処理により、第2の要約画像列を取得する第2の画像要約処理部と、
     前記第1の要約画像列と前記第2の要約画像列の統合処理、又は前記第1の画像要約処理と前記第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理部として、
     コンピュータを機能させることを特徴とするプログラム。
  36.  複数の画像を有する画像列を取得する画像列取得部と、
     前記画像列取得部が取得した前記画像列の前記複数の画像の一部を削除する第1の削除可否判定処理及び第2の削除可否判定処理に基づいて、要約画像列を取得する画像要約処理を行う処理部として、
     コンピュータを機能させ、
     前記処理部は、
     前記複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、
     設定した前記注目画像列から第1の基準画像を選択するとともに、前記複数の画像から第1の判定対象画像を選択し、
     前記第1の基準画像と前記第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、前記第1の判定対象画像の削除可否を判定する処理を、前記第1の削除可否判定処理として行い、
     前記処理部は、
     前記画像列から、前記第1の削除可否判定処理において削除不可と判定された前記画像が複数連続する部分画像列を設定し、
     前記処理部は、
     前記部分画像列から第2の基準画像と第2の判定対象画像を選択し、
     前記第2の基準画像と前記第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、前記第2の判定対象画像の削除可否を判定する処理を、前記第2の削除可否判定処理として行うことを特徴とするプログラム。
  37.  複数の画像間の類似度に基づいて、第1の要約画像列を取得する第1の画像要約処理と、前記複数の画像の各画像に対する、対象物体又はシーンの認識処理に基づいて、第2の要約画像列を取得する第2の画像要約処理を行う画像処理方法であって、
     前記第1の要約画像列と前記第2の要約画像列の統合処理、又は前記第1の画像要約処理と前記第2の画像要約処理の統合処理を行って出力要約画像列を取得する統合処理を行うことを特徴とする画像処理方法。
  38.  複数の画像を有する画像列を取得し、
     前記複数の画像に含まれる1又は複数の注目画像から構成される注目画像列を設定し、
     設定した前記注目画像列から第1の基準画像を選択するとともに、前記複数の画像から第1の判定対象画像を選択し、
     前記第1の基準画像と前記第1の判定対象画像の間の変形を表す第1の変形情報に基づいて、前記第1の判定対象画像の削除可否を判定する処理を、第1の削除可否判定処理として行い、
     前記画像列から、前記第1の削除可否判定処理において削除不可と判定された前記画像が複数連続する部分画像列を設定し、
     前記部分画像列から第2の基準画像と第2の判定対象画像を選択し、
     前記第2の基準画像と前記第2の判定対象画像の間の変形を表す第2の変形情報に基づいて、前記第2の判定対象画像の削除可否を判定する処理を、第2の削除可否判定処理として行い、
     前記第1の削除可否判定処理、及び前記第2の削除可否判定処理に基づいて、前記画像列の前記複数の画像の一部を削除して要約画像列を取得する画像要約処理を行うことを特徴とする画像処理方法。
PCT/JP2013/056273 2012-03-08 2013-03-07 画像処理装置、プログラム及び画像処理方法 Ceased WO2013133370A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13758100.5A EP2823749A4 (en) 2012-03-08 2013-03-07 Image processing device, program and image processing method
CN201380012984.9A CN104203065B (zh) 2012-03-08 2013-03-07 图像处理装置和图像处理方法
US14/480,570 US9547794B2 (en) 2012-03-08 2014-09-08 Image processing device, information storage device, and image processing method
US15/331,139 US9672619B2 (en) 2012-03-08 2016-10-21 Image processing device, information storage device, and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012051559A JP5963480B2 (ja) 2012-03-08 2012-03-08 画像要約装置及びプログラム
JP2012-051559 2012-03-08
JP2012113618A JP5980567B2 (ja) 2012-05-17 2012-05-17 画像処理装置、プログラム及び画像処理装置の作動方法
JP2012-113618 2012-05-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/480,570 Continuation US9547794B2 (en) 2012-03-08 2014-09-08 Image processing device, information storage device, and image processing method

Publications (1)

Publication Number Publication Date
WO2013133370A1 true WO2013133370A1 (ja) 2013-09-12

Family

ID=49116839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/056273 Ceased WO2013133370A1 (ja) 2012-03-08 2013-03-07 画像処理装置、プログラム及び画像処理方法

Country Status (4)

Country Link
US (2) US9547794B2 (ja)
EP (1) EP2823749A4 (ja)
CN (2) CN104203065B (ja)
WO (1) WO2013133370A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050638A1 (ja) * 2012-09-27 2014-04-03 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
CN106102554A (zh) * 2014-03-14 2016-11-09 奥林巴斯株式会社 图像处理装置、图像处理方法以及图像处理程序
JPWO2016056408A1 (ja) * 2014-10-10 2017-04-27 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9652835B2 (en) 2012-09-27 2017-05-16 Olympus Corporation Image processing device, information storage device, and image processing method
JPWO2022190298A1 (ja) * 2021-03-10 2022-09-15

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133368A1 (ja) 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
EP2823749A4 (en) 2012-03-08 2016-07-20 Olympus Corp Image processing device, program and image processing method
CN104244801B (zh) * 2012-04-18 2017-05-10 奥林巴斯株式会社 图像处理装置和图像处理方法
JP2015022534A (ja) * 2013-07-19 2015-02-02 富士ゼロックス株式会社 情報処理装置及びプログラム
KR102016545B1 (ko) * 2013-10-25 2019-10-21 한화테크윈 주식회사 검색 시스템 및 그의 동작 방법
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US11120547B2 (en) * 2014-06-01 2021-09-14 CapsoVision, Inc. Reconstruction of images from an in vivo multi-camera capsule with two-stage confidence matching
KR20160049897A (ko) * 2014-10-28 2016-05-10 삼성전자주식회사 연속적인 의료 영상을 이용한 컴퓨터 보조 진단 장치 및 방법
CN105554367B (zh) * 2015-09-30 2019-01-15 宇龙计算机通信科技(深圳)有限公司 一种运动拍摄方法及移动终端
CN105868417A (zh) * 2016-05-27 2016-08-17 维沃移动通信有限公司 一种图像处理方法及移动终端
CN106775530B (zh) * 2016-12-16 2020-03-17 上海联影医疗科技有限公司 医学图像序列的显示方法和装置
CN110475503A (zh) * 2017-03-30 2019-11-19 富士胶片株式会社 医疗用图像处理装置及内窥镜系统以及医疗用图像处理装置的工作方法
CN108874269B (zh) * 2017-05-12 2020-12-29 北京臻迪科技股份有限公司 一种目标跟踪方法、装置及系统
JP7016681B2 (ja) * 2017-12-01 2022-02-07 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡システム
DE102018202514A1 (de) * 2018-02-20 2019-08-22 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur automatischen Erstellung eines Videos einer Fahrt
WO2019164278A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술영상을 이용한 수술정보 제공 방법 및 장치
US11574476B2 (en) * 2018-11-11 2023-02-07 Netspark Ltd. On-line video filtering
WO2020095294A1 (en) 2018-11-11 2020-05-14 Netspark Ltd. On-line video filtering
CN109965829B (zh) * 2019-03-06 2022-05-06 重庆金山医疗技术研究院有限公司 成像优化方法、图像处理装置、成像装置及内窥镜系统
US12167829B2 (en) 2019-12-19 2024-12-17 Ambu A/S Image capture selection
US11580692B2 (en) * 2020-02-26 2023-02-14 Apple Inc. Single-pass object scanning
US11843756B2 (en) * 2020-09-11 2023-12-12 Verily Life Sciences Llc Image signal processing to compensate for scene changes
WO2025053844A1 (en) * 2023-09-07 2025-03-13 Capsovision, Inc Method and apparatus of automatic detection and deletion of ex vivo images from capsule endoscope

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2009005020A (ja) * 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010158308A (ja) * 2009-01-06 2010-07-22 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011200283A (ja) * 2010-03-24 2011-10-13 Olympus Corp 制御装置、内視鏡システム、プログラム及び制御方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
US7120873B2 (en) * 2002-01-28 2006-10-10 Sharp Laboratories Of America, Inc. Summarization of sumo video content
US20040088723A1 (en) * 2002-11-01 2004-05-06 Yu-Fei Ma Systems and methods for generating a video summary
US7480442B2 (en) * 2003-07-02 2009-01-20 Fuji Xerox Co., Ltd. Systems and methods for generating multi-level hypervideo summaries
US20070124282A1 (en) * 2004-11-25 2007-05-31 Erland Wittkotter Video data directory
JP2007195586A (ja) 2006-01-23 2007-08-09 Olympus Medical Systems Corp カプセル型医療装置、医療用制御装置、医療用画像処理装置及びプログラム
JP2009528756A (ja) * 2006-03-03 2009-08-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 複数の画像の要約の自動生成のための方法及び装置
JP2007257287A (ja) 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法
JP4755575B2 (ja) 2006-12-12 2011-08-24 ヤフー株式会社 動画代表画像抽出方法、装置、及びコンピュータ・プログラム
BRPI0700120B1 (pt) * 2007-01-24 2015-11-17 Elfusa Geral De Eletrofusão Ltda composição de refratário básico contendo ortotitanato de magnésio e titanato de cálcio, processo para sua preparação, seus usos e forno para produção de cimento portland ou cal.
JP2009050321A (ja) 2007-08-23 2009-03-12 Olympus Corp 画像処理装置
JP5173337B2 (ja) * 2007-09-18 2013-04-03 Kddi株式会社 要約コンテンツ生成装置およびコンピュータプログラム
JP2010069208A (ja) 2008-09-22 2010-04-02 Olympus Corp 画像処理装置、画像処理方法および画像処理用プログラム
JP5117353B2 (ja) * 2008-11-07 2013-01-16 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010187756A (ja) * 2009-02-16 2010-09-02 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2011024763A (ja) 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP5802364B2 (ja) 2009-11-13 2015-10-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP2011175599A (ja) * 2010-02-25 2011-09-08 Canon Inc 画像処理装置、その処理方法及びプログラム
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
CN102096917B (zh) * 2010-12-22 2012-08-15 南方医科大学 胶囊内窥镜冗余图像数据的自动剔除方法
US8655036B2 (en) * 2011-02-14 2014-02-18 Siemens Medical Solutions Usa, Inc. Presentation of locations in medical diagnosis
US10134440B2 (en) * 2011-05-03 2018-11-20 Kodak Alaris Inc. Video summarization using audio and visual cues
US8869198B2 (en) * 2011-09-28 2014-10-21 Vilynx, Inc. Producing video bits for space time video summary
WO2013133368A1 (ja) 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
EP2823749A4 (en) 2012-03-08 2016-07-20 Olympus Corp Image processing device, program and image processing method
CN104244801B (zh) 2012-04-18 2017-05-10 奥林巴斯株式会社 图像处理装置和图像处理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2009005020A (ja) * 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010158308A (ja) * 2009-01-06 2010-07-22 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011200283A (ja) * 2010-03-24 2011-10-13 Olympus Corp 制御装置、内視鏡システム、プログラム及び制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2823749A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050638A1 (ja) * 2012-09-27 2014-04-03 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
JP2014079562A (ja) * 2012-09-27 2014-05-08 Olympus Corp 画像処理装置、プログラム及び画像処理方法
US9652835B2 (en) 2012-09-27 2017-05-16 Olympus Corporation Image processing device, information storage device, and image processing method
US9684849B2 (en) 2012-09-27 2017-06-20 Olympus Corporation Image processing device, information storage device, and image processing method
CN106102554A (zh) * 2014-03-14 2016-11-09 奥林巴斯株式会社 图像处理装置、图像处理方法以及图像处理程序
CN106102554B (zh) * 2014-03-14 2019-02-05 奥林巴斯株式会社 图像处理装置以及图像处理方法
US10223785B2 (en) 2014-03-14 2019-03-05 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images
JPWO2016056408A1 (ja) * 2014-10-10 2017-04-27 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JPWO2022190298A1 (ja) * 2021-03-10 2022-09-15
WO2022190298A1 (ja) * 2021-03-10 2022-09-15 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP7612831B2 (ja) 2021-03-10 2025-01-14 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び記録媒体

Also Published As

Publication number Publication date
CN104203065B (zh) 2017-04-12
US9672619B2 (en) 2017-06-06
EP2823749A4 (en) 2016-07-20
CN104203065A (zh) 2014-12-10
US20140376792A1 (en) 2014-12-25
US20170039709A1 (en) 2017-02-09
US9547794B2 (en) 2017-01-17
CN106859578A (zh) 2017-06-20
EP2823749A1 (en) 2015-01-14
CN106859578B (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
WO2013133370A1 (ja) 画像処理装置、プログラム及び画像処理方法
CN104244801B (zh) 图像处理装置和图像处理方法
CN104159501B (zh) 图像处理装置和图像处理方法
JP5963480B2 (ja) 画像要約装置及びプログラム
Fonolla et al. Multi-modal classification of polyp malignancy using CNN features with balanced class augmentation
US9684849B2 (en) Image processing device, information storage device, and image processing method
US9652835B2 (en) Image processing device, information storage device, and image processing method
Sasmal et al. Extraction of key-frames from endoscopic videos by using depth information
JP5973771B2 (ja) 画像処理装置、プログラム及び画像処理方法
JP5973783B2 (ja) 画像処理装置、プログラム及び画像処理方法
Wang et al. Pyramid Transformer Driven Multibranch Fusion for Polyp Segmentation in Colonoscopic Video Images
JP5973770B2 (ja) 画像処理装置、プログラム及び画像処理方法
JP6006112B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5980567B2 (ja) 画像処理装置、プログラム及び画像処理装置の作動方法
Nosato et al. Method of retrieving multi-scale objects from optical colonoscopy images based on image-recognition techniques
JP5896791B2 (ja) 画像処理装置、プログラム及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13758100

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013758100

Country of ref document: EP