[go: up one dir, main page]

WO2013021767A1 - 動体検出装置及び方法 - Google Patents

動体検出装置及び方法 Download PDF

Info

Publication number
WO2013021767A1
WO2013021767A1 PCT/JP2012/067547 JP2012067547W WO2013021767A1 WO 2013021767 A1 WO2013021767 A1 WO 2013021767A1 JP 2012067547 W JP2012067547 W JP 2012067547W WO 2013021767 A1 WO2013021767 A1 WO 2013021767A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving object
motion vector
moving
images
panning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/067547
Other languages
English (en)
French (fr)
Inventor
恒史 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to CN201280039032.1A priority Critical patent/CN103733607B/zh
Priority to JP2013527937A priority patent/JP5507014B2/ja
Publication of WO2013021767A1 publication Critical patent/WO2013021767A1/ja
Priority to US14/167,651 priority patent/US9542754B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Definitions

  • the present invention relates to a moving object detection apparatus and method, and more particularly to a technique for detecting a moving object from continuously captured frame images.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a moving object detection apparatus and method capable of detecting a moving object even with a fast moving object while maintaining the detection accuracy of a slow moving object. To do.
  • a difference image generation means for generating a difference image between two images having different shooting times among the images acquired by the image acquisition means, and the presence / absence of a moving object is detected based on the difference image generated by the difference image generation means
  • a second moving body detecting means for integrating the detection result by the first moving body detecting means and the detection result by the second moving body detecting means. Motion is not detected by the detecting means, when the moving object is detected by the second motion detection means comprise an integrated means for determining a moving object is detected, the.
  • the moving object detection apparatus since the moving object detection by the motion vector and the moving object detection by the difference image between the frames are used together, these detection results are integrated to detect the moving object.
  • a fast moving object that cannot be detected by a motion vector can be detected while maintaining the detection accuracy of a slow moving object.
  • the first moving body detection means continuously detects the presence or absence of a moving body at a first time interval
  • the second moving body detection means has a first time.
  • the presence / absence of a moving object is continuously detected at a second time interval shorter than the interval
  • the integrating unit integrates the latest detection result by the first moving object detection unit and the latest detection result by the second moving object detection unit. It is preferable to do.
  • the moving object detection is performed in parallel by the first moving object detection means and the second moving object detection means.
  • the first time interval for detecting the moving object by the first moving object detection means is set longer than the second time interval for detecting the moving object by the second moving object detection means. This is because the amount of data processed by the motion vector calculation unit is larger than the amount of data processed by the difference image generation unit, and it takes much time to calculate the motion vector.
  • the integration unit integrates the latest detection result by the first moving object detection unit and the latest detection result by the second moving object detection unit.
  • a subject requiring real-time property is a fast moving object, but the second time interval of moving object detection by the second moving object detection means is shortened to ensure real-time property.
  • the difference image generation means generates a difference image between reduced images obtained by reducing two images.
  • the processing time for generating the difference image can be shortened, and the responsiveness to a fast moving object can be improved.
  • the integration unit detects that the moving object is detected when the moving object is detected by the first moving object detection unit and the moving object is not detected by the second moving object detection unit. I try to distinguish. This is because the slow moving object may not be detected in the difference image between frames by the second moving object detecting means, but the first moving object detecting means can detect the slow moving object with high accuracy.
  • the moving object detection apparatus may include an AF control unit that tracks the moving object and performs the focus adjustment operation of the image acquisition unit when the integrating unit determines that the moving object is detected.
  • the moving object detection device may include a shooting scene recognition unit that recognizes a shooting scene based on the moving object when the integration unit determines that the moving object is detected.
  • the moving object candidate area is a moving object area. Can be determined.
  • a moving object candidate area is extracted based on a difference image between frames, even a fast moving object can be extracted as a moving object candidate area. In the case of a slow moving object, a moving object is detected accurately by calculating a motion vector. can do.
  • the moving object candidate regions extracted by the difference image between frames include those that are caused only by panning and those that are a combination of panning and movement of moving objects. Since it is included, it is necessary to distinguish both.
  • determining a moving object candidate area if no motion vector exists for the moving object area candidate (when no motion vector is calculated), it is considered that the motion vector cannot be calculated due to a fast moving object.
  • the moving object region candidate is determined as a moving object region. Further, when a motion vector exists in the moving object candidate region and the correlation with the surrounding motion vectors is low, the moving object candidate region is determined as the moving object region.
  • the moving object candidate area is regarded as being extracted as a moving object candidate area by panning, and is not determined as a moving object area. I have to. Thereby, a moving body area
  • the moving object region determining unit determines that the moving object candidate region is a moving object region when the panning determining unit determines that there is no panning.
  • the panning determination unit determines panning based on the motion vector calculated by the motion vector calculation unit. This is because it is not necessary to separately use a sensor or the like for detecting panning.
  • the panning determination unit is configured such that a ratio or number of motion vectors in which the length of the motion vector calculated by the motion vector calculation unit is equal to or less than a predetermined value is set in advance. Alternatively, it can be determined that there is panning when the number is less than the number, and it can be determined that there is no panning when the number is greater than a preset ratio or number. At the time of non-panning, since the length of the motion vector of the part other than the moving object is equal to or less than a certain value, the non-panning or the panning can be determined based on the ratio or the number of motion vectors where the length of the motion vector is equal to or less than the certain value.
  • a moving object detection apparatus includes an AF control unit that performs a focus adjustment operation of an image acquisition unit by tracking a moving object region when the moving object region determination unit determines that the moving object candidate region is a moving object region. May be.
  • a moving object detection device includes a tracking unit that tracks and moves a moving object region by panning and / or tilting the moving object detection device when the moving object region determination unit determines that the moving object candidate region is a moving object region. May be.
  • the integration step is such that the moving object is detected when the moving object is detected by the first moving object detection process and the moving object is not detected by the second moving object detection process. I try to distinguish.
  • the tracking process of tracking the moving object by panning and / or tilting the moving object detection device may be executed.
  • the moving object candidate region is selected. If a motion vector exists in the motion candidate region and the correlation with the surrounding motion vectors is low, the motion candidate region is determined as a motion region, and the motion vector exists in the motion candidate region. When the correlation with the surrounding motion vector is high, the moving object candidate region is not determined to be a moving object region.
  • the moving object region determining step determines that the moving object candidate region is a moving object region when it is determined that there is no panning in the panning determining step.
  • the panning determination step includes a ratio in which the ratio or number of motion vectors in which the length of the motion vector calculated in the motion vector calculation step is equal to or less than a predetermined value is set in advance. Alternatively, when the number is less than the number, it is determined that there is panning, and when there is more than a preset ratio or number, it is determined that there is no panning.
  • the moving object region determination step determines that the moving object candidate region is a moving object region
  • the AF control step is performed in which the moving object region is tracked and the focus adjustment operation of the image acquisition process is performed. May be.
  • the tracking step of tracking and moving the moving object region is performed by panning and / or tilting the moving object detection device. May be.
  • the block diagram which shows embodiment of the imaging device to which the moving body detection apparatus which concerns on this invention was applied Block diagram showing the internal configuration of the moving object detection unit
  • the playback button is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30.
  • the MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of the selection contents. It is.
  • the cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do.
  • the CPU 40 controls the aperture 14 via the aperture drive unit 34, and controls the charge accumulation time (shutter speed) in the imaging device 16 and the image signal readout control from the imaging device 16 via the device control unit 32. Etc.
  • the imaging device 16 starts an autofocus (AF) operation and an AE (automatic exposure) operation, via the lens driving unit 36. Then, control is performed so that the focus lens in the photographing lens 12 comes to the in-focus position.
  • the image data output from the A / D converter 20 when the shutter button is half-pressed is taken into the AE control unit 44.
  • the image data temporarily stored in the memory 48 is appropriately read out by the digital signal processing unit 24.
  • the synchronization processing (the color signal is obtained by interpolating the spatial displacement of the color signal accompanying the arrangement of the primary color filters).
  • Predetermined signal processing including YC processing (image data luminance data and color difference data generation processing) is performed, and the YC processed image data (YC data) is again stored in the memory 48. Is remembered.
  • the input / output unit 450 is a part for inputting image data stored in the memory 48 via the image input controller 22 and outputting a moving object detection result.
  • the motion vector calculation unit 452 acquires image data at predetermined intervals via the input / output unit 450, and represents the magnitude and direction of the movement of the subject based on two pieces of image data (image pairs) having different shooting times. A motion vector is calculated.
  • 3A and 3B show an example of two images A and B having different shooting times.
  • the image A has a shooting time earlier than the image B, and these images A and B are images when only a moving object (automobile) is moving in the left direction.
  • automobile moving object
  • an image A having an earlier shooting time among the two images A and B is used as a reference image, and feature points on this image A (points indicated by white circles on the part (A) in FIG. 3). Extract.
  • the feature point is a point having a feature that can be uniquely specified in the image A, and a point (corresponding point) having the same feature with another image B can be specified.
  • corresponding points points indicated by black circles on the part (B) in FIG. 3
  • corresponding points points indicated by black circles on the part (B) in FIG. 3
  • feature point tracking can be performed using the KLT method or the like.
  • the moving object detection processing unit 456 extracts a region having the same motion vector based on the motion vector input from the motion vector calculation unit 452 and the coordinate values of the start and end points of the motion vector, and extracts the region as the moving object region C (FIG. 3). (C) It detects as area
  • the difference image of the two images A and B shown in the (A) part and (B) part of FIG. 4 is shown in the (C) part of FIG. Note that the two images A and B shown in FIGS. 4A and 4B are the same as the two images A and B shown in FIGS. 3A and 3B. is there.
  • the difference image generated by the difference image generation unit 454 is output to the moving object detection processing unit 456.
  • the moving object detection processing unit 456 detects a region having a large difference between the difference images input from the difference image generation unit 454 as a moving object region a (or a moving object candidate region). On the part (C) of FIG. 4, a region (moving body region a) having a large difference in the difference image is indicated by hatching.
  • the moving object detection processing unit 456 integrates the detection results of the two types of moving object detection detected in steps S14 and S18, and outputs the integration result to the AF control unit 42 (step S20).
  • step S20 the integration process of the detection results of the two types of moving object detection in step S20 will be described.
  • the detection result after integration is determined by the combination of the detection result based on the motion vector and the detection result based on the interframe difference.
  • a detection result by a motion vector that can obtain an accurate result is used as it is.
  • the detection result by the motion vector is prioritized. This is because the moving object detection based on the motion vector can determine the moving object region, the amount of movement, and the like more accurately than the moving object detection based on the inter-frame difference.
  • the integration result is “with moving object”. This is because when moving objects are detected based on motion vectors, feature points and the like cannot be extracted due to subject blur in the case of fast moving objects, so that moving objects cannot be detected and there is a possibility that “no moving object” is detected. On the other hand, when a moving object is detected based on a difference between frames, even a fast moving object can be detected.
  • the integration result is “with moving object”. This is because, in the case of a slow moving object, the moving object detection based on the motion vector can be detected with high accuracy, whereas in the moving object detection based on the interframe difference, the detection accuracy is low, and there is a possibility that “no moving object” is detected. Because there is.
  • the first embodiment can be used when a moving object / non-moving object is determined in each of a plurality of moving object candidate regions extracted by some method, or when the presence / absence of a moving object is determined over the entire screen. it can.
  • FIG. 7 is a flowchart showing a second embodiment of the moving object detection method according to the present invention.
  • the same step number is attached
  • the second embodiment shown in FIG. 7 mainly performs parallel processing of moving object detection based on motion vectors and moving object detection based on interframe differences, and both moving objects.
  • the detection processing time is different, and one moving object detection time based on a motion vector is longer than one moving object detection time based on an inter-frame difference.
  • the second embodiment is almost the same processing as the first embodiment, but the moving object detection by the motion vector and the moving object detection by the inter-frame difference are processed in parallel in time, and the moving object detection by the inter-frame difference is performed. Is performed in a short cycle in order to ensure real-time properties.
  • step S15 the moving object detection result based on the motion vector detected based on the image pair input in step S10 'is temporarily stored (step S15).
  • step S10 ′′ the image pair input in step S10 ′′ is resized to a reduced image in order to further shorten the processing time (step S11), and then a difference image is generated (step S16).
  • step S20 ' the moving object detection result based on the motion vector stored in step S15 and the moving object detection result based on the interframe difference in step S18 are integrated. At the time of integration, the latest of the two types of detection results is used. Note that the integration processing does not necessarily have to be in the processing flow for moving object detection based on the inter-frame difference.
  • FIG. 8 is a flowchart showing a third embodiment of the moving object detection method according to the present invention.
  • step S30 during shooting of a live view image or a moving image, two images (image pairs) having different shooting times are input (step S30).
  • the difference image generation unit 454 generates a difference image from the image pair input in step S30 (step S32), and the moving object detection processing unit 456 extracts a moving object candidate region from the generated difference image between frames (step S34). ).
  • 9A and 9B show an example of two images A and B having different shooting times.
  • the image A has a shooting time earlier than the image B, and these images A and B are obtained when the imaging device 10 pans in the right direction and the moving object (car) moves in the right direction. It is an image.
  • the motion vector calculation unit 452 calculates a motion vector for each feature point based on detection of a plurality of feature points / corresponding points on the two input images (step S36).
  • region a1, a2, a3, a4, a5 is shown to the (D) part of FIG.
  • step S52 it is determined whether or not the determination process for all the moving object candidate regions has been completed. If the determination has not been completed, the process proceeds to step S42 to repeat the processing from step S42 to step S52. If so, the moving object detection for the image pair input in step S30 ends.
  • the moving object detection apparatus is not limited to being applied to automatic tracking AF in a camera, but a mechanism for tracking a moving object by panning / tilting the camera body, a monitoring camera for detecting the moving object, and a shooting scene
  • the present invention can also be applied to (object) recognition and the use thereof is not limited to this embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 ライブビュー画像又は動画の撮影中に撮影時刻の異なる画像対を取得する(ステップS10)。この画像対から動きベクトルを算出し、動きベクトルによる動体検出を行う(ステップS12、S14)。また、上記画像対から差分画像を生成し、フレーム間差分による動体検出を行う(ステップS16、S18)。これらの2種類の動体検出結果を統合して動体検出する(ステップS20)。これにより、遅い動体の検出精度を保持したまま、動きベクトルでは動体検出することができない速い動体も検出可能にしている。

Description

動体検出装置及び方法
 本発明は動体検出装置及び方法に係り、特に連続的に撮影されるフレーム画像から動体を検出する技術に関する。
 従来、ビデオカメラで得られた撮像信号から手振れベクトルを検出し、手振れベクトルとは区別可能な被写体の動きを表す画像動きベクトルを検出し、これにより動体検出を行うようにした画像動きベクトル検出装置が提案されている(特許文献1)。
 また、テレビカメラで撮ったフレーム画像からフレーム間差分を求め、そのフレーム間差分により移動体を検知する移動体監視装置が提案されている(特許文献2)。特に、この移動体監視装置は、限られた範囲内の周期運動をする木の枝の揺れのような監視不要な移動体の画像を検出除去し、更に残った画像について画面位置等の大きさ等からそれが、人、車両等の監視対象の移動体であるかどうかの判定を行うことを特徴としている。
特開平6-217188号公報 特開平5-183901号公報
 しかしながら、特許文献1に記載の発明は、動きベクトルに基づいて動体を検出するため、速い動体の場合には、被写体ブレにより画像中の動体を検出することができず、その結果、動きベクトル(動体)を検出することができないという問題がある。即ち、被写体のスピードが速い場合は、被写体ブレが起きるため、動きベクトルの起点、終点となる特徴点及び対応点を抽出することができない(動きベクトルを検出することができない)。また、動きベクトルの算出は計算コストが高く、検出のリアルタイム性と緻密さの両立が難しい。
 一方、特許文献2に記載の発明は、フレーム間差分により動体を検出するため、固定カメラの場合には良好に動体を検出することができるが、非固定カメラでは画像の位置合わせ処理を併用しないと、カメラの動きと動体の動きを判別することができず、また、動きベクトルによる動体の検出精度(検出の緻密さ)に比べて検出精度が低いという問題がある。
 本発明はこのような事情に鑑みてなされたもので、遅い動体の検出精度を保持したまま、速い動体であっても動体を検出することができる動体検出装置及び方法を提供することを目的とする。
 この目的を達成するために本発明の一の態様に係る動体検出装置は、連続的に撮像された画像を取得する画像取得手段と、画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出手段と、動きベクトル算出手段により算出した動きベクトルに基づいて動体の有無を検出する第1の動体検出手段と、画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成手段と、差分画像生成手段により生成した差分画像に基づいて動体の有無を検出する第2の動体検出手段と、第1の動体検出手段による検出結果と第2の動体検出手段による検出結果とを統合する統合手段であって、少なくとも第1の動体検出手段により動体が検出されず、第2の動体検出手段により動体が検出された場合には、動体が検出されたと判別する統合手段と、を備えている。
 本発明の一の態様に係る動体検出装置によれば、動きベクトルによる動体検出と、フレーム間の差分画像による動体検出とを併用し、これらの検出結果を統合して動体検出するようにしたため、遅い動体の検出精度を保持したまま、動きベクトルでは動体検出することができない速い動体も検出することができる。
 本発明の他の態様に係る動体検出装置において、動きベクトル算出手段は、速い動体により2枚の画像に被写体ブレが発生する場合には速い動体に対する動きベクトルの算出が不能となり、第1の動体検出手段は、動きベクトル算出手段による動きベクトルの算出が不能時には、動体がないと判別するようにしている。
 本発明の更に他の態様に係る動体検出装置において、第1の動体検出手段は、第1の時間間隔で動体の有無を連続的に検出し、第2の動体検出手段は、第1の時間間隔よりも短い第2の時間間隔で動体の有無を連続的に検出し、統合手段は、第1の動体検出手段による最新の検出結果と第2の動体検出手段による最新の検出結果とを統合することが好ましい。
 即ち、第1の動体検出手段と第2の動体検出手段とにより並行して動体検出を行う。このとき、第1の動体検出手段が動体検出する第1の時間間隔は、第2の動体検出手段が動体検出する第2の時間間隔よりも長く設定されている。これは、動きベクトル算出手段による処理データ量が差分画像生成手段による処理データ量よりも多く、動きベクトルの算出に多くの時間を要するからである。そして、統合手段は、第1の動体検出手段による最新の検出結果と第2の動体検出手段による最新の検出結果とを統合する。リアルタイム性が求められる被写体は速い動体であるが、第2の動体検出手段による動体検出の第2の時間間隔を短くしてリアルタイム性を確保できるようにする。
 本発明の更に他の態様に係る動体検出装置において、差分画像生成手段は、2枚の画像をそれぞれ縮小した縮小画像間の差分画像を生成することが好ましい。これにより、差分画像を生成する処理時間の短縮化を図ることができ、速い動体に対しての応答性を高めることができる。
 本発明の更に他の態様に係る動体検出装置において、動きベクトル算出手段は、撮影時刻の異なる2枚の画像のうちの一方の画像から複数の特徴点を抽出する特徴点抽出手段と、一方の画像の複数の特徴点にそれぞれに対応する2枚の画像のうちの他方の画像上の複数の対応点を検出する対応点検出手段と、を有し、一方の画像の複数の特徴点と該複数の特徴点に対応する他方の画像の対応点とを結ぶ動きベクトルを算出するようにしている。これにより、動体(動体の領域及び動きベクトル)を精度よく検出することができる。
 本発明の更に他の態様に係る動体検出装置において、統合手段は、第1の動体検出手段により動体が検出され、第2の動体検出手段により動体が検出されない場合には、動体が検出されたと判別するようにしている。第2の動体検出手段によるフレーム間の差分画像では、遅い動体を検出することができない場合があるが、第1の動体検出手段は、遅い動体を精度よく検出することがきるからである。
 本発明の更に他の態様に係る動体検出装置は、統合手段が動体が検出されたと判別した場合、動体を追尾して画像取得手段の焦点調節動作を行うAF制御部を備えてもよい。
 本発明の更に他の態様に係る動体検出装置は、統合手段が動体が検出されたと判別した場合、動体検出装置をパンおよび/またはチルトさせて動体を追尾する追尾部を備えてもよい。
 本発明の更に他の態様に係る動体検出装置は、統合手段が動体が検出されたと判別した場合、動体に基づいて撮影シーンを認識する撮影シーン認識部を備えてもよい。
 本発明の更に他の態様に係る動体検出装置は、連続的に撮像された画像を取得する画像取得手段と、画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成手段と、差分画像生成手段により生成した差分画像に基づいて動体候補領域を抽出する動体候補領域抽出手段と、画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出手段と、撮影時刻の異なる2枚の画像がパニングにより取得されたものか否かを判定するパニング判定手段と、動きベクトル算出手段により算出された動きベクトル及びパニング判定手段によるパニング判定結果に基づいて動体候補領域抽出手段により抽出された動体候補領域が動体領域か否かを判定する判定する動体領域判定手段と、を備えている。
 時系列の画像がパニング時に取得されたものか、又は非パニング時に取得されたものかを判別するようにしたため、非パニング時に動体候補領域が抽出された場合には、その動体候補領域は動体領域と判別することができる。尚、フレーム間の差分画像により動体候補領域を抽出するため、速い動体であっても動体候補領域として抽出することができ、また、遅い動体の場合には動きベクトルの算出により精度よく動体を検出することができる。
 本発明の更に他の態様に係る動体検出装置において、動体領域判定手段は、パニング判定手段によりパニングと判定された場合において、動体候補領域に動きベクトルが存在しない場合には、該動体候補領域を動体領域と判定し、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が低い場合には、該動体候補領域を動体領域と判定し、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が高い場合には、該動体候補領域を動体領域と判定しないようにしている。
 時系列の画像がパニング時に取得されたものである場合、フレーム間の差分画像により抽出された動体候補領域には、パニングのみに起因したものと、パニングと動体の動きとが複合したものとが含まれるため、両者を判別する必要がある。そして、ある動体候補領域の判別に際し、その動体領域候補に対して動きベクトルが存在しない場合(動きベクトルが算出されない場合)には、速い動体のために動きベクトルを算出することができなかったと見なし、その動体領域候補を動体領域と判別するようにしている。また、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が低い場合には、その動体候補領域を動体領域と判定するようにしている。一方、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が高い場合には、その動体候補領域はパニングにより動体候補領域として抽出されたものと見なし、動体領域と判定しないようにしている。これにより、パニング時であっても動体領域を特定することができる。
 本発明の更に他の態様に係る動体検出装置において、動体領域判定手段は、パニング判定手段によりパニングなしと判定された場合には、動体候補領域を動体領域と判定するようにしている。
 本発明の更に他の態様に係る動体検出装置において、パニング判定手段は、動きベクトル算出手段により算出された動きベクトルに基づいてパニング判定することが好ましい。別途、パニングを検出するためのセンサ等を使用する必要がないからである。
 本発明の更に他の態様に係る動体検出装置において、パニング判定手段は、動きベクトル算出手段により算出された動きベクトルの長さが一定以下となる動きベクトルの割合又は個数が、予め設定された割合又は個数よりも少ない場合にはパニングありと判定し、予め設定された割合又は個数よりも多い場合にはパニングなしと判定することができる。非パニング時には、動体以外の部分の動きベクトルの長さは一定以下になるため、動きベクトルの長さが一定以下となる動きベクトルの割合又は個数により非パニング又はパニングを判別することができる。
 本発明の更に他の態様に係る動体検出装置は、動体領域判定手段が動体候補領域を動体領域と判定した場合、動体領域を追尾して画像取得手段の焦点調節動作を行うAF制御部を備えてもよい。
 本発明の更に他の態様に係る動体検出装置は、動体領域判定手段が動体候補領域を動体領域と判定した場合、動体検出装置をパンおよび/またはチルトさせて動体領域を追尾する追尾部を備えてもよい。
 本発明の更に他の態様に係る動体検出装置は、動体領域判定手段が動体候補領域を動体領域と判定した場合、動体領域に基づいて撮影シーンを認識する撮影シーン認識部を備えてもよい。
 本発明の更に他の態様に係る動体検出方法は、動体検出装置が、連続的に撮像された画像を取得する画像取得工程と、取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出工程と、算出した動きベクトルに基づいて動体の有無を検出する第1の動体検出工程と、取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成工程と、生成した差分画像に基づいて動体の有無を検出する第2の動体検出工程と、第1の動体検出工程による検出結果と第2の動体検出工程による検出結果とを統合する統合工程であって、少なくとも第1の動体検出工程により動体が検出されず、第2の動体検出工程により動体が検出された場合には、動体が検出されたと判別する統合工程と、を実行する。
 本発明の更に他の態様に係動体検出方法において、動きベクトル算出工程は、速い動体により2枚の画像に被写体ブレが発生する場合には速い動体に対する動きベクトルの算出が不能となり、第1の動体検出工程は、動きベクトル算出工程による動きベクトルの算出が不能時には、動体がないと判別するようにしている。
 本発明の更に他の態様に係る動体検出方法において、第1の動体検出工程は、第1の時間間隔で動体の有無を連続的に検出し、第2の動体検出工程は、第1の動体検出工程による動体検出と並行して、第1の時間間隔よりも短い第2の時間間隔で動体の有無を連続的に検出し、統合工程は、第1の動体検出工程による最新の検出結果と第2の動体検出工程による最新の検出結果とを統合することが好ましい。
 本発明の更に他の態様に係る動体検出方法において、差分画像生成工程は、2枚の画像をそれぞれ縮小し、その縮小した縮小画像間の差分画像を生成することが好ましい。
 本発明の更に他の態様に係る動体検出方法において、動きベクトル算出工程は、撮影時刻の異なる2枚の画像のうちの一方の画像から複数の特徴点を抽出し、一方の画像の複数の特徴点にそれぞれに対応する2枚の画像のうちの他方の画像上の複数の対応点を検出し、一方の画像の複数の特徴点と該複数の特徴点に対応する他方の画像の対応点とを結ぶ動きベクトルを算出するようにしている。
 本発明の更に他の態様に係る動体検出方法において、統合工程は、第1の動体検出工程により動体が検出され、第2の動体検出工程により動体が検出されない場合には、動体が検出されたと判別するようにしている。
 本発明の更に他の態様に係る動体検出方法は、統合工程が動体が検出されたと判別した場合、動体を追尾して画像取得工程の焦点調節動作を行うAF制御工程を実行してもよい。
 本発明の更に他の態様に係る動体検出方法は、統合工程が動体が検出されたと判別した場合、動体検出装置をパンおよび/またはチルトさせて動体を追尾する追尾工程を実行してもよい。
 本発明の更に他の態様に係る動体検出方法は、統合工程が動体が検出されたと判別した場合、動体に基づいて撮影シーンを認識する撮影シーン認識工程を実行してもよい。
 本発明の更に他の態様に係る動体検出方法は、動体検出装置が、連続的に撮像された画像を取得する画像取得工程と、取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成工程と、生成した差分画像に基づいて動体候補領域を抽出する動体候補領域抽出工程と、取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出工程と、撮影時刻の異なる2枚の画像がパニングにより取得されたものか否かを判定するパニング判定工程と、動きベクトル算出工程により算出された動きベクトル及びパニング判定工程によるパニング判定結果に基づいて動体候補領域抽出工程により抽出された動体候補領域が動体領域か否かを判定する判定する動体領域判定工程と、を実行する。
 本発明の更に他の態様に係る動体検出方法において、動体領域判定工程は、パニング判定工程によりパニングと判定された場合において、動体候補領域に動きベクトルが存在しない場合には、該動体候補領域を動体領域と判定し、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が低い場合には、該動体候補領域を動体領域と判定し、動体候補領域に動きベクトルが存在し、かつ周囲の動きベクトルとの相関が高い場合には、該動体候補領域を動体領域と判定しないようにしている。
 本発明の更に他の態様に係る動体検出方法において、動体領域判定工程は、パニング判定工程によりパニングなしと判定された場合には、動体候補領域を動体領域と判定するようにしている。
 本発明の更に他の態様に係る動体検出方法において、パニング判定工程は、動きベクトル算出工程により算出された動きベクトルに基づいてパニング判定することが好ましい。
 本発明の更に他の態様に係る動体検出方法において、パニング判定工程は、動きベクトル算出工程により算出された動きベクトルの長さが一定以下となる動きベクトルの割合又は個数が、予め設定された割合又は個数よりも少ない場合にはパニングありと判定し、予め設定された割合又は個数よりも多い場合にはパニングなしと判定するようにしている。
 本発明の更に他の態様に係る動体検出方法は、動体領域判定工程が動体候補領域を動体領域と判定した場合、動体領域を追尾して画像取得工程の焦点調節動作を行うAF制御工程を実行してもよい。
 本発明の更に他の態様に係る動体検出方法は、動体領域判定工程が動体候補領域を動体領域と判定した場合、動体検出装置をパンおよび/またはチルトさせて動体領域を追尾する追尾工程を実行してもよい。
 本発明の更に他の態様に係る動体検出方法は、動体領域判定工程が動体候補領域を動体領域と判定した場合、動体領域に基づいて撮影シーンを認識する撮影シーン認識工程を実行してもよい。
 本発明によれば、動きベクトルによる動体検出と、フレーム間の差分画像による動体検出とを併用し、これらの検出結果を統合して動体検出するようにしたため、遅い動体の検出精度を保持したまま、動きベクトルでは動体検出することができない速い動体も検出することができる。
本発明に係る動体検出装置が適用された撮像装置の実施の形態を示すブロック図 動体検出部の内部構成を示すブロック図 撮影時刻の異なる2枚の画像及びこれらの画像間の動きベクトルを示す図 撮影時刻の異なる2枚の画像及びこれらの画像間の差分画像を示す図 本発明に係る動体検出方法の第1の実施の形態を示すフローチャート 動きベクトルによる検出結果とフレーム間差分による検出結果とを統合した検出結果を示す図表 本発明に係る動体検出方法の第2の実施の形態を示すフローチャート 本発明に係る動体検出方法の第3の実施の形態を示すフローチャート 撮影時刻の異なる2枚の画像、これらの画像間の差分画像及び動きベクトルを示す図 パニング判定方法の一例を説明するために用いた動きベクトルのヒストグラム
 以下、添付図面に従って本発明に係る動体検出装置及び方法の実施の形態について説明する。
 [撮像装置]
 図1は本発明に係る動体検出装置が適用された撮像装置の実施の形態を示すブロック図である。
 この撮像装置10は、静止画や動画の撮影、記録が可能なデジタルカメラおよびその等価物(カメラ付き携帯電話機・スマートフォン、カメラ付きPCなど)であり、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
 撮像装置10には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、本発明に係る動体検出制御、液晶モニタ30の表示制御などを行う。
 シャッタボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、オート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、マクロモード、動画モードなどを選択する選択手段である。
 再生ボタンは、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。
 撮影モード時において、被写体を示す画像光は、撮影レンズ12、絞り14を介して撮像デバイス16(CMOSイメージセンサ又はCCDイメージセンサ)の受光面に結像される。撮影レンズ12は、CPU40によって制御されるレンズ駆動部36によって駆動され、フォーカス制御、ズーム制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部34によって駆動され、例えば、絞り値F1.4~F11まで1AV刻みで7段階に絞り制御される。
 また、CPU40は、絞り駆動部34を介して絞り14を制御するとともに、デバイス制御部32を介して撮像デバイス16での電荷蓄積時間(シャッタ速度)や、撮像デバイス16からの画像信号の読み出し制御等を行う。
 撮像デバイス16に蓄積された信号電荷は、デバイス制御部32から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。撮像デバイス16から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素ごとのR、G、B信号がサンプリングホールドされ、CPU40から指定されたゲイン(ISO感度に相当)で増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。
 デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、同時化処理、YC処理、シャープネス補正等の所定の信号処理を行う。
 尚、図1において、46は、カメラ制御プログラム、撮像デバイス16の欠陥情報、画像処理等に使用する各種のパラメータやテーブル等が記憶されているROM(EEPROM)である。
 デジタル信号処理部24で処理された画像データがVRAM50に出力される。VRAM50には、それぞれが1コマ分の画像を表す画像データを記憶するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。VRAM50から読み出された画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力され、これにより被写体像(ライブビュー画像)が液晶モニタ30の表示画面上に表示される。
 また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、撮像デバイス16は、オートフォーカス(AF)動作及びAE(自動露出)動作を開始させ、レンズ駆動部36を介して撮影レンズ12内のフォーカスレンズが合焦位置にくるように制御する。また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE制御部44に取り込まれる。
 AE制御部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE制御部44から入力する積算値より被写体の明るさ(撮影EV値)を算出し、この撮影EV値に基づいて絞り14の絞り値及び撮像デバイス16の電子シャッタ(シャッタ速度)を所定のプログラム線図に従って決定する。
 CPU40は、プログラム線図に従って決定した絞り値に基づいて絞り駆動部34を介して絞り14を制御するとともに、決定したシャッタ速度に基づいてデバイス制御部32を介して撮像デバイス16での電荷蓄積時間を制御する。
 AF制御部42は、コントラストAF処理を行う部分であり、1画面の画像データのうちの所定のAFエリア内の画像データの高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるように撮影レンズ12を制御することによりAF制御が行われる。
 AE動作及びAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される画像データが画像入力コントローラ22からメモリ(SDRAM) 48に入力し、一時的に記憶される。
 メモリ48に一時的に記憶された画像データは、デジタル信号処理部24により適宜読み出され、ここで、同時化処理(原色フィルタの配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理)、及びYC処理(画像データの輝度データ及び色差データの生成処理)を含む所定の信号処理が行われ、YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。
 メモリ48に記憶されたYCデータは、圧縮伸長処理部26に出力され、ここでJPEG (joint photographic experts group)などの所定の圧縮処理が実行されたのち、メディア・コントローラ52を介してメモリカード54に記録される。
 [動体検出]
 動体検出部45は、所定のフレームレートで連続的に撮影される時系列の画像(動画)中から動体(動体領域)を検出するもので、例えば、動いている被写体を追尾してAF動作を行う自動追尾AFに適用される。即ち、動体検出部45により検出された動体領域を示す情報がAF制御部42に加えられると、AF制御部42は、その動体領域をAFエリアとしてAF処理を行う。これにより、被写体にピントを合わせると、その後、被写体が移動しても自動で被写体を追尾し、被写体にピントを合わせ続けることができ、静止画の撮影時にはシャッターチャンスを逃さずに撮影することができ、動画の撮影時には動く被写体にピントが合った動画を撮影することができる。
 図2は動体検出部45の内部構成例を示すブロック図である。同図に示すように、動体検出部45は、入出力部450、動きベクトル算出部452、差分画像生成部454、及び動体検出処理部456から構成されている。
 入出力部450は、画像入力コントローラ22を介してメモリ48に格納された画像データの入力及び動体検出結果の出力等を行う部分である。動きベクトル算出部452は、入出力部450を介して所定のインターバルで画像データを取得し、撮影時刻の異なる2枚の画像データ(画像対)に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する。
 ここで、動きベクトルの算出方法について、図3を使用して説明する。
 図3の(A)部分及び(B)部分は、撮影時刻の異なる2枚の画像A,Bの一例を示す。画像Aは画像Bよりも撮影時刻が早く、また、これらの画像A、Bは、動体(自動車)のみ左方向に移動している場合の画像である。
 図3において、2枚の画像A,Bのうちの撮影時刻の早い画像Aを基準画像とし、この画像A上の特徴点(図3の(A)部分上で、白丸で示した点)を抽出する。特徴点は、画像A内で一意に特定できる特徴のある点であり、他の画像Bとの間で同じ特徴を有する点(対応点)を特定できるものである。
 続いて、画像Bから抽出された各特徴点にそれぞれ対応する対応点(図3の(B)部分上で、黒丸で示した点)を検出する。尚、特徴点の検出方法としては、例えばHarrisの手法等を用いることができ、対応点の検出方法としては、KLT法等を用いて特徴点追尾を行うことができる。
 そして、図3の(C)部分に示すように上記特徴点と対応点の画像上の座標値に基づいて特徴点と対応点とを結ぶ動きベクトル(図3の(C)部分上の矢印)を算出する。
 上記のようにして算出された動きベクトル、及び動きベクトルの起点、終点の座標値は、動体検出処理部456に出力される。
 動体検出処理部456は、動きベクトル算出部452から入力する動きベクトル、及び動きベクトルの起点、終点の座標値に基づいて動きベクトルが等しい領域を抽出し、その領域を動体領域C(図3の(C)部分上の点線で示した領域a)として検出する。尚、動きベクトルを用いた動体の検出方法としては、特許文献1に記載の方法を使用してもよい。
 また、差分画像生成部454は、入出力部450を介して所定のインターバルで画像データを取得し、撮影時刻の異なる2枚の画像データ(画像対)の差分を示す差分画像を生成する。
 図4の(A)部分及び(B)部分に示す2枚の画像A,Bの差分画像を、図4の(C)部分に示す。尚、図4の(A)部分及び(B)部分に示す2枚の画像A,Bは、図3の(A)部分及び(B)部分に示した2枚の画像A,Bと同じである。
 差分画像生成部454により生成された差分画像は、動体検出処理部456に出力される。動体検出処理部456は、差分画像生成部454から入力する差分画像の差分の大きい領域を動体領域a(又は動体候補領域)として検出する。図4の(C)部分上では、差分画像の差分の大きい領域(動体領域a)を斜線で示している。
 動体検出処理部456は、上記のように動きベクトル算出部452により算出された動きベクトルと、差分画像生成部454により生成された差分画像とに基づいてそれぞれ動体領域を検出し、これらの検出結果を統合して入出力部450を介してAF制御部42に送出する。
 また、動体検出処理部456は、動きベクトル算出部452により算出された動きベクトルによりパニングの判定を行い、その判定結果に基づいて動体領域の検出を行うようにしている。尚、上記2種類の動体検出の検出結果の統合方法、パニング判定方法等の詳細については、後述する。
 [第1の実施の形態]
 図5は本発明に係る動体検出方法の第1の実施の形態を示すフローチャートである。
 まず、図2に示した動体検出部45の入出力部450は、ライブビュー画像又は動画の撮影中に撮影時刻の異なる2枚の画像(画像対:隣接フレームが望ましい)を入力する(ステップS10)。動きベクトル算出部452は、入力した2枚の画像上の複数の特徴点・対応点の検出に基づいて特徴点ごとに動きベクトルを算出する(ステップS12)。動体検出処理部456は、算出された動きベクトルに基づいて動体(動体領域)を検出する(ステップS14)。
 一方、差分画像生成部454は、ステップS10で入力した画像対から差分画像を生成し(ステップS16)、動体検出処理部456は、生成されたフレーム間の差分画像により動体(動体領域)を検出する(ステップS18)。
 動体検出処理部456は、上記ステップS14及びステップS18にてそれぞれ検出された2種類の動体検出の検出結果を統合し、その統合結果をAF制御部42に出力する(ステップS20)。
 上記ステップS10からステップS20の処理は、ライブビュー画像又は動画の撮影動作中、繰り返し行われる。これにより、移動する動体に対しては、その動体の領域を示す情報が逐次AF制御部42に出力され、AF制御部42は、動体検出部45から入力する動体領域をAFエリアとして使用することにより、動いている被写体を追尾してAF動作を行う自動追尾AFを行うことができる。
 次に、ステップS20における2種類の動体検出の検出結果の統合処理について説明する。
 図6の図表に示すように、動きベクトルによる検出結果とフレーム間差分による検出結果の組み合わせにより統合後の検出結果を決定する。基本的には、正確な結果が得られる動きベクトルによる検出結果をそのまま用いる。尚、動きベクトルによる検出結果とフレーム間差分による検出結果が、共に「動体あり」の場合、動きベクトルによる検出結果を優先させる。これは、動きベクトルによる動体検出は、動体領域の特定や動き量等を、フレーム間差分による動体検出よりも正確に求めることができるからである。
 また、動きベクトルによる検出結果が「動体なし」、フレーム間差分による検出結果が「動体あり」の場合には、統合結果を「動体あり」とする。これは、動きベクトルにより動体検出する場合には、速い動体の場合には被写体ブレにより特徴点等の抽出ができないため、動体検出することができず、「動体なし」と検出される可能性があるのに対し、フレーム間差分により動体検出する場合には、速い動体でも検出することができるからである。
 一方、動きベクトルによる検出結果が「動体あり」、フレーム間差分による検出結果が「動体なし」の場合には、統合結果を「動体あり」とする。これは、遅い動体の場合、動きベクトルによる動体検出は、精度よく検出することができるのに対し、フレーム間差分による動体検出では、検出精度が低くなり、「動体なし」と検出される可能性があるからである。
 上記第1の実施の形態によれば、遅い動体の検出精度を保持したまま、速い動体であっても動体を検出することができる利点がある。
 また、第1の実施の形態は、何らかの方法で抽出した複数の動体候補領域のそれぞれにおいて、動体/非動体の判定を行う場合や、画面全体において動体の有無を判定する場合に利用することができる。
 [第2の実施の形態]
 図7は本発明に係る動体検出方法の第2の実施の形態を示すフローチャートである。尚、図5に示した第1の実施の形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
 図7に示す第2の実施の形態は、第1の実施の形態と比較して、主として動きベクトルによる動体検出と、フレーム間差分による動体検出とを並行処理している点と、両者の動体検出の処理時間が異なり、動きベクトルによる1回の動体検出時間は、フレーム間差分による1回の動体検出時間よりも長い点である。
 一般的に、動きベクトルの算出は計算コストが高く、検出のリアルタイム性と緻密さの両立が難しい。例えば、画面内の特徴点の数(密度)を増やしたり、入力画像の解像度を上げたりすることで、より正確な動体検出が可能となるが、処理データ量の増加は計算時間に直結し、リアルタイム性とのトレードオフとなる。動体の撮影を行う場合、リアルタイム性は重要であり、検出の応答が遅くなれば動体を画角内に捕らえられなくなる可能性がある。
 第2の実施の形態は、第1の実施の形態とほぼ同じ処理であるが、動きベクトルによる動体検出とフレーム間差分による動体検出を時間的に並行に処理し、かつフレーム間差分による動体検出は、リアルタイム性を確保するために短い周期で行う。
 即ち、図7において、ステップS10’及びステップS10”では、共に動体検出に使用する画像対を入力するが、ステップS10”における画像対の入力周期は、ステップS10’における画像対の入力周期よりも短くなっている。
 従って、ステップS10’で入力した画像対に基づいて検出した動きベクトルによる動体検出結果は、一時保存しておく(ステップS15)。
 一方、ステップS10”で入力した画像対は、より処理時間の短縮化のために縮小画像にリサイズされ(ステップS11)、その後、差分画像が生成される(ステップS16)。
 フレーム間差分による動体検出はもともと位置精度が低いため、縮小画像を用いても検出精度は大きく変わらない。一方、動きベクトルによる動体検出が対象とする遅い動体に対しては、ある程度検出の間隔が空いても対応可能であるため、検出精度を落とさずに計算を実施するようにしている。
 ステップS20’では、ステップS15で保存した動きベクトルによる動体検出結果と、ステップS18におけるフレーム間差分による動体検出結果とを統合する。統合時には、2種類の検出結果の最新のものを用いる。尚、統合処理は、必ずしもフレーム間差分による動体検出の処理フローの中にある必要はない。
 上記第2の実施の形態によれば、遅い動体の計算精度を保ったまま、速い動体の検出応答性を高めることができる。
 [第3の実施の形態]
 図8は本発明に係る動体検出方法の第3の実施の形態を示すフローチャートである。
 まず、ライブビュー画像又は動画の撮影中に、撮影時刻の異なる2枚の画像(画像対)を入力する(ステップS30)。差分画像生成部454は、ステップS30で入力した画像対から差分画像を生成し(ステップS32)、動体検出処理部456は、生成されたフレーム間の差分画像により動体候補領域を抽出する(ステップS34)。
 ここで、動体候補領域としたのは、固定カメラの場合は差分領域≒動体領域であるが、非固定カメラの場合はカメラの移動によっても差分が生じるため、差分領域は動体領域とは異なる可能性があり、パニングしている場合には、動体が存在していなくても差分領域が発生するからである。
 図9の(A)部分及び(B)部分は、撮影時刻の異なる2枚の画像A,Bの一例を示す。ここで、画像Aは画像Bよりも撮影時刻が早く、また、これらの画像A、Bは、撮像装置10が右方向にパニングし、かつ動体(自動車)が右方向に移動している場合の画像である。
 図9の(A)部分及び(B)部分に示す2枚の画像A,Bの差分画像を、図9の(C)部分に示す。この画像A,Bの差分画像に基づいて、図9の(C)部分に示す動体候補領域a1,a2,a3,a4,a5を抽出する。即ち、差分画像の差分が大きい領域であって、その領域の輪郭や輪郭内の色、明るさ等により、相関のある領域別に動体候補領域a1,a2,a3,a4,a5を抽出する。また、次のステップS36で算出される動きベクトルの有無、大きさ、方向により複数の動体候補領域a1,a2,a3,a4,a5を区別するようにしてもよい。
 次に、動きベクトル算出部452は、入力した2枚の画像上の複数の特徴点・対応点の検出に基づいて特徴点ごとに動きベクトルを算出する(ステップS36)。図9の(D)部分に各動体候補領域a1,a2,a3,a4,a5の動きベクトルを示す。
 続いて、画像対がパニング中に取得されたものか否かを判別(パニング判定)する(ステップS38)。
 フレーム間差分による差分画像では使用する画像を低解像度にすることによって、手振れ程度のフレーム間差分による差分画像により手振れ程度の画像の動きは吸収できるが、パン・チルトのように大きくカメラを動かす場合には対応できない。そこで、動きベクトルによりパニング判定を行う。
 パニング判定は様々な方法が考えられるが、第3の実施の形態では、ステップS36で検出した動きベクトルに基づいてパニング判定を行う。
 具体的には、ステップS36で検出した動きベクトルに基づいて、動きベクトルの長さに応じた動きベクトルのヒストグラムを作成する。
 図10の(A)部分及び(B)部分は、パニングがない場合の動きベクトルのヒストグラムと、パニングがある場合の動きベクトルのヒストグラムの一例を示している。
 パニングがない場合、動きベクトルの長さは、ゼロ又はゼロ近傍の動きベクトルの頻度が多くなり、一方、パニングがある場合、動きベクトルの長さは、そのパニングに対応する動きベクトルの頻度が多くなる。そこで、パニング判定の基準として一定の長さLを設定し、この長さL以下となる動きベクトルの割合又は個数が、予め設定された割合又は個数よりも多い場合(図10の(A)部分に示すヒストグラムの場合)にはパニングなしと判定し、予め設定された割合又は個数よりも少ない場合((図10の(A)部分に示すヒストグラムの場合)にはパニングありと判定する。
 上記ステップS38でのパニング判定でパニングなしと判定した場合(「No」の場合)、差分領域≒動体領域となるため、全ての動体候補領域を動体領域と決定する(ステップS40)。尚、この動体領域の決定に際しては、第1の実施の形態と同様に2つの動体検出結果を統合することが好ましい。
 一方、上記ステップS38でのパニング判定でパニングありと判定した場合(「Yes」の場合)には、動体候補領域ごとに動体か非動体かの判定を行う。まず、ステップS34で抽出した動体候補領域の中から1つの動体候補領域を選択し(ステップS42)、その選択した動体候補領域に動きベクトルが存在するか否かを判別する((ステップS44)。
 動きベクトルが存在しない場合(「No」の場合)は、動体が高速なために特徴点を抽出することができていない可能性が高いため、その動体候補領域を動体領域に決定する(ステップS46)。
 一方、動きベクトルが存在する場合(「Yes」の場合)は、周囲の動体候補領域の動きベクトルとの相関を調べ(ステップS48)、相関が低い場合(「No」の場合)には、その動体候補領域を動体領域に決定し(ステップS46)、相関が高い場合(「Yes」の場合)には、カメラの動き(パニング)により動きベクトルが生じていると判定し、その動体候補領域を動体領域とはしない(ステップS50)。
 例えば、図9の(D)部分に示す例では、自動車(動体)に対応する動体候補領域a5の動きベクトルは、周囲の動体候補領域a1,a2,a3,a4の動きベクトルとの相関が低いため、動体領域と判別する。一方、背景に対応する動体候補領域a1,a2,a3,a4の動きベクトルは、それぞれ相関が高いため、非動体領域と判別する。
 次に、全ての動体候補領域の判定処理が終了したか否かを判別し(ステップS52)、終了していない場合には、ステップS42に遷移してステップS42からステップS52の処理を繰り返し、終了した場合には、ステップS30で入力した画像対に対する動体検出を終了する。
 第3の実施の形態によれば、パニングにより動きベクトルが生じていたり、被写体ブレにより動きベクトルを検出できない場合であっても移動する動体の動体領域を特定することができる。
 尚、本発明に係る動体検出装置は、カメラでの自動追尾AFに適用される場合に限らず、カメラ本体をパン/チルト動作させて動体を追尾する機構、動体を検出する監視カメラ、撮影シーン(オブジェクト)の認識等にも適用でき、その用途は、本実施の形態には限定されない。
 また、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 10…撮像装置、12…撮影レンズ、16…撮像デバイス、24…デジタル信号処理部、40…中央処理装置(CPU)、42…AF制御部、44…AE制御部、45…動体検出部、46…ROM、48…メモリ、450…入出力部、452…動きベクトル算出部、454…差分画像生成部、456…動体検出処理部

Claims (34)

  1.  連続的に撮像された画像を取得する画像取得手段と、
     前記画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出手段と、
     前記動きベクトル算出手段により算出した動きベクトルに基づいて動体の有無を検出する第1の動体検出手段と、
     前記画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成手段と、
     前記差分画像生成手段により生成した差分画像に基づいて動体の有無を検出する第2の動体検出手段と、
     前記第1の動体検出手段による検出結果と第2の動体検出手段による検出結果とを統合する統合手段であって、少なくとも前記第1の動体検出手段により動体が検出されず、前記第2の動体検出手段により動体が検出された場合には、動体が検出されたと判別する統合手段と、
     を備えた動体検出装置。
  2.  前記動きベクトル算出手段は、速い動体により前記2枚の画像に被写体ブレが発生する場合には前記速い動体に対する動きベクトルの算出が不能となり、
     前記第1の動体検出手段は、前記動きベクトル算出手段による動きベクトルの算出の不能時には、動体がないと判別する請求項1に記載の動体検出装置。
  3.  前記第1の動体検出手段は、第1の時間間隔で動体の有無を連続的に検出し、
     前記第2の動体検出手段は、前記第1の時間間隔よりも短い第2の時間間隔で動体の有無を連続的に検出し、
     前記統合手段は、前記第1の動体検出手段による最新の検出結果と第2の動体検出手段による最新の検出結果とを統合する請求項1又は2に記載の動体検出装置。
  4.  前記差分画像生成手段は、前記2枚の画像をそれぞれ縮小した縮小画像間の差分画像を生成する請求項1から3のいずれか1項に記載の動体検出装置。
  5.  前記動きベクトル算出手段は、前記撮影時刻の異なる2枚の画像のうちの一方の画像から複数の特徴点を抽出する特徴点抽出手段と、前記一方の画像の複数の特徴点にそれぞれに対応する前記2枚の画像のうちの他方の画像上の複数の対応点を検出する対応点検出手段と、を有し、前記一方の画像の複数の特徴点と該複数の特徴点に対応する他方の画像の対応点とを結ぶ動きベクトルを算出する請求項1から4のいずれか1項に記載の動体検出装置。
  6.  前記統合手段は、前記第1の動体検出手段により動体が検出され、前記第2の動体検出手段により動体が検出されない場合には、動体が検出されたと判別する請求項1から5のいずれか1項に記載の動体検出装置。
  7.  前記統合手段が動体が検出されたと判別した場合、前記動体を追尾して前記画像取得手段の焦点調節動作を行うAF制御部を備える請求項1から6のいずれか1項に記載の動体検出装置。
  8.  前記統合手段が動体が検出されたと判別した場合、前記動体検出装置をパンおよび/またはチルトさせて前記動体を追尾する追尾部を備える請求項1から6のいずれか1項に記載の動体検出装置。
  9.  前記統合手段が動体が検出されたと判別した場合、前記動体に基づいて撮影シーンを認識する撮影シーン認識部を備える請求項1から6のいずれか1項に記載の動体検出装置。
  10.  連続的に撮像された画像を取得する画像取得手段と、
     前記画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成手段と、
     前記差分画像生成手段により生成した差分画像に基づいて動体候補領域を抽出する動体候補領域抽出手段と、
     前記画像取得手段が取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出手段と、
     前記撮影時刻の異なる2枚の画像がパニングにより取得されたものか否かを判定するパニング判定手段と、
     前記動きベクトル算出手段により算出された動きベクトル及び前記パニング判定手段によるパニング判定結果に基づいて前記動体候補領域抽出手段により抽出された動体候補領域が動体領域か否かを判定する判定する動体領域判定手段と、
     を備えた動体検出装置。
  11.  前記動体領域判定手段は、前記パニング判定手段によりパニングと判定された場合において、
     前記動体候補領域に前記動きベクトルが存在しない場合には、該動体候補領域を動体領域と判定し、
     前記動体候補領域に前記動きベクトルが存在し、かつ周囲の動きベクトルとの相関が低い場合には、該動体候補領域を動体領域と判定し、
     前記動体候補領域に前記動きベクトルが存在し、かつ周囲の動きベクトルとの相関が高い場合には、該動体候補領域を動体領域と判定しない請求項10に記載の動体検出装置。
  12.  前記動体領域判定手段は、前記パニング判定手段によりパニングなしと判定された場合には、前記動体候補領域を動体領域と判定する請求項11に記載の動体検出装置。
  13.  前記パニング判定手段は、前記動きベクトル算出手段により算出された動きベクトルに基づいてパニング判定する請求項10から12のいずれか1項に記載の動体検出装置。
  14.  前記パニング判定手段は、前記動きベクトル算出手段により算出された動きベクトルの長さが一定以下となる動きベクトルの割合又は個数が、予め設定された割合又は個数よりも少ない場合にはパニングありと判定し、予め設定された割合又は個数よりも多い場合にはパニングなしと判定する請求項13に記載の動体検出装置。
  15.  前記動体領域判定手段が前記動体候補領域を動体領域と判定した場合、前記動体領域を追尾して前記画像取得手段の焦点調節動作を行うAF制御部を備える請求項10から14のいずれか1項に記載の動体検出装置。
  16.  前記動体領域判定手段が前記動体候補領域を動体領域と判定した場合、前記動体検出装置をパンおよび/またはチルトさせて前記動体領域を追尾する追尾部を備える請求項10から14のいずれか1項に記載の動体検出装置。
  17.  前記動体領域判定手段が前記動体候補領域を動体領域と判定した場合、前記動体領域に基づいて撮影シーンを認識する撮影シーン認識部を備える請求項10から14のいずれか1項に記載の動体検出装置。
  18.  動体検出装置が、
     連続的に撮像された画像を取得する画像取得工程と、
     前記取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出工程と、
     前記算出した動きベクトルに基づいて動体の有無を検出する第1の動体検出工程と、
     前記取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成工程と、
     前記生成した差分画像に基づいて動体の有無を検出する第2の動体検出工程と、
     前記第1の動体検出工程による検出結果と第2の動体検出工程による検出結果とを統合する統合工程であって、少なくとも前記第1の動体検出工程により動体が検出されず、前記第2の動体検出工程により動体が検出された場合には、動体が検出されたと判別する統合工程と、
     を実行する動体検出方法。
  19.  前記動きベクトル算出工程は、速い動体により前記2枚の画像に被写体ブレが発生する場合には前記速い動体に対する動きベクトルの算出が不能となり、
     前記第1の動体検出工程は、前記動きベクトル算出工程による動きベクトルの算出の不能時には、動体がないと判別する請求項18に記載の動体検出方法。
  20.  前記第1の動体検出工程は、第1の時間間隔で動体の有無を連続的に検出し、
     前記第2の動体検出工程は、前記第1の動体検出工程による動体検出と並行して、前記第1の時間間隔よりも短い第2の時間間隔で動体の有無を連続的に検出し、
     前記統合工程は、前記第1の動体検出工程による最新の検出結果と第2の動体検出工程による最新の検出結果とを統合する請求項18又は19に記載の動体検出方法。
  21.  前記差分画像生成工程は、前記2枚の画像をそれぞれ縮小し、その縮小した縮小画像間の差分画像を生成する請求項18から20のいずれか1項に記載の動体検出方法。
  22.  前記動きベクトル算出工程は、前記撮影時刻の異なる2枚の画像のうちの一方の画像から複数の特徴点を抽出し、前記一方の画像の複数の特徴点にそれぞれに対応する前記2枚の画像のうちの他方の画像上の複数の対応点を検出し、前記一方の画像の複数の特徴点と該複数の特徴点に対応する他方の画像の対応点とを結ぶ動きベクトルを算出する請求項18から21のいずれか1項に記載の動体検出方法。
  23.  前記統合工程は、前記第1の動体検出工程により動体が検出され、前記第2の動体検出工程により動体が検出されない場合には、動体が検出されたと判別する請求項18から22のいずれか1項に記載の動体検出方法。
  24.  前記統合工程が動体が検出されたと判別した場合、前記動体を追尾して前記画像取得工程の焦点調節動作を行うAF制御工程を実行する請求項18から23のいずれか1項に記載の動体検出方法。
  25.  前記統合工程が動体が検出されたと判別した場合、前記動体検出装置をパンおよび/またはチルトさせて前記動体を追尾する追尾工程を実行する請求項18から23のいずれか1項に記載の動体検出方法。
  26.  前記統合工程が動体が検出されたと判別した場合、前記動体に基づいて撮影シーンを認識する撮影シーン認識工程を実行する請求項18から23のいずれか1項に記載の動体検出方法。
  27.  動体検出装置が、
     連続的に撮像された画像を取得する画像取得工程と、
     前記取得した画像のうちの撮影時刻の異なる2枚の画像の差分画像を生成する差分画像生成工程と、
     前記生成した差分画像に基づいて動体候補領域を抽出する動体候補領域抽出工程と、
     前記取得した画像のうちの撮影時刻の異なる2枚の画像に基づいて被写体の動きの大きさ及び方向を表わす動きベクトルを算出する動きベクトル算出工程と、
     前記撮影時刻の異なる2枚の画像がパニングにより取得されたものか否かを判定するパニング判定工程と、
     前記動きベクトル算出工程により算出された動きベクトル及び前記パニング判定工程によるパニング判定結果に基づいて前記動体候補領域抽出工程により抽出された動体候補領域が動体領域か否かを判定する判定する動体領域判定工程と、
     を実行する動体検出方法。
  28.  前記動体領域判定工程は、前記パニング判定工程によりパニングと判定された場合において、
     前記動体候補領域に前記動きベクトルが存在しない場合には、該動体候補領域を動体領域と判定し、
     前記動体候補領域に前記動きベクトルが存在し、かつ周囲の動きベクトルとの相関が低い場合には、該動体候補領域を動体領域と判定し、
     前記動体候補領域に前記動きベクトルが存在し、かつ周囲の動きベクトルとの相関が高い場合には、該動体候補領域を動体領域と判定しない請求項27に記載の動体検出方法。
  29.  前記動体領域判定工程は、前記パニング判定工程によりパニングなしと判定された場合には、前記動体候補領域を動体領域と判定する請求項28に記載の動体検出方法。
  30.  前記パニング判定工程は、前記動きベクトル算出工程により算出された動きベクトルに基づいてパニング判定する請求項27から29のいずれか1項に記載の動体検出方法。
  31.  前記パニング判定工程は、前記動きベクトル算出工程により算出された動きベクトルの長さが一定以下となる動きベクトルの割合又は個数が、予め設定された割合又は個数よりも少ない場合にはパニングありと判定し、予め設定された割合又は個数よりも多い場合にはパニングなしと判定する請求項30に記載の動体検出方法。
  32.  前記動体領域判定工程が前記動体候補領域を動体領域と判定した場合、前記動体領域を追尾して前記画像取得工程の焦点調節動作を行うAF制御工程を実行する請求項27から31のいずれか1項に記載の動体検出方法。
  33.  前記動体領域判定工程が前記動体候補領域を動体領域と判定した場合、前記動体検出装置をパンおよび/またはチルトさせて前記動体領域を追尾する追尾工程を実行する請求項27から31のいずれか1項に記載の動体検出方法。
  34.  前記動体領域判定工程が前記動体候補領域を動体領域と判定した場合、前記動体領域に基づいて撮影シーンを認識する撮影シーン認識工程を実行する請求項27から31のいずれか1項に記載の動体検出方法。
PCT/JP2012/067547 2011-08-10 2012-07-10 動体検出装置及び方法 Ceased WO2013021767A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280039032.1A CN103733607B (zh) 2011-08-10 2012-07-10 用于检测运动物体的装置和方法
JP2013527937A JP5507014B2 (ja) 2011-08-10 2012-07-10 動体検出装置及び方法
US14/167,651 US9542754B2 (en) 2011-08-10 2014-01-29 Device and method for detecting moving objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011175186 2011-08-10
JP2011-175186 2011-08-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/167,651 Continuation US9542754B2 (en) 2011-08-10 2014-01-29 Device and method for detecting moving objects

Publications (1)

Publication Number Publication Date
WO2013021767A1 true WO2013021767A1 (ja) 2013-02-14

Family

ID=47668287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/067547 Ceased WO2013021767A1 (ja) 2011-08-10 2012-07-10 動体検出装置及び方法

Country Status (4)

Country Link
US (1) US9542754B2 (ja)
JP (1) JP5507014B2 (ja)
CN (1) CN103733607B (ja)
WO (1) WO2013021767A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138319A (ja) * 2014-01-21 2015-07-30 三菱電機株式会社 物体検出装置、物体検出方法、および物体検出プログラム
WO2016084611A1 (ja) * 2014-11-26 2016-06-02 ソニー株式会社 画像処理装置および方法、並びに、プログラム
WO2016117107A1 (ja) * 2015-01-23 2016-07-28 オリンパス株式会社 内視鏡装置及び内視鏡装置のフォーカス制御方法
JP2019168251A (ja) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド 形状測定装置、形状測定方法及びプログラム
JP2021118484A (ja) * 2020-01-28 2021-08-10 株式会社チャオ ゲートウェイ装置、ゲートウェイプログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体、ならびにカメラ映像転送方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6139706B2 (ja) * 2013-02-04 2017-05-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド 移動物体を検出するための方法及びシステム
JP6157242B2 (ja) * 2013-06-28 2017-07-05 キヤノン株式会社 画像処理装置及び画像処理方法
KR102289261B1 (ko) * 2014-10-30 2021-08-12 한화테크윈 주식회사 움직임 영역 검출 장치 및 방법
WO2016151976A1 (ja) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
US9591237B2 (en) 2015-04-10 2017-03-07 Qualcomm Incorporated Automated generation of panning shots
CN106157328B (zh) * 2015-04-20 2019-05-03 欧姆龙株式会社 运动判定装置、运动判定方法
CN106324945A (zh) * 2015-06-30 2017-01-11 中兴通讯股份有限公司 非接触式自动对焦方法和装置
HK1203289A2 (en) * 2015-07-07 2015-10-23 香港生产力促进局 A method and a device for detecting moving object
US10482610B2 (en) * 2017-11-01 2019-11-19 Adobe Inc. Detection of partially motion-blurred video frames
US11494922B2 (en) * 2018-03-23 2022-11-08 Nec Corporation Object tracking device, object tracking method, and object tracking program
US10999374B2 (en) 2019-04-26 2021-05-04 Samsara Inc. Event detection system
US11494921B2 (en) 2019-04-26 2022-11-08 Samsara Networks Inc. Machine-learned model based event detection
US12056922B2 (en) * 2019-04-26 2024-08-06 Samsara Inc. Event notification system
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US11787413B2 (en) 2019-04-26 2023-10-17 Samsara Inc. Baseline event detection system
CN110796041B (zh) 2019-10-16 2023-08-18 Oppo广东移动通信有限公司 主体识别方法和装置、电子设备、计算机可读存储介质
JP7235137B2 (ja) * 2019-11-28 2023-03-08 日本電信電話株式会社 監視システム、監視方法、および監視プログラム
CN115210758B (zh) * 2020-02-19 2025-07-29 Oppo广东移动通信有限公司 运动模糊稳健的图像特征匹配
JP7418696B2 (ja) * 2020-09-17 2024-01-22 株式会社Jvcケンウッド 画像処理装置、及び画像処理プログラム
US20230196584A1 (en) * 2021-12-20 2023-06-22 Industrial Technology Research Institute Object detection method and object detection system for video

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04219080A (ja) * 1990-10-18 1992-08-10 Olympus Optical Co Ltd ビデオカメラの露光制御装置
JPH04328689A (ja) * 1991-04-30 1992-11-17 Nippon Telegr & Teleph Corp <Ntt> 動画像からの移動物体抽出方法
JPH0869597A (ja) * 1994-08-30 1996-03-12 Matsushita Electric Ind Co Ltd 動きベクトル検出手段を用いた監視装置
JP2001092976A (ja) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd 移動体の検知方法
JP2004310595A (ja) * 2003-04-09 2004-11-04 Ntt Data Corp 動物体検出装置および動物体検出方法
JP2010267055A (ja) * 2009-05-14 2010-11-25 Sony Corp 動体検出装置と動体検出方法およびコンピュータ・プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2667973B2 (ja) 1991-03-01 1997-10-27 警察大学校長 移動体監視装置
JP3473064B2 (ja) 1992-11-20 2003-12-02 ソニー株式会社 画像動きベクトル検出装置及びビデオカメラ
US6034723A (en) 1992-11-20 2000-03-07 Sony Corporation Image movement vector detection apparatus
AU2001290608A1 (en) * 2000-08-31 2002-03-13 Rytec Corporation Sensor and imaging system
KR100426174B1 (ko) * 2001-10-29 2004-04-06 삼성전자주식회사 영상압축 알고리즘을 이용한 카메라 제어방법
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
US20050041111A1 (en) * 2003-07-31 2005-02-24 Miki Matsuoka Frame adjustment device and image-taking device and printing device
WO2006082967A1 (ja) * 2005-02-07 2006-08-10 Matsushita Electric Industrial Co., Ltd. 撮像装置
JP4623368B2 (ja) * 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
US7364306B2 (en) * 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
US7907183B2 (en) * 2006-10-30 2011-03-15 Panasonic Corporation Image generation apparatus and image generation method for generating a new video sequence from a plurality of video sequences
JP4879031B2 (ja) * 2007-01-11 2012-02-15 三洋電機株式会社 運転支援システム、画像処理装置及びずれ検出方法
JP5105945B2 (ja) * 2007-04-19 2012-12-26 キヤノン株式会社 雲台装置及びその制御方法
TWI355615B (en) * 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
WO2009069026A2 (en) * 2007-11-28 2009-06-04 Koninklijke Philips Electronics N.V. 3d visualization
JP5213670B2 (ja) * 2008-01-16 2013-06-19 三洋電機株式会社 撮像装置及びぶれ補正方法
BRPI0904620A2 (pt) * 2008-09-30 2020-08-18 Panasonic Corporation meio de gravação , dispositivo de reprodução, sistema lsi, método de reprodução,óculos, e dispositivo de exibição para imagens 3d
JP5284048B2 (ja) * 2008-11-12 2013-09-11 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
JP5300585B2 (ja) * 2009-05-13 2013-09-25 キヤノン株式会社 情報処理装置、情報処理方法
JP5300591B2 (ja) * 2009-05-21 2013-09-25 キヤノン株式会社 画像処理装置およびその方法
EP2394710B1 (en) * 2010-06-11 2020-06-10 BANDAI NAMCO Entertainment Inc. Image generation system, image generation method, and information storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04219080A (ja) * 1990-10-18 1992-08-10 Olympus Optical Co Ltd ビデオカメラの露光制御装置
JPH04328689A (ja) * 1991-04-30 1992-11-17 Nippon Telegr & Teleph Corp <Ntt> 動画像からの移動物体抽出方法
JPH0869597A (ja) * 1994-08-30 1996-03-12 Matsushita Electric Ind Co Ltd 動きベクトル検出手段を用いた監視装置
JP2001092976A (ja) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd 移動体の検知方法
JP2004310595A (ja) * 2003-04-09 2004-11-04 Ntt Data Corp 動物体検出装置および動物体検出方法
JP2010267055A (ja) * 2009-05-14 2010-11-25 Sony Corp 動体検出装置と動体検出方法およびコンピュータ・プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138319A (ja) * 2014-01-21 2015-07-30 三菱電機株式会社 物体検出装置、物体検出方法、および物体検出プログラム
WO2016084611A1 (ja) * 2014-11-26 2016-06-02 ソニー株式会社 画像処理装置および方法、並びに、プログラム
WO2016117107A1 (ja) * 2015-01-23 2016-07-28 オリンパス株式会社 内視鏡装置及び内視鏡装置のフォーカス制御方法
CN107205626A (zh) * 2015-01-23 2017-09-26 奥林巴斯株式会社 内窥镜装置和内窥镜装置的对焦控制方法
US20170319051A1 (en) * 2015-01-23 2017-11-09 Olympus Corporation Endoscope device and focus control method for endoscope device
JPWO2016117107A1 (ja) * 2015-01-23 2017-12-14 オリンパス株式会社 内視鏡装置及び内視鏡装置のフォーカス制御方法
CN107205626B (zh) * 2015-01-23 2019-09-03 奥林巴斯株式会社 内窥镜装置和内窥镜装置的对焦控制方法
US10820787B2 (en) 2015-01-23 2020-11-03 Olympus Corporation Endoscope device and focus control method for endoscope device
JP2019168251A (ja) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド 形状測定装置、形状測定方法及びプログラム
JP7000940B2 (ja) 2018-03-22 2022-01-19 株式会社Jvcケンウッド 形状測定装置、形状測定方法及びプログラム
JP2021118484A (ja) * 2020-01-28 2021-08-10 株式会社チャオ ゲートウェイ装置、ゲートウェイプログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体、ならびにカメラ映像転送方法

Also Published As

Publication number Publication date
CN103733607B (zh) 2015-08-26
JP5507014B2 (ja) 2014-05-28
US9542754B2 (en) 2017-01-10
US20140146182A1 (en) 2014-05-29
CN103733607A (zh) 2014-04-16
JPWO2013021767A1 (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
JP5507014B2 (ja) 動体検出装置及び方法
JP5394296B2 (ja) 撮像装置及び画像処理方法
JP5005570B2 (ja) 画像処理装置およびプログラム
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
KR20140032318A (ko) 노출 조건을 주기적으로 변화시키는 촬상장치, 촬상장치의 제어방법, 및 기억매체
JP4605217B2 (ja) 撮影装置及びそのプログラム
KR101004914B1 (ko) 촬상장치 및 촬상방법
JP2000188713A (ja) 自動焦点制御装置及びその合焦動作決定方法
JP2006067452A (ja) 映像記録装置、および電子カメラ
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013110754A (ja) カメラ装置、及びその撮影方法とプログラム
JP4645413B2 (ja) 撮像装置
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP4678061B2 (ja) 画像処理装置、それを備えたデジタルカメラ及び画像処理プログラム
JP2010193324A (ja) カメラ装置、及びその撮影方法とプログラム
JP2006246354A (ja) 撮影装置及び撮影プログラム
JP4877186B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2015232620A (ja) 撮像装置、制御方法およびプログラム
JP5962974B2 (ja) 撮像装置、撮像方法、及びプログラム
JP5597942B2 (ja) 電子カメラ
JP4888829B2 (ja) 動画処理装置、動画撮影装置および動画撮影プログラム
JP5415208B2 (ja) 撮像装置
JP5644180B2 (ja) 撮像装置、撮像方法及びプログラム
JP2014138378A (ja) 撮像装置、その制御方法、および制御プログラム
JP2014066959A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12821922

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013527937

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12821922

Country of ref document: EP

Kind code of ref document: A1