JP2019168886A - Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program - Google Patents
Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program Download PDFInfo
- Publication number
- JP2019168886A JP2019168886A JP2018055577A JP2018055577A JP2019168886A JP 2019168886 A JP2019168886 A JP 2019168886A JP 2018055577 A JP2018055577 A JP 2018055577A JP 2018055577 A JP2018055577 A JP 2018055577A JP 2019168886 A JP2019168886 A JP 2019168886A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- detection
- subject
- region
- movement vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、検出体領域を検出する技術に関する。 The present invention relates to a technique for detecting a detection body region.
現状では、複数の検出体を含む検出体グループの顔領域の移動量を検出する技術が知られている(例えば、特許文献参照)。 At present, a technique for detecting the amount of movement of the face area of a detection body group including a plurality of detection bodies is known (see, for example, Patent Literature).
しかしながら、特許文献1の技術は、撮像された複数の画像に含まれる、複数の検出体を含む検出体グループのみを検出する技術であり、複数の検出体を含む検出体グループのみを検出するだけでは不十分であるという問題があった。
However, the technique of
本発明は、このような問題に鑑みてなされたものであり、撮像された複数の画像に含まれる、複数の検出体を含む検出体グループのみならず非検出体も適正に検出することができる技術を提供することを目的とする。 The present invention has been made in view of such a problem, and can detect not only a detection body group including a plurality of detection bodies but also a non-detection body included in a plurality of captured images. The purpose is to provide technology.
前記目的を達成するため、本発明に係る検出体領域検出装置の一様態は、
撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段と、
を備える、
ことを特徴とする。
In order to achieve the above object, an aspect of the detection object region detection apparatus according to the present invention is as follows:
Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Comprising
It is characterized by that.
前記目的を達成するため、本発明に係る撮像装置の一様態は、
複数の画像を撮像する撮像手段と、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段と、
を備える、
ことを特徴とする。
In order to achieve the above object, an aspect of the imaging apparatus according to the present invention is:
An imaging means for imaging a plurality of images;
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging;
Comprising
It is characterized by that.
前記目的を達成するため、本発明に係る飛行装置の一様態は、
複数の画像を撮像する撮像手段と、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
自装置を空中で飛行させる推進手段と、
前記自装置の飛行を、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、に基づいて制御する飛行制御手段と、
を備える、
ことを特徴とする。
In order to achieve the above object, an aspect of the flying device according to the present invention is:
An imaging means for imaging a plurality of images;
An acquisition unit that acquires movement vectors included in a plurality of images captured by the imaging unit; an entire movement vector of a subject group that includes a plurality of subjects that are imaging targets acquired by the acquisition unit; and an imaging target Detection means for distinguishing and detecting at least one region of the subject group and at least one region of the non-subject based on a non-subject movement vector that is not
Propulsion means for flying the device in the air;
Flight control means for controlling the flight of the device based on at least a part of the subject group and at least a part of the non-subject;
Comprising
It is characterized by that.
また、前記目的を達成するため、本発明に係る検出体領域検出方法の一様態は、
撮像された複数の画像に含まれる移動ベクトルを取得する取得工程と、
前記取得工程において取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出工程と、
を含む、
ことを特徴とする。
In order to achieve the above object, an aspect of the detection region detection method according to the present invention is:
An acquisition step of acquiring a movement vector included in a plurality of captured images;
Based on the entire movement vector of the detection body group including the plurality of detection bodies that are detection targets acquired in the acquisition step, and the movement vector of the non-detection body that is not the detection target, at least of the detection body groups A detection step of distinguishing and detecting one part region and at least one part region of the non-detection body;
including,
It is characterized by that.
また、前記目的を達成するため、本発明に係る撮像方法の一様態は、
複数の画像を撮像する第1撮像工程と、
前記第1撮像工程において撮像された複数の画像に含まれる移動ベクトルを取得する取得工程と、
前記取得工程において取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出工程と、
前記検出工程において検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように撮像する第2撮像工程と、
を含む、
ことを特徴とする。
In order to achieve the above object, an aspect of the imaging method according to the present invention is as follows:
A first imaging step of imaging a plurality of images;
An acquisition step of acquiring movement vectors included in a plurality of images imaged in the first imaging step;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target, acquired in the acquisition step, an area of at least a part of the subject group And a detection step of distinguishing and detecting at least a part of the non-subject area;
The imaging region determined based on at least one region of the subject group detected in the detection step is set as an imaging target, and second imaging is performed so that at least one region of the non-subject does not cover the imaging region. Imaging process;
including,
It is characterized by that.
また、前記目的を達成するため、本発明に係るプログラムの一様態は、
検出体領域検出装置のコンピュータを、
撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段、
として機能させる、
ことを特徴とする。
In order to achieve the above object, an aspect of the program according to the present invention is as follows:
The computer of the detection object region detection device,
Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Function as
It is characterized by that.
また、前記目的を達成するため、本発明に係るプログラムの一様態は、
複数の画像を撮像する撮像手段を備える撮像装置のコンピュータを、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段、
として機能させる、
ことを特徴とする。
In order to achieve the above object, an aspect of the program according to the present invention is as follows:
A computer of an imaging apparatus provided with imaging means for imaging a plurality of images,
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging,
Function as
It is characterized by that.
本発明によれば、撮像された複数の画像に含まれる、複数の検出体を含む検出体グループのみならず非検出体も適正に検出することが可能になる。 According to the present invention, it is possible to appropriately detect not only a detection body group including a plurality of detection bodies but also a non-detection body included in a plurality of captured images.
[第1の実施形態]
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
[First Embodiment]
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[飛行装置]
図1は、本発明を適用した一実施形態の飛行装置100の外観を示す図である。具体的には、図1(a)は、モータフレーム102を閉じた状態の飛行装置100の外観を示す図であり、図1(b)は、モータフレーム102を開いた状態の飛行装置100の外観を示す図である。
[Flying device]
FIG. 1 is a diagram showing an appearance of a flying
図1(a)及び図1(b)に示すように、飛行装置100は、メインフレーム101と、4つのモータフレーム102とにより機体を構成している。
As shown in FIGS. 1A and 1B, the flying
モータフレーム102は、それぞれヒンジ103を介してメインフレーム101に取り付けられている。また、モータフレーム102は、モータ105を支持できるように構成されており、モータ105のモータ軸にはロータとしてのロータブレード104が固定されている。また、モータフレーム102の外周部にはフィンガーガード102aが設けられている。4組のモータ105と4組のロータブレード104と4組のモータドライバ404(後述)は、推進手段を構成している。
The motor frames 102 are attached to the
メインフレーム101の中心部には、カメラ部(撮像手段)106が取り付けられている。カメラ部106は、飛行装置100を水平面に置いた状態で撮像光学系の光軸が水平となっている。また、メインフレーム101の内部には、図2で後述する各種制御機器が収められている。
At the center of the
ヒンジ103は、図1(a)に示すように、飛行装置100の投げ上げに適した「閉じた状態」と、図1(b)に示すように、飛行装置100の飛行に適した「開いた状態」と、に各モータフレーム102を変形できるように、0度〜90度の角度範囲で回動自在になっている。
The
図2は、飛行装置100のシステム構成の一例を示す図である。
図2に示すように、コントローラ(制御装置)401には、カメラ部106(図1参照)を含むカメラシステム402や、例えば、飛行装置100と基準面との距離(高度)を取得するための超音波センサ(距離センサ)403a、飛行装置100の絶対高度(海抜)を取得するための気圧センサ(高度センサ)403b、加速度センサ403c等から構成されるフライトセンサ403、それぞれ#1から#4までの各モータ105(図1参照)を駆動する#1から#4までのモータドライバ404、バッテリ406の電圧をモニタしながら各モータドライバ404に電力を供給するパワーセンサ405が接続される。
なお、特には図示しないが、バッテリ406の電力は、401〜405の各制御ユニットにも供給される。コントローラ401は、フライトセンサ403から、飛行装置100の高度に関する情報をリアルタイムで取得する。
また、コントローラ401は、パワーセンサ405を介して、バッテリ406の電圧をモニタしながら、#1から#4までの各モータドライバ404に、それぞれパルス幅変調に基づくデューティ比による電力指示信号を送信する。これにより、#1から#4までのモータドライバ404はそれぞれ、#1から#4までのモータ105の回転速度を制御する。
FIG. 2 is a diagram illustrating an example of a system configuration of the flying
As shown in FIG. 2, the controller (control device) 401 includes a
Although not particularly illustrated, the power of the
Also, the
次に、飛行装置100の飛行開始までの動作について説明する。
飛行装置100は、各モータフレーム102を、投げ上げに適した「閉じた状態」(図1(a)参照)と、飛行に適した「開いた状態」(図1(b)参照)と、の2つの形状に保持することが可能である。そして、ユーザは、「閉じた状態」で、飛行装置100をボールのように空中に投げ上げることができ、その後、図2に示すコントローラ401の制御により、落下状態に移るときに飛行装置100が「開いた状態」に変化し、予め定められている目的高度(例えば、地面(基準面)から2mの高さ位置(基準面から第1の距離だけ離れた高度))を飛行する飛行状態になってカメラ部106による撮像を行うことができるようになっている。すなわち、コントローラ401は、地面(基準面)から2mの高さ位置(基準面から第1の距離だけ離れた高度)で自装置が飛行するように4組のモータ105と4組のロータブレード104と4組のモータドライバ404とを制御している。
Next, the operation until the flight start of the flying
The flying
[カメラシステム]
図3は、本発明の検出体領域検出装置及び撮像装置を適用したカメラシステム402の概略構成を示すブロック図である。
図3に示すように、カメラシステム402は、中央制御部1と、メモリ2と、カメラ部106と、撮像制御部4と、画像データ生成部5と、記憶部6と、画像記録部7と、ビーコン受信機3とを備えている。
また、中央制御部1、メモリ2、カメラ部106、撮像制御部4、画像データ生成部5、記憶部6、画像記録部7及びビーコン受信機3は、バスライン10を介して接続されている。また、前述した飛行装置100のコントローラ401もバスライン10を介して前記構成と接続されている。
[Camera system]
FIG. 3 is a block diagram illustrating a schematic configuration of a
As shown in FIG. 3, the
The
中央制御部(制御手段)1は、カメラシステム402の撮像に関する各種の制御及び処理を実行するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、カメラシステム402用の各種処理プログラム(図示略)に従って各種の制御動作及び処理を行う。
The central control unit (control means) 1 executes various controls and processes related to imaging of the
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や撮像制御部4等の各部によって処理されるデータ等を一時的に記憶するものである。
The
カメラ部106は、被写体を撮像する。具体的には、カメラ部106は、レンズ部106aと、電子撮像部106bとを備えている。
The
レンズ部106aは、例えば、レンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部106bは、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部106aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、カメラ部106は、レンズ部106aを通過する光の量を調整する絞りを備えていても良い。レンズ部106aを用いたズーム機構を備える構成としても良い。
The
The
Although illustration is omitted, the
画像データ生成部5は、カメラ部106から転送されたフレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号及び色差信号(YUVデータ)を生成する。
また、画像データ生成部5は、生成した画像データをバッファメモリとして使用されるメモリ2や画像記録部7に転送する。
The image
Further, the image
記憶部6は、読み書き可能な不揮発性のメモリであり、例えば、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)である。この記憶部6には、後述する特定の被写体の顔画像データファイル61、撮像制御部4を後述する取得手段41と、決定手段42と、検出手段43と、飛行制御手段44と、付与手段45として機能させるプログラム62等が格納されている。
The storage unit 6 is a readable / writable nonvolatile memory, such as a flash memory or an EEPROM (Electrically Erasable and Programmable Read Only Memory). The storage unit 6 stores a face image data file 61 of a specific subject, which will be described later, and an
画像記録部7は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部7は、画像データ生成部5の符号化部(図示略)により所定の符号化方式で符号化された各種の画像の画像データを記録する。
本実施形態では、画像記録部7は、例えば、後述する撮像領域の撮像が行われた場合の撮像画像データ等を記録する。
The image recording unit 7 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 7 records image data of various images encoded by a coding unit (not shown) of the image
In the present embodiment, the image recording unit 7 records, for example, captured image data when an imaging region described later is captured.
なお、画像記録部7は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。 Note that the image recording unit 7 may be configured such that, for example, a recording medium (not shown) is detachable, and data reading from the mounted recording medium and data writing to the recording medium are controlled.
[撮像制御部]
撮像制御部4は、カメラ部106による被写体の撮像を制御する。
撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。撮像制御部4は、飛行装置100の飛行中において、タイミング発生器、ドライバにより電子撮像部106bを走査駆動して、所定周期毎に光学像を電子撮像部106bにより二次元の画像信号に変換させ、電子撮像部106bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部5に出力させる。
[Imaging control unit]
The
Although not shown, the
つまり、撮像制御部4は、飛行装置100の飛行中において、所定のフレーム周期で連続して撮像を行い、これらの撮像画像の画像データをメモリ2内に記憶する。なお、これらのメモリ2内に記憶される画像データは作業用の画像データである。
That is, the
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス調整処理)等の被写体を撮像する際の条件の調整制御を行う。
In addition, the
また、本実施形態において、撮像制御部4は、取得手段41と、決定手段42と、検出手段43と、飛行制御手段44と、付与手段45とを具備している。
なお、撮像制御部4は、記憶部6のプログラム62を実行して前記各手段41〜45として機能するコンピュータである。
なお、前記各手段41〜45は、例えば、所定のロジック回路から構成しても良い。
In the present embodiment, the
The
Each of the
[撮像制御部:取得手段]
図4(a)〜図4(d)は撮像制御部4が行う各種の処理の説明図である。
取得手段41は、複数の作業用の画像データの画像に含まれる複数の動体である人物の中から、撮像対象である複数の被写体(検出体)を含む被写体グループ(検出体グループ)の全体の移動ベクトルと、撮像対象ではない非被写体(非検出体)の移動ベクトルと、を取得するための処理を行う。
このため、取得手段41は、連続する複数の作業用の画像データの画像からの人物検出、検出された人物の移動ベクトルの取得、被写体及び被写体グループの抽出、被写体グループの全体の移動ベクトルの取得の各処理を実行する。
[Imaging control unit: acquisition means]
FIG. 4A to FIG. 4D are explanatory diagrams of various processes performed by the
The
For this reason, the
人物検出は、時系列的に連続する2つの作業用の画像データの画像の各々に対して実行される。
取得手段41は、例えば、人物検出用のパラメータが定められたパターン認識用の識別器を備えており、前記識別器を用いて人物の検出を実行する。又は、取得手段41は、顔検出を行い、検出された顔に連なる全身像を人物と認識することで人物検出を行っても良い。
The person detection is executed for each of two images of image data for work that are continuous in time series.
The
人物の移動ベクトルは、2つの作業用の画像データの画像中の同一人物の位置変化を求めることで取得される。即ち、2つの作業用の画像データの人物の位置を比較することで、人物の位置変化方向と位置変化量とを求め、これらから人物の移動ベクトルを求めることができる。 The movement vector of the person is acquired by obtaining the position change of the same person in the images of the two work image data. That is, by comparing the positions of the persons in the two work image data, the position change direction and the position change amount of the person can be obtained, and the movement vector of the person can be obtained from these.
図4(a)〜図4(c)は、時系列的に順番に連続する3つの作業用の画像データの画像である。図示のように、画像の範囲と画角Gの範囲とは一致している。
例えば、図4(b)と図4(c)の前後する2つの作業用の画像データの画像からそれぞれの人物の移動ベクトルを求めると、図4(d)に示すように、画角G内の上から一番目の人物は右方への移動ベクトルB1が取得され、画角G内の上から二番目の人物は左方への移動ベクトルB2が取得される。また、それ以外の人物については、いずれも位置変化がなく、0(ゼロ)ベクトル(図示せず)が取得される。
FIG. 4A to FIG. 4C are images of three image data for work that are consecutive in time series. As shown in the figure, the range of the image and the range of the angle of view G match.
For example, when the movement vector of each person is obtained from the images of the two working image data before and after FIG. 4 (b) and FIG. 4 (c), as shown in FIG. The first person from the top obtains the rightward movement vector B1, and the second person from the top in the angle of view G obtains the leftward movement vector B2. Further, no position change is made for any other person, and a 0 (zero) vector (not shown) is acquired.
被写体及び被写体グループの抽出は、まず、特定の被写体の抽出から行われる。
特定の被写体は、予め決められた被写体グループの核となる被写体であり、最も撮像すべき被写体である。
特定の被写体の抽出は、前記特定の被写体となる人物について、記憶部6に顔画像データファイル61が用意されている場合には、顔画像データファイル61を用いた顔認証により行われる。
The extraction of the subject and the subject group is first performed by extracting a specific subject.
The specific subject is a subject that is the core of a predetermined subject group, and is the subject to be imaged most.
The extraction of the specific subject is performed by face authentication using the face image data file 61 when the face image data file 61 is prepared in the storage unit 6 for the person who becomes the specific subject.
また、特定の被写体となる人物に予めビーコン等の発信器を持たせている場合には、ビーコン受信機3によりビーコンの発信位置を求め、画像内のいずれの人物が特定の被写体であるかを特定する。
In addition, when a person to be a specific subject has a transmitter such as a beacon in advance, a beacon transmission position is obtained by the
そして、特定の被写体が抽出されると、被写体グループに属する他の被写体を特定する。他の被写体は、画像内の人物の中から、特定の被写体と移動ベクトルが近似するか否かにより特定する。近似の条件は、移動方向の差と移動量の差についてそれぞれ閾値を定め、前記閾値の範囲内を近似とする。
また、被写体グループに属するか否かについては、特定の被写体に対して一定の距離範囲内であることも条件として加えてもよい。
これらによって、画像内の人物の中から、特定の被写体と他の被写体とからなる被写体グループを抽出する。また、被写体グループに属さない他の人物は、非被写体と認識する。
Then, when a specific subject is extracted, another subject belonging to the subject group is specified. The other subject is specified based on whether or not the movement vector approximates the specific subject among the persons in the image. As approximation conditions, threshold values are respectively set for a difference in movement direction and a difference in movement amount, and the range of the threshold value is approximated.
Further, whether or not it belongs to the subject group may be added as a condition that it is within a certain distance range with respect to a specific subject.
As a result, a subject group including a specific subject and another subject is extracted from the persons in the image. Also, other persons who do not belong to the subject group are recognized as non-subjects.
例えば、図4(c)において、符号T1が特定の被写体である場合、図4(d)に示すように、特定の被写体T1の左右に並んだT2〜T4は、いずれも特定の被写体T1と同じ0ベクトルであることから、移動ベクトルが一致するので、他の被写体T2〜T4と認識することができる。 For example, in FIG. 4C, when the symbol T1 is a specific subject, as shown in FIG. 4D, T2 to T4 arranged on the left and right of the specific subject T1 are both the specific subject T1. Since they are the same 0 vector, the movement vectors coincide with each other, so that they can be recognized as other subjects T2 to T4.
被写体グループの全体の移動ベクトルは、抽出された全ての被写体の各々の移動ベクトルの平均から求められる。この場合、特定の被写体について比率が大きくなるように重み付けを行っても良い。またさらに、他の被写体については、特定の被写体からの距離に応じて近いもの程、比率が大きくなる様に重み付けを行っても良い。
なお、図4(d)の例の場合には、被写体T1〜T4が全て0ベクトルなので、被写体グループの全体の移動ベクトルも0ベクトルとなる。
The entire movement vector of the subject group is obtained from the average of the movement vectors of all the extracted subjects. In this case, weighting may be performed so that the ratio is increased for a specific subject. Furthermore, other subjects may be weighted such that the closer the subject is to the specific subject, the greater the ratio.
In the example of FIG. 4D, since the subjects T1 to T4 are all 0 vectors, the entire movement vector of the subject group is also a 0 vector.
[撮像制御部:検出手段]
検出手段43は、取得手段41により取得された被写体グループの全体の移動ベクトルと非被写体の移動ベクトルとに基づいて、被写体グループの全体の領域と、非被写体の領域と、背景の領域と、を区別して検出する処理を行う。
被写体グループの全体の領域は、全ての被写体を囲む領域であり、前記領域の形状は予め定められた任意の形状である。例えば、矩形、円形、長円形等としても良い。
また、被写体グループの全体の領域は、各被写体の全身を含む範囲としても良いし、各被写体の一部を含む範囲(被写体グループの1部の領域)としても良い。例えば、各被写体の上半身や顔(頭部)を含む範囲としても良い。被写体グループの全体の領域が、被写体の全身又はいずれの部位を含む範囲とすべきかについても予め任意に設定することができる。
図4(d)の場合には、各被写体T1〜T4の全身を含む矩形の領域を被写体グループの全体の領域Wとして例示している。
[Imaging control unit: detection means]
Based on the entire movement vector and non-subject movement vector of the subject group acquired by the
The entire region of the subject group is a region that surrounds all the subjects, and the shape of the region is a predetermined arbitrary shape. For example, it may be a rectangle, a circle, an oval, or the like.
Further, the entire area of the subject group may be a range including the whole body of each subject, or may be a range including a part of each subject (part of the subject group). For example, the range may include the upper body and face (head) of each subject. It can be arbitrarily set in advance whether the entire area of the subject group should be the whole body of the subject or a range including any part thereof.
In the case of FIG. 4D, a rectangular region including the whole body of each of the subjects T1 to T4 is illustrated as the entire region W of the subject group.
非被写体の領域は、各非被写体を個別に囲む領域であり、前記領域の形状は予め定められた任意の形状である。例えば、矩形、円形、長円形等としても良い。
また、非被写体の領域は、非被写体の全身を含む範囲としても良いし、非被写体の一部を含む範囲(非被写体の1部の領域)としても良い。例えば、非被写体の上半身や顔(頭部)を含む範囲としても良い。非被写体の領域が、被写体の全身又はいずれの部位を含む範囲とすべきかについても予め任意に設定することができる。
図4(d)の場合には、各非被写体NT1,NT2の顔(頭部)を含む矩形の領域を非被写体の領域Nとして例示している。
このように、顔領域を非被写体の領域Nとする場合、検出手段43は、周知の顔検出を実行し、領域の範囲を決定する。
The non-subject area is an area that individually surrounds each non-subject, and the shape of the area is a predetermined arbitrary shape. For example, it may be a rectangle, a circle, an oval, or the like.
The non-subject area may be a range including the whole body of the non-subject, or may be a range including a part of the non-subject (a part of the non-subject). For example, it may be a range including the upper body of the non-subject and the face (head). It can be arbitrarily set in advance whether the non-subject region should be the whole body of the subject or a range including any part thereof.
In the case of FIG. 4D, a rectangular area including the faces (heads) of the non-subjects NT1 and NT2 is illustrated as the non-subject area N.
As described above, when the face area is set as the non-subject area N, the
検出手段43は、前述のようにして、被写体グループの全体の領域Wと非被写体の領域Nとを検出し、これら以外の範囲を背景の領域と認識する。
As described above, the
[撮像制御部:決定手段]
決定手段42は、検出手段43により検出された被写体グループの全体の領域Wに基づいて、撮像領域Sを決定するための処理を実行する。
撮像領域Sは、全ての被写体の全部又は一部を囲む領域であり、前記領域の形状は予め定められた任意の形状である。例えば、矩形、円形、長円形等としても良い。
また、撮像領域Sは、各被写体の全身を含む範囲としても良いし、各被写体の一部を含む範囲としても良い。例えば、各被写体の上半身や顔(頭部)を含む範囲としても良い。
撮像領域Sが、被写体の全身又はいずれの部位を含む範囲とすべきかについても予め任意に設定することができる。
但し、撮像領域Sは、被写体グループの全体の領域Wよりも内側の範囲又は被写体グループの全体の領域Wと同一範囲に決定される。
図4(d)の場合には、各被写体T1〜T4の顔(頭部)を含む矩形の領域を撮像領域Sとして例示している。
このように、顔領域を撮像領域Sとする場合、決定手段42は、周知の顔検出を実行し、領域の範囲を決定する。
[Imaging control unit: determining means]
The
The imaging area S is an area surrounding all or a part of all subjects, and the shape of the area is an arbitrary shape determined in advance. For example, it may be a rectangle, a circle, an oval, or the like.
The imaging region S may be a range including the whole body of each subject or a range including a part of each subject. For example, the range may include the upper body and face (head) of each subject.
It can be arbitrarily set in advance whether the imaging region S should be a whole body or a range including any part of the subject.
However, the imaging region S is determined to be a range inside the entire region W of the subject group or the same range as the entire region W of the subject group.
In the case of FIG. 4D, a rectangular area including the faces (heads) of the subjects T1 to T4 is illustrated as the imaging area S.
As described above, when the face area is set as the imaging area S, the
[撮像制御部:付与手段]
付与手段45は、取得手段41により取得された検出体グループの全体の移動ベクトルと非検出体の移動ベクトルとに基づいて抽出された被写体グループの複数の被写体と非被写体とをそれぞれ区別して、それぞれに固有の識別子を付与するための処理を実行する。
付与手段45は、図4(d)に示すように、被写体T1〜T4については、図中の符号と同じ識別子「T1」、「T2」、「T3」、「T4」を付与し、2つある非被写体NT1,NT2については図中の符号と同じ識別子「NT1」、「NT2」を付与する。
[Imaging control unit: giving means]
The assigning
As shown in FIG. 4D, the assigning
前述のように、被写体T1〜T4と非被写体NT1,NT2とについて、全て異なる識別子を付与し、個別に識別可能としている。
付与手段45は、これらの識別子ごとに、被写体T1〜T4、非被写体NT1,NT2の画像内の位置情報や移動ベクトル情報などを関連付けてメモリ2内に記憶する。
As described above, the subjects T1 to T4 and the non-subjects NT1 and NT2 are all assigned different identifiers so that they can be individually identified.
For each of these identifiers, the assigning means 45 associates and stores in the
[撮像制御部:飛行制御手段]
飛行制御手段44は、コントローラ401を介して機体の推進手段を制御し、カメラ部106による撮像位置や範囲の調整を行う。
このため、飛行制御手段44は、遮蔽回避制御、第1の画角変動制御、第2の画角変動制御、被写体拡大制御を実行する。
[Imaging control unit: flight control means]
The
For this reason, the flight control means 44 executes shielding avoidance control, first view angle variation control, second view angle variation control, and subject enlargement control.
飛行制御手段44は、遮蔽回避制御において、撮像領域Sに非被写体の領域Nが被ることを回避するように、推進手段を制御する。
即ち、図5に示すように、撮像領域Sが設定された状態で、非被写体の領域Nが撮像領域Sの上に重なって遮蔽している場合に、飛行制御手段44は、機体の移動を行い、再度撮像を実行する。
この遮蔽回避制御の場合、機体は予め定められた方向に予め定められた距離で移動するように設定しても良い。また、遮蔽状態が繰り返し生じた場合には、毎回異なる方向に機体を移動させても良い。その場合、移動方向はランダムに変化しても良いし、決まった順番で移動方向を変えても良い。
The
That is, as shown in FIG. 5, when the imaging region S is set and the non-subject region N is overlaid on the imaging region S and shielded, the flight control means 44 moves the aircraft. And perform imaging again.
In the case of this shielding avoidance control, the airframe may be set to move in a predetermined direction at a predetermined distance. Further, when the shielding state occurs repeatedly, the aircraft may be moved in a different direction each time. In that case, the moving direction may be changed randomly, or the moving direction may be changed in a fixed order.
また、前記遮蔽回避制御において、遮蔽状態が生じた場合に、機体を現在の位置に一定時間滞留させて、非被写体NT1が撮像領域Sの前から通過するのを待ってから撮像を行う制御を行っても良い。 Further, in the shielding avoidance control, when the shielding state occurs, the aircraft is kept at the current position for a certain period of time, and the imaging is performed after waiting for the non-subject NT1 to pass from the front of the imaging region S. You can go.
飛行制御手段44は、第1の画角変動制御において、撮像領域Sに対して画角Gの位置又は大きさ(視界の広さ)が変動するように、推進手段を制御する。
撮像領域Sが最初に設定された状態では、特定の被写体T1以外の他の被写体が画角G外に存在する場合がある。
そこで、図6に示すように、飛行制御手段44は、撮像領域Sの一部又は全部が画角Gの範囲外とならない範囲で、前記画角Gが前後左右のいずれかに移動するように機体を動作させ、又は、画角Gの大きさ(視界の広さ)が拡大するように機体を後退させる制御を実行する。また、この画角変動後に、再度、撮像領域Sを設定する。
The
In the state in which the imaging region S is initially set, there may be a subject other than the specific subject T1 outside the angle of view G.
Therefore, as shown in FIG. 6, the flight control means 44 moves the view angle G to the front, back, left, or right within a range in which part or all of the imaging region S does not fall outside the range of the view angle G. Control is performed to operate the aircraft or to move the aircraft backward so that the size of the angle of view G (the width of the field of view) increases. In addition, the imaging region S is set again after the change in the angle of view.
この第1の画角変動制御の場合、機体が予め定められた方向に予め定められた距離で移動することで画角の位置を変化させるように設定しても良い。また、機体が予め定められた方向に予め定められた角度範囲で旋回することで画角の位置を変化させるように設定しても良い。
また、上下左右の各方向に画角Gを移動させて、その都度、撮像領域Sの再設定を行っても良い。
また、機体を後退させる場合も、予め定められた距離で後退するように制御することが望ましい。また、機体の上下左右の移動と機体の後退移動とは、いずれか一方のみを行うようにしても良い。
In the case of the first angle-of-view variation control, the position of the angle of view may be changed by moving the machine body in a predetermined direction at a predetermined distance. Further, it may be set so that the position of the angle of view is changed by turning the aircraft in a predetermined angle range within a predetermined angle range.
Further, the field of view G may be moved in each of the up, down, left and right directions, and the imaging region S may be reset each time.
Also, when the aircraft is moved backward, it is desirable to control the vehicle so as to move backward by a predetermined distance. Further, only one of the vertical and horizontal movements of the aircraft and the backward movement of the aircraft may be performed.
飛行制御手段44は、第2の画角変動制御において、撮像領域Sが画角Gの端に位置する場合に機体の位置又は向きを変更するように、推進手段を制御する。
撮像領域Sが画角Gの端に設定された場合、撮像領域Sが画角Gの端から外側に向かう方向の先には、画角Gに入りきらなかった被写体が存在する場合がある。
図7(a)に示すように、撮像領域Sの上下左右のいずれかの端部が画角Gの上下左右のいずれかの端部に対して、所定の距離範囲内に接近している(図7(a)の場合は左端部)。この場合、飛行制御手段44は、図7(b)に示すように、撮像領域Sが画角Gの中央に寄る方向に、前記画角Gが移動するように機体を動作させる制御を実行する(図7(b)の場合は画角Gを左に移動させる)。また、この画角変動後に、再度、撮像領域Sを設定する。
The flight control means 44 controls the propulsion means so as to change the position or orientation of the airframe when the imaging region S is located at the end of the angle of view G in the second angle of view fluctuation control.
When the imaging region S is set at the end of the angle of view G, there may be a subject that cannot fit in the angle of view G beyond the direction in which the imaging region S goes outward from the end of the angle of view G.
As shown in FIG. 7A, one of the upper, lower, left and right ends of the imaging region S is closer to a predetermined distance range than any of the upper, lower, left and right ends of the angle of view G ( In the case of FIG. 7A, the left end portion). In this case, as shown in FIG. 7B, the flight control means 44 executes control for operating the aircraft so that the field angle G moves in a direction in which the imaging region S approaches the center of the field angle G. (In the case of FIG. 7B, the angle of view G is moved to the left). In addition, the imaging region S is set again after the change in the angle of view.
この第2の画角変動制御の場合、画角Gに対して撮像領域Sが偏っている方向に向かって機体が予め定められた距離で移動するように設定しても良い。また、画角Gに対して撮像領域Sが偏っている方向に向かって機体が予め定められた角度範囲で旋回することで画角の位置を変化させるように設定しても良い。 In the case of the second view angle variation control, the airframe may be set to move at a predetermined distance in a direction in which the imaging region S is biased with respect to the view angle G. Alternatively, the position of the angle of view may be changed by turning the body in a predetermined angle range in a direction in which the imaging region S is biased with respect to the angle of view G.
飛行制御手段44は、被写体拡大制御において、撮像領域Sが画角Gからはみ出さずに前記画角Gに対して占める割合が増加するように、推進手段を制御する。
撮像領域Sの面積が画角Gに対して占める割合が小さい場合、撮像領域Sはより大きく撮像する余地がある。
例えば、図8(a)のように、撮像領域Sの上下幅と左右幅が画角Gの上下幅と左右幅に対して小さい場合、各被写体は小さく写り込むことになる。
このような場合に、飛行制御手段44は、図8(b)に示すように、撮像領域Sが拡大するように機体を前進移動させる制御を実行する。また、この前進移動後に、再度、撮像領域Sを設定する。
The
When the ratio of the area of the imaging region S to the angle of view G is small, the imaging region S has room for larger imaging.
For example, as shown in FIG. 8A, when the vertical width and the horizontal width of the imaging region S are smaller than the vertical width and the horizontal width of the angle of view G, each subject appears small.
In such a case, as shown in FIG. 8B, the
この被写体拡大制御の場合、前方に向かって機体が予め定められた距離で移動するように設定しても良い。
また、画角Gの上下幅に対する撮像領域Sの上下幅の比率と画角Gの左右幅に対する撮像領域Sの左右幅の比率とを比較して、上下と左右のいずれか比率が大きい方向の撮像領域Sの幅が画角の幅に対して所定の比率に到るまで機体を前進させるように制御しても良い。例えば、図8(a)に示すように、画角Gに対する撮像領域Sの左右幅の比率が大きい場合に、当初は画角Gに対して撮像領域Sの左右幅が70%であったものを、図8(b)に示すように、90%となるまで機体を前進させるように制御しても良い。なお、これらの数値は単なる例示であって、変更可能である。
In the case of this subject enlargement control, the body may be set to move forward by a predetermined distance.
Further, the ratio of the vertical width of the imaging area S to the vertical width of the field angle G and the ratio of the horizontal width of the imaging area S to the horizontal width of the field angle G are compared, and the ratio of either the vertical or horizontal ratio is larger. Control may be performed so that the body is advanced until the width of the imaging region S reaches a predetermined ratio with respect to the width of the angle of view. For example, as shown in FIG. 8A, when the ratio of the left and right width of the imaging area S to the angle of view G is large, the left and right width of the imaging area S was initially 70% with respect to the angle of view G. As shown in FIG. 8B, the airframe may be controlled to advance until it reaches 90%. These numerical values are merely examples, and can be changed.
[飛行装置による撮像動作]
撮像制御部4による撮像制御について、図9及び図10のフローチャートに基づいて説明する。図9は、撮像制御の中で撮像領域Sを検出するための領域検出処理を示しており、図10は、飛行開始から飛行終了までに行われる全体的な撮像制御を示している。
ここでは、まず、図9に基づいて領域検出処理を説明する。
[Imaging operation by flying equipment]
The imaging control by the
Here, first, the region detection process will be described with reference to FIG.
カメラ部106の撮像により、少なくとも2つ以上の作業用の画像データに基づいて撮像画像が取得されると(ステップS1:第1撮像工程)、取得手段41は、各撮像画像から人物検出を行う(ステップS3)。
そして、取得手段41は、検出された人物の中から、顔認証又はビーコンにより、特定の被写体T1の検出を実行する(ステップS5:図4(a)〜図4(c)参照)。この検出の結果、特定の被写体T1が検出されない場合には(ステップS5:NO)、飛行制御手段44により、機体の移動又は旋回により撮像方向又は撮像位置の変更が行われ(ステップS7)、ステップS1に戻って、再度の撮像が行われる。
When a captured image is acquired based on at least two or more work image data by imaging by the camera unit 106 (step S1: first imaging step), the
Then, the
また、検出された人物の中から特定の被写体T1が検出された場合には(ステップS5:YES)、取得手段41は、それぞれの人物について移動ベクトルを求め、被写体グループの全体の移動ベクトルと非被写体の移動ベクトルとを求める(取得工程)。
さらに、検出手段43は、これらから被写体グループの全体の領域Wと、非被写体の領域Nと、背景の領域と、を区別して検出する。また、決定手段42は、被写体グループの全体の領域Wから撮像領域Sを検出する(ステップS11:検出工程、図4(d)参照)。
このようにして、撮像制御部4は撮像により複数の作業用の画像データが取得されると、撮像領域Sを検出する。
When a specific subject T1 is detected from the detected persons (step S5: YES), the
Further, the
In this way, the
次に、飛行装置100の飛行時における全体的な撮像制御について図10に基づいて説明する。
まず、飛行装置100が投げ上げられて、推進手段の4組のモータ105の駆動が開始され、飛行が開始されると(ステップS21)、撮像制御部4は、撮像に伴い、前述した領域検出処理を実行して撮像領域Sを検出する(ステップS23)。
Next, overall imaging control during the flight of the flying
First, when the flying
次いで、飛行制御手段44は、撮像領域Sが画角G内で上下左右のいずれかの端に位置しているか判定し(ステップS25)、いずれかの端にも位置していない場合には(ステップS25:NO)、第1の画角変動制御を実行する(ステップS27:図6参照)。即ち、飛行制御手段44は、機体を後退させて画角Gの大きさ(視界の広さ)を拡張させる。又は、機体の移動により上下左右の各方向に画角Gを移動させる。そして、ステップS31に処理を進めて、撮像領域Sの再設定を行う。 Next, the flight control means 44 determines whether the imaging region S is located at either the top, bottom, left, or right end within the angle of view G (step S25). Step S25: NO), the first angle-of-view variation control is executed (Step S27: see FIG. 6). That is, the flight control means 44 extends the size of the angle of view G (the field of view) by retreating the aircraft. Alternatively, the angle of view G is moved in the vertical and horizontal directions by moving the machine. Then, the process proceeds to step S31 to reset the imaging region S.
また、撮像領域Sが画角G内で上下左右のいずれかの端に位置している場合には(ステップS25:YES)、飛行制御手段44は、第2の画角変動制御を実行する(ステップS29:図7(a)、図7(b)参照)。即ち、飛行制御手段44は、撮像領域Sが偏っている方向に向かって画角Gが移動する方向に機体の位置又は向きを変更する制御を実行する。そして、ステップS31に処理を進めて、撮像領域Sの再設定を行う。
Further, when the imaging region S is located at any one of the upper, lower, left and right ends within the angle of view G (step S25: YES), the flight control means 44 executes the second angle of view variation control ( Step S29: See FIG. 7 (a) and FIG. 7 (b)). That is, the
撮像領域Sが再設定されると、飛行制御手段44は、遮蔽回避制御を実行する(ステップS33:図5参照)。即ち、撮像領域Sに非被写体の領域Nが被っているか否かを判定し、非被写体の領域Nが被っている場合には(ステップS33:YES)、飛行制御手段44は、機体を予め定められた方向に予め定められた距離で移動させてから再度撮像を実行し(ステップS35)、ステップS1に処理を戻す。
When the imaging region S is reset, the
また、撮像領域Sに非被写体の領域Nが被っていない場合には(ステップS33:NO)、飛行制御手段44は、被写体拡大制御を実行する(ステップS37:図8(a)、図8(b)参照)。即ち、飛行制御手段44は、撮像領域Sが拡大するように機体を前進移動させる制御を実行する。そして、前進移動後に撮像された撮像画像を画像記録部7に保存する(ステップS39:第2撮像工程)。
そして、撮像制御部4は、推進手段を制御して、所定位置に飛行装置100を着地させて飛行を終了させ(ステップS41)、撮像制御を終了する。
When the imaging region S does not cover the non-subject region N (step S33: NO), the
Then, the
なお、ステップS39において、領域検出処理により撮像領域Sを再設定し、撮像領域Sを非被写体の領域Nが被っているか否かを判定し、被っていない場合に撮像画像を保存し、覆っている場合にはステップS35から処理を繰り返す構成としても良い。 In step S39, the imaging area S is reset by the area detection process, and it is determined whether or not the imaging area S is covered with the non-subject area N. If not, the captured image is saved and covered. If yes, the process may be repeated from step S35.
[第1の実施形態の技術的効果]
飛行装置100では、カメラシステム402の撮像制御部4が、所定の移動ベクトルを取得する取得手段41と所定の領域を検出する検出手段43と備えているので、複数の被写体(検出体)からなる被写体(検出体)グループの全体の領域を適正に検出することが可能である。つまり、複数の被写体をグループとして包括的に取り扱うことが可能となる。
このため、非被写体を含む複数の人物の中から適正に被写体グループを抽出して前記被写体グループを撮像することが可能となる。
さらに、撮像制御部4の飛行制御手段44は、撮像領域Sに非被写体(非検出体)の領域Nが被らないように撮像を行う遮蔽回避制御を実行するので、被写体のグループ全体を良好な状態で撮像することが可能となる。
[Technical effects of the first embodiment]
In the flying
For this reason, it is possible to appropriately extract a subject group from a plurality of persons including non-subjects and to capture the subject group.
Furthermore, since the flight control means 44 of the
また、取得手段41は、特定の被写体(検出体)の移動ベクトルを検出し、これを利用して他の被写体(検出体)を検出するので、被写体と非被写体との識別を容易且つ有効に行うことが可能である。
また、取得手段41は、顔認証によって、又は、特定の検出体が有する通信機器であるビーコンからの信号によって、特定の検出体(検出体)を特定するので、特定の被写体も容易且つ有効に検出することが可能である。
In addition, since the
Moreover, since the acquisition means 41 specifies a specific detection body (detection body) by face authentication or by a signal from a beacon that is a communication device included in the specific detection body, a specific subject can be easily and effectively used. It is possible to detect.
また、取得手段41は、他の被写体(検出体)の移動ベクトルを取得し、前記他の被写体の移動ベクトルと特定の被写体(検出体)の移動ベクトルとに基づいて被写体(検出体)グループの全体の移動ベクトルを取得するので、グループ全体の包括的な移動動作を認識することが可能となる。さらに、被写体グループの全体を包括的に扱うことができるので、被写体を個々に取り扱う場合に比べて、処理を容易に行うことが可能となる。
The
また、撮像制御部4は、被写体(検出体)グループの複数の被写体(検出体)と非被写体(非検出体)とをそれぞれ区別して、それぞれに固有の識別子を付与する付与手段45を備えているので、複数の被写体を個別に識別し、これらに関する情報を個別に管理することが可能となる。
In addition, the
また、撮像制御部4は、被写体グループの全体の領域Wに基づいて、撮像領域Sを決定する決定手段42を備えているので、撮像の対象を被写体グループの全体に限定せず、各被写体の注目すべき部分などに設定して撮像することが可能となる。
特に、決定手段42が、撮像領域Sを被写体グループの複数の被写体のそれぞれの顔領域を含む領域に決定することにより、一般的に撮像の要求が多い顔領域をグループ全体の被写体について適正に撮像することが可能となる。
In addition, the
In particular, the determining
また、飛行制御手段44は、撮像領域Sに対して画角Gの位置又は大きさが変動するように推進手段を制御する第1の画角変動制御を実行するので、当初の撮像で撮像領域Sから外れていた被写体を新たに含ませることが可能となり、被写体のグループをより適正に撮像することが可能となる。
Further, since the
また、飛行制御手段44は、撮像領域Sが画角Gの端に位置する場合に機体の位置又は向きを変更するように推進手段を制御する第2の画角変動制御を実行するので、当初の撮像で撮像領域Sから外れていた被写体を新たに含ませることが可能となり、被写体のグループをより適正に撮像することが可能となる。 Further, since the flight control means 44 executes the second angle-of-view variation control for controlling the propulsion means so as to change the position or orientation of the airframe when the imaging region S is located at the end of the angle of view G, It is possible to newly include a subject that has been out of the imaging region S in this imaging, and it is possible to capture a group of subjects more appropriately.
また、飛行制御手段44は、撮像領域Sが画角Gからはみ出さずに前記画角Gに対して占める割合が増加するように推進手段を制御する被写体拡大制御を実行するので、画角Gを広く採りすぎた場合や第1の画角変動制御又は第2の画角変動制御の実行の結果、撮像領域Sが画角G内で小さくなってしまった場合でも、より大きく引き延ばし、良好な撮像を行うことが可能となる。 Further, the flight control means 44 executes subject enlargement control for controlling the propulsion means so that the ratio of the imaging region S to the angle of view G increases without exceeding the angle of view G. Even when the image pickup region S becomes smaller within the angle of view G as a result of executing the first angle of view fluctuation control or the second angle of view fluctuation control, it is possible to extend the image more greatly. Imaging can be performed.
また、飛行装置100の推進手段は、ユーザにより機体の投げ上げが行われると、推進手段を制御してそのモータ105の駆動を開始させて機体を飛行させるコントローラ401(制御装置)を備えているので、空中からの被写体グループの撮像を容易に実現することが可能となる。
The propulsion unit of the flying
[その他]
前記飛行装置100の飛行制御手段44では、遮蔽回避制御、第1の画角変動制御、第2の画角変動制御、被写体拡大制御を行っているが、少なくとも遮蔽回避制御のみを行う構成としても良い。また、第1の画角変動制御、第2の画角変動制御、被写体拡大制御の一部又は全部を行わない構成としても良い。
このようにして得られた撮像画像は、後に、ユーザが自ら、トリミングやその他の編集作業を行い、所望の画像に加工することが可能である。
[Others]
The flight control means 44 of the flying
The captured image obtained in this way can later be processed into a desired image by the user himself performing trimming and other editing operations.
[第2の実施形態]
図11は、本発明の検出体領域検出装置及び撮像装置を適用した撮像装置500Aの概略構成を示すブロック図である。
この撮像装置500Aは、ユーザが手に持って撮像し、又は、三脚等の支持台に固定して撮像を行うものであり、移動又は撮像方向を自ら変更する機能は有していない。
この撮像装置500Aは、前述したカメラシステム402と同一の構成については同一の符号を付して、重複する説明は省略する。
[Second Embodiment]
FIG. 11 is a block diagram showing a schematic configuration of an
The
In this
撮像装置500Aは、カメラシステム402と比較すると、中央制御部1に撮像の操作等を入力するための操作入力部9Aが併設されており、バスライン10を介して他の構成に接続された表示部8Aを備えている。また、当然ながら、飛行装置100のコントローラ401とはバス接続されていない。
また、この撮像装置500Aの撮像制御部4Aは、飛行制御手段44に替えて、撮像制御手段44Aを備えている。
Compared with the
The
前記表示部8Aは、表示領域内に画像を表示する。具体的には、表示部8Aは、カメラ部106による被写体の撮像により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像を表示する。
また、その他として、表示部8Aは、報知手段として機能し、撮像時にユーザに対する指示等のメッセージを表示する。
なお、表示部8Aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The
In addition, the
The
操作入力部9Aは、装置本体に対して各種指示を入力するためのものである。
具体的には、操作入力部9Aは、例えば、シャッタボタン、動作モードや機能等の選択指示に係る上下左右のカーソルボタン、決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部9Aは、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部9Aから出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作入力部9Aは、表示部8Aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
The
Specifically, the
When various buttons on the operation unit are operated by the user, the operation input unit 9 </ b> A outputs an operation instruction corresponding to the operated button to the
The
撮像制御部4Aは、取得手段41と、決定手段42と、検出手段43と、撮像制御手段44Aと、付与手段45とを具備している。この撮像制御部4Aも、記憶部6のプログラム62Aを実行して前記各手段41〜43,44A,45の制御動作及び処理を行うコンピュータである。また、これらの各手段41〜43,44A,45も、所定のロジック回路から構成しても良い。
取得手段41、決定手段42、検出手段43、付与手段45については、カメラシステム402と同一であることから、その説明は省略する
The
Since the
撮像制御手段44Aは、カメラ部106による撮像処理や表示部8Aにおける表示制御を行う。
この撮像制御手段44Aは、遮蔽回避制御、画角変動制御、被写体拡大制御を実行する。
The
The
撮像制御手段44Aは、遮蔽回避制御において、撮像領域Sに非被写体の領域Nが被ることを回避するように、撮像のタイミングを制御する。
即ち、前述した図5を参照すると、遮蔽状態が生じた場合に、非被写体NTの移動ベクトルが取得されているので、撮像領域Sを通過する時間を求めることができる。従って、撮像制御手段44Aは、操作入力部9Aでシャッタボタンが操作された場合に、非被写体NTが撮像領域Sを通過する時間を待ってから撮像された画像を保存する処理を行う。
なお、一定時間待ってから遮蔽状態が生じたか否かを判定し、生じていなければその時の撮像画像を保存し、生じている場合には一定時間待つことを繰り返しても良い。
この遮蔽回避制御により、被写体のグループ全体を良好な状態で撮像することが可能となる。
The
That is, referring to FIG. 5 described above, when the shielding state occurs, the movement vector of the non-subject NT is acquired, so that the time for passing through the imaging region S can be obtained. Therefore, when the shutter button is operated by the
Note that it may be determined whether or not a shielding state has occurred after waiting for a certain time, and if not, the captured image at that time may be stored, and if it has occurred, waiting for a certain time may be repeated.
By this shielding avoidance control, it becomes possible to image the entire group of subjects in good condition.
撮像制御手段44Aは、画角変動制御において、撮像領域Sが画角Gの端に位置する場合に、撮像装置500Aの位置又は向きを変更するように、表示部8Aに指示メッセージを表示して報知する制御を行う。
撮像領域Sの上下左右のいずれかの端部が画角Gの上下左右のいずれかの端部に対して、所定の距離範囲内に接近しているような場合に、撮像領域Sが画角Gの中央に寄る方向に、前記画角Gが移動するように、撮像装置500Aを移動又は向きを変える指示メッセージを表示部8Aに表示させる。
例えば、図7(a)の場合、撮像装置500Aを左に向ける又は左に移動するように指示メッセージを表示する。又は、後方に下がるように指示メッセージを出しても良い。
なお、指示メッセージに限らず、矢印等の簡単な記号などの表示でも良い。
これにより、当初の撮像で撮像領域Sから外れていた被写体を新たに含ませることが可能となり、被写体のグループをより適正に撮像することが可能となる。
The
When any one of the upper, lower, left and right ends of the imaging area S is close to a predetermined distance range with respect to any of the upper, lower, left and right ends of the angle of view G, the imaging area S has the angle of view. An instruction message for moving or changing the direction of the
For example, in the case of FIG. 7A, an instruction message is displayed so as to turn the
Note that not only the instruction message but also a simple symbol such as an arrow may be displayed.
As a result, it is possible to newly include a subject that is out of the imaging region S in the initial imaging, and it is possible to capture a group of subjects more appropriately.
撮像制御手段44Aは、被写体拡大制御において、撮像領域Sが画角Gからはみ出さずに前記画角Gに対して占める割合が増加するように、表示部8Aに指示メッセージを表示して報知する制御を行う。
例えば、図8(a)のように、画角Gに対して撮像領域Sの上下と左右に余裕がある場合に、撮像制御手段44Aは、図8(b)に示すように、撮像領域Sが拡大するように撮像装置500Aを前進移動させる指示メッセージを表示部8Aに表示させる。なお、この場合も、指示メッセージに限らず、矢印等の簡単な記号などの表示でも良い。
これにより、画角Gを広く採りすぎた場合でも、より大きく引き延ばし、良好な撮像を行うことが可能となる。
In the subject enlargement control, the
For example, as shown in FIG. 8A, when there is room in the imaging area S with respect to the angle of view G, the imaging control means 44A, as shown in FIG. An instruction message for moving the
As a result, even when the angle of view G is excessively widened, the image can be extended more greatly and good imaging can be performed.
なお、撮像装置500Aが、ズーム機能等を有している場合には、撮像領域Sの上下と左右に余裕がある場合に、ズーム機能により、撮像領域Sが画角Gからはみ出さない範囲で、撮像領域Sの画角Gに対して占める割合を増加させてもよい。
In the case where the
[その他]
以上の説明では、本発明に係るプログラム62,62Aのコンピュータ読み取り可能な媒体として記憶部6の不揮発性のメモリであるフラッシュメモリやEEPROMを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、HDD(Hard Disk Drive)、SSD(Solid State Drive)や、CD−ROM等の可搬型記録媒体を適用することが可能である。なお、可搬型記録媒体を適用する場合には、飛行装置100や撮像装置500Aに着脱可能な外付けの可搬型記録媒体の読み取り装置を利用しても良い。
また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も本発明に適用される。なお、その場合には、飛行装置100や撮像装置500Aに通信手段を設けることが望ましい。
[Others]
In the above description, an example in which a flash memory or an EEPROM that is a nonvolatile memory of the storage unit 6 is used as a computer-readable medium of the
A carrier wave is also applied to the present invention as a medium for providing program data according to the present invention via a communication line. In that case, it is desirable to provide communication means in the flying
以上、本発明の実施形態を説明したが、本発明の範囲は、前述の実施の形態に限定されるものではなく、特許請求の範囲に記載された発明の範囲と均等の範囲とを含む。
以下に、本出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、本出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<付記1>
撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段と、
を備える、
ことを特徴とする検出体領域検出装置。
<付記2>
前記取得手段は、
前記検出体として、特定の検出体を特定するとともに前記特定の検出体の移動ベクトルを取得し、前記特定の検出体の移動ベクトルを基準として、前記特定の検出体の周囲に存在する前記特定の検出体とは異なる、検出対象である他の検出体を検出する、
ことを特徴とする付記1に記載の検出体領域検出装置。
<付記3>
前記取得手段は、
顔認証によって、又は、前記特定の検出体が有する通信機器からの信号によって、前記特定の検出体を特定する、
ことを特徴とする付記2に記載の検出体領域検出装置。
<付記4>
前記取得手段は、
前記他の検出体の移動ベクトルを取得し、前記他の検出体の移動ベクトルと、前記特定の検出体の移動ベクトルと、に基づいて前記検出体グループの全体の移動ベクトルを取得する、
ことを特徴とする付記2又は3に記載の検出体領域検出装置。
<付記5>
前記取得手段により取得された前記検出体グループの全体の移動ベクトルと、前記非検出体の移動ベクトルと、に基づいて、前記検出体グループの前記複数の検出体と前記非検出体とをそれぞれ区別して、それぞれに固有の識別子を付与する付与手段を更に備える、
ことを特徴とする付記1乃至4のいずれか1つに記載の検出体領域検出装置。
<付記6>
複数の画像を撮像する撮像手段と、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段と、
を備える、
ことを特徴とする撮像装置。
<付記7>
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて、前記撮像領域を決定する決定手段を更に備える、
ことを特徴とする付記6に記載の撮像装置。
<付記8>
前記決定手段は、前記撮像領域を前記被写体グループの前記複数の被写体のそれぞれの顔領域を含む領域に決定する、
ことを特徴とする付記7に記載の撮像装置。
<付記9>
前記撮像制御手段は、前記撮像領域を画角に収め、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように、撮像のタイミングを制御する、
ことを特徴とする付記6乃至8のいずれか1つに記載の撮像装置。
<付記10>
前記画角の調整をユーザに報知する報知手段を更に備え、
前記撮像制御手段は、前記撮像領域が前記画角の端に位置する場合に前記撮像装置の位置又は向きを変更するように前記報知手段を制御して前記ユーザに報知する、
ことを特徴とする付記9に記載の撮像装置。
<付記11>
前記撮像制御手段は、前記撮像領域が前記画角からはみ出さない位置関係まで前記撮像装置を移動させるように前記報知手段を制御して前記ユーザに報知する、
ことを特徴とする付記10に記載の撮像装置。
<付記12>
前記取得手段により取得された前記被写体グループの全体の移動ベクトルと、前記非被写体の移動ベクトルと、に基づいて、前記被写体グループの前記複数の被写体と前記非被写体とをそれぞれ区別して、それぞれに固有の識別子を付与する付与手段を更に備える、
ことを特徴とする付記6乃至11のいずれか1つに記載の撮像装置。
<付記13>
複数の画像を撮像する撮像手段と、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
自装置を空中で飛行させる推進手段と、
前記自装置の飛行を、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、に基づいて制御する飛行制御手段と、
を備える、
ことを特徴とする飛行装置。
<付記14>
前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記飛行制御手段は、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように、前記推進手段を制御する、
ことを特徴とする付記13に記載の飛行装置。
<付記15>
前記飛行制御手段は、前記撮像領域に対して画角の位置又は大きさが変動するように前記推進手段を制御する、
ことを特徴とする付記14に記載の飛行装置。
<付記16>
前記飛行制御手段は、前記撮像領域が前記画角の端に位置する場合に前記自装置の位置又は向きを変更するように前記推進手段を制御する、
ことを特徴とする付記15に記載の飛行装置。
<付記17>
前記飛行制御手段は、前記撮像領域が前記画角からはみ出さずに前記画角に対して占める割合が増加するように前記推進手段を制御する、
ことを特徴とする付記15又は16に記載の飛行装置。
<付記18>
前記推進手段は、飛行駆動源となるモータと前記モータにより回転するロータとを有し、
ユーザにより前記自装置の投げ上げが行われると、前記推進手段を制御して前記飛行駆動源の駆動を開始させて前記ロータを回転させて前記自装置を飛行させる制御装置を更に備える、
ことを特徴とする付記13乃至17のいずれか1つに記載の飛行装置。
<付記19>
撮像された複数の画像に含まれる移動ベクトルを取得する取得工程と、
前記取得工程において取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出工程と、
を含む、
ことを特徴とする検出体領域検出方法。
<付記20>
複数の画像を撮像する第1撮像工程と、
前記第1撮像工程において撮像された複数の画像に含まれる移動ベクトルを取得する取得工程と、
前記取得工程において取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出工程と、
前記検出工程において検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように撮像する第2撮像工程と、
を含む、
ことを特徴とする撮像方法。
<付記21>
検出体領域検出装置のコンピュータを、
撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段、
として機能させる、
ことを特徴とするプログラム。
<付記22>
複数の画像を撮像する撮像手段を備える撮像装置のコンピュータを、
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段、
として機能させる、
ことを特徴とするプログラム。
Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, and includes the scope of the invention described in the claims and the equivalent scope.
The invention described in the scope of claims attached to the application of the present application will be added below. The item numbers of the claims described in the appendix are as in the scope of the claims initially attached to the application of the present application.
[Appendix]
<
Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Comprising
The detection body area | region detection apparatus characterized by the above-mentioned.
<
The acquisition means includes
As the detection body, a specific detection body is specified and a movement vector of the specific detection body is acquired, and the specific detection object existing around the specific detection body is based on the movement vector of the specific detection body. Detect other detection objects that are different from the detection object,
The detection body region detection apparatus according to
<
The acquisition means includes
The specific detection body is specified by face authentication or by a signal from a communication device included in the specific detection body.
The detecting body region detecting device according to
<
The acquisition means includes
Obtaining a movement vector of the other detection body, and obtaining an entire movement vector of the detection body group based on the movement vector of the other detection body and the movement vector of the specific detection body;
The detector region detection device according to
<
Based on the entire movement vector of the detected body group acquired by the acquisition means and the movement vector of the non-detected body, the plurality of detected bodies and the non-detected body of the detected body group are respectively distinguished. Separately, it further comprises an assigning means for assigning a unique identifier to each.
The detection body region detection device according to any one of
<Appendix 6>
An imaging means for imaging a plurality of images;
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging;
Comprising
An imaging apparatus characterized by that.
<Appendix 7>
A determination unit configured to determine the imaging region based on an area of at least a part of the subject group detected by the detection unit;
The imaging apparatus according to appendix 6, wherein:
<Appendix 8>
The determining means determines the imaging area as an area including each face area of the plurality of subjects of the subject group.
The imaging apparatus according to appendix 7, wherein the imaging apparatus is characterized.
<Appendix 9>
The imaging control means controls the timing of imaging so that the imaging area is included in an angle of view and at least a part of the non-subject area does not cover the imaging area.
The imaging apparatus according to any one of appendices 6 to 8, characterized in that:
<
A notification means for notifying the user of the adjustment of the angle of view;
The imaging control unit controls the notification unit to notify the user so as to change a position or orientation of the imaging device when the imaging region is located at an end of the angle of view;
The imaging apparatus according to appendix 9, characterized in that:
<Appendix 11>
The imaging control unit controls the notification unit to notify the user so as to move the imaging device to a positional relationship where the imaging region does not protrude from the angle of view;
The imaging apparatus according to
<Appendix 12>
Based on the entire movement vector of the subject group acquired by the acquisition means and the movement vector of the non-subject, the plurality of subjects and the non-subject of the subject group are distinguished from each other and unique to each A granting unit for granting the identifier of
The imaging apparatus according to any one of appendices 6 to 11, characterized in that:
<Appendix 13>
An imaging means for imaging a plurality of images;
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
Propulsion means for flying the device in the air;
Flight control means for controlling the flight of the device based on at least a part of the subject group and at least a part of the non-subject;
Comprising
A flying device characterized by that.
<Appendix 14>
An imaging area determined based on at least one area of the subject group is set as an imaging target, and the flight control means sets the propulsion means so that the imaging area does not cover at least one area of the non-subject. Control,
Item 14. The flying device according to Appendix 13.
<Appendix 15>
The flight control means controls the propulsion means so that the position or size of the angle of view varies with respect to the imaging region.
Item 15. The flying device according to appendix 14, wherein
<Appendix 16>
The flight control means controls the propulsion means to change the position or orientation of the own apparatus when the imaging region is located at an end of the angle of view.
The flying device according to Supplementary Note 15, wherein
<Appendix 17>
The flight control means controls the propulsion means so that the ratio of the imaging area to the angle of view increases without protruding from the angle of view.
The flying device according to appendix 15 or 16, characterized in that.
<Appendix 18>
The propulsion means has a motor as a flight drive source and a rotor rotated by the motor,
When the device is thrown up by the user, the device further includes a control device that controls the propulsion unit to start driving the flight drive source and rotate the rotor to fly the device.
18. The flying device according to any one of appendices 13 to 17, wherein
<Appendix 19>
An acquisition step of acquiring a movement vector included in a plurality of captured images;
Based on the entire movement vector of the detection body group including the plurality of detection bodies that are detection targets acquired in the acquisition step, and the movement vector of the non-detection body that is not the detection target, at least of the detection body groups A detection step of distinguishing and detecting one part region and at least one part region of the non-detection body;
including,
A detection object region detection method characterized by the above.
<Appendix 20>
A first imaging step of imaging a plurality of images;
An acquisition step of acquiring movement vectors included in a plurality of images imaged in the first imaging step;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target, acquired in the acquisition step, an area of at least a part of the subject group And a detection step of distinguishing and detecting at least a part of the non-subject area;
The imaging region determined based on at least one region of the subject group detected in the detection step is set as an imaging target, and second imaging is performed so that at least one region of the non-subject does not cover the imaging region. Imaging process;
including,
An imaging method characterized by the above.
<Appendix 21>
The computer of the detection object region detection device,
Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Function as
A program characterized by that.
<Appendix 22>
A computer of an imaging apparatus provided with imaging means for imaging a plurality of images,
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging,
Function as
A program characterized by that.
2 メモリ
3 ビーコン受信機
4,4A 撮像制御部
7 画像記録部
8A 表示部(報知手段)
9A 操作入力部
41 取得手段
42 決定手段
43 検出手段
44 飛行制御手段
44A 撮像制御手段
45 付与手段
61 顔画像データファイル
100 飛行装置
101 メインフレーム(機体)
102 モータフレーム(機体)
104 ロータブレード(推進手段)
105 モータ(推進手段)
106 カメラ部(撮像手段)
401 コントローラ(制御装置)
402 カメラシステム(被検出体検出装置、撮像装置)
404 モータドライバ(推進手段)
500A 撮像装置(被検出体検出装置、撮像装置)
B1,B2 移動ベクトル
G 画角
N 非被写体の領域
NT1,NT2 非被写体
S 撮像領域
T1 特定の被写体
T2〜T4 他の被写体
W 被写体グループの全体の領域
2
9A
102 Motor frame (airframe)
104 Rotor blade (propulsion means)
105 Motor (propulsion means)
106 Camera unit (imaging means)
401 Controller (control device)
402 Camera system (detected object detection device, imaging device)
404 Motor driver (propulsion means)
500A imaging device (detected object detection device, imaging device)
B1, B2 Movement vector G Angle of view N Non-subject area NT1, NT2 Non-subject S Imaging area T1 Specific subject T2-T4 Other subject W Whole area of subject group
Claims (22)
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段と、
を備える、
ことを特徴とする検出体領域検出装置。 Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Comprising
The detection body area | region detection apparatus characterized by the above-mentioned.
前記検出体として、特定の検出体を特定するとともに前記特定の検出体の移動ベクトルを取得し、前記特定の検出体の移動ベクトルを基準として、前記特定の検出体の周囲に存在する前記特定の検出体とは異なる、検出対象である他の検出体を検出する、
ことを特徴とする請求項1に記載の検出体領域検出装置。 The acquisition means includes
As the detection body, a specific detection body is specified and a movement vector of the specific detection body is acquired, and the specific detection object existing around the specific detection body is based on the movement vector of the specific detection body. Detect other detection objects that are different from the detection object,
The detection body region detection apparatus according to claim 1.
顔認証によって、又は、前記特定の検出体が有する通信機器からの信号によって、前記特定の検出体を特定する、
ことを特徴とする請求項2に記載の検出体領域検出装置。 The acquisition means includes
The specific detection body is specified by face authentication or by a signal from a communication device included in the specific detection body.
The detecting body region detecting device according to claim 2.
前記他の検出体の移動ベクトルを取得し、前記他の検出体の移動ベクトルと、前記特定の検出体の移動ベクトルと、に基づいて前記検出体グループの全体の移動ベクトルを取得する、
ことを特徴とする請求項2又は3に記載の検出体領域検出装置。 The acquisition means includes
Obtaining a movement vector of the other detection body, and obtaining an entire movement vector of the detection body group based on the movement vector of the other detection body and the movement vector of the specific detection body;
The detection body area | region detection apparatus of Claim 2 or 3 characterized by the above-mentioned.
ことを特徴とする請求項1乃至4のいずれか1項に記載の検出体領域検出装置。 Based on the entire movement vector of the detected body group acquired by the acquisition means and the movement vector of the non-detected body, the plurality of detected bodies and the non-detected body of the detected body group are respectively distinguished. Separately, it further comprises an assigning means for assigning a unique identifier to each.
The detection body region detection device according to claim 1, wherein the detection body region detection device is a detection object region detection device.
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段と、
を備える、
ことを特徴とする撮像装置。 An imaging means for imaging a plurality of images;
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging;
Comprising
An imaging apparatus characterized by that.
ことを特徴とする請求項6に記載の撮像装置。 A determination unit configured to determine the imaging region based on an area of at least a part of the subject group detected by the detection unit;
The imaging apparatus according to claim 6.
ことを特徴とする請求項7に記載の撮像装置。 The determining means determines the imaging area as an area including each face area of the plurality of subjects of the subject group.
The imaging apparatus according to claim 7.
ことを特徴とする請求項6乃至8のいずれか1項に記載の撮像装置。 The imaging control means controls the timing of imaging so that the imaging area is included in an angle of view and at least a part of the non-subject area does not cover the imaging area.
The image pickup apparatus according to claim 6, wherein the image pickup apparatus is an image pickup apparatus.
前記撮像制御手段は、前記撮像領域が前記画角の端に位置する場合に前記撮像装置の位置又は向きを変更するように前記報知手段を制御して前記ユーザに報知する、
ことを特徴とする請求項9に記載の撮像装置。 A notification means for notifying the user of the adjustment of the angle of view;
The imaging control unit controls the notification unit to notify the user so as to change a position or orientation of the imaging device when the imaging region is located at an end of the angle of view;
The imaging apparatus according to claim 9.
ことを特徴とする請求項10に記載の撮像装置。 The imaging control unit controls the notification unit to notify the user so as to move the imaging device to a positional relationship where the imaging region does not protrude from the angle of view;
The imaging apparatus according to claim 10.
ことを特徴とする請求項6乃至11のいずれか1項に記載の撮像装置。 Based on the entire movement vector of the subject group acquired by the acquisition means and the movement vector of the non-subject, the plurality of subjects and the non-subject of the subject group are distinguished from each other and unique to each A granting unit for granting the identifier of
The image pickup apparatus according to claim 6, wherein the image pickup apparatus is an image pickup apparatus.
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段と、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段と、
自装置を空中で飛行させる推進手段と、
前記自装置の飛行を、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、に基づいて制御する飛行制御手段と、
を備える、
ことを特徴とする飛行装置。 An imaging means for imaging a plurality of images;
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
Propulsion means for flying the device in the air;
Flight control means for controlling the flight of the device based on at least a part of the subject group and at least a part of the non-subject;
Comprising
A flying device characterized by that.
ことを特徴とする請求項13に記載の飛行装置。 An imaging area determined based on at least one area of the subject group is set as an imaging target, and the flight control means sets the propulsion means so that the imaging area does not cover at least one area of the non-subject. Control,
The flying device according to claim 13.
ことを特徴とする請求項14に記載の飛行装置。 The flight control means controls the propulsion means so that the position or size of the angle of view varies with respect to the imaging region.
The flying device according to claim 14.
ことを特徴とする請求項15に記載の飛行装置。 The flight control means controls the propulsion means to change the position or orientation of the own apparatus when the imaging region is located at an end of the angle of view.
The flying device according to claim 15.
ことを特徴とする請求項15又は16に記載の飛行装置。 The flight control means controls the propulsion means so that the ratio of the imaging area to the angle of view increases without protruding from the angle of view.
The flying device according to claim 15 or 16, characterized in that
ユーザにより前記自装置の投げ上げが行われると、前記推進手段を制御して前記飛行駆動源の駆動を開始させて前記ロータを回転させて前記自装置を飛行させる制御装置を更に備える、
ことを特徴とする請求項13乃至17のいずれか1項に記載の飛行装置。 The propulsion means has a motor as a flight drive source and a rotor rotated by the motor,
When the device is thrown up by the user, the device further includes a control device that controls the propulsion unit to start driving the flight drive source and rotate the rotor to fly the device.
The flying device according to any one of claims 13 to 17, characterized in that:
前記取得工程において取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出工程と、
を含む、
ことを特徴とする検出体領域検出方法。 An acquisition step of acquiring a movement vector included in a plurality of captured images;
Based on the entire movement vector of the detection body group including the plurality of detection bodies that are detection targets acquired in the acquisition step, and the movement vector of the non-detection body that is not the detection target, at least of the detection body groups A detection step of distinguishing and detecting one part region and at least one part region of the non-detection body;
including,
A detection object region detection method characterized by the above.
前記第1撮像工程において撮像された複数の画像に含まれる移動ベクトルを取得する取得工程と、
前記取得工程において取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出工程と、
前記検出工程において検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように撮像する第2撮像工程と、
を含む、
ことを特徴とする撮像方法。 A first imaging step of imaging a plurality of images;
An acquisition step of acquiring movement vectors included in a plurality of images imaged in the first imaging step;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target, acquired in the acquisition step, an area of at least a part of the subject group And a detection step of distinguishing and detecting at least a part of the non-subject area;
The imaging region determined based on at least one region of the subject group detected in the detection step is set as an imaging target, and second imaging is performed so that at least one region of the non-subject does not cover the imaging region. Imaging process;
including,
An imaging method characterized by the above.
撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、検出対象である複数の検出体を含む検出体グループの全体の移動ベクトルと、検出対象ではない非検出体の移動ベクトルと、に基づいて、前記検出体グループの少なくとも1部の領域と、前記非検出体の少なくとも1部の領域と、を区別して検出する検出手段、
として機能させる、
ことを特徴とするプログラム。 The computer of the detection object region detection device,
Acquisition means for acquiring a movement vector included in a plurality of captured images;
Based on the whole movement vector of the detection body group including the plurality of detection bodies that are detection targets and the movement vector of the non-detection body that is not the detection target, acquired by the acquisition means, at least of the detection body groups Detecting means for distinguishing and detecting one part region and at least one part region of the non-detecting body;
Function as
A program characterized by that.
前記撮像手段により撮像された複数の画像に含まれる移動ベクトルを取得する取得手段、
前記取得手段により取得された、撮像対象である複数の被写体を含む被写体グループの全体の移動ベクトルと、撮像対象ではない非被写体の移動ベクトルと、に基づいて、前記被写体グループの少なくとも1部の領域と、前記非被写体の少なくとも1部の領域と、を区別して検出する検出手段、
前記検出手段により検出された前記被写体グループの少なくとも1部の領域に基づいて定まる撮像領域を撮像対象とし、前記撮像領域に前記非被写体の少なくとも1部の領域が被らないように前記撮像手段を制御して撮像させる撮像制御手段、
として機能させる、
ことを特徴とするプログラム。 A computer of an imaging apparatus provided with imaging means for imaging a plurality of images,
Acquisition means for acquiring movement vectors included in a plurality of images imaged by the imaging means;
Based on the entire movement vector of the subject group including a plurality of subjects that are imaging targets and the movement vector of a non-subject subject that is not the imaging target acquired by the acquisition unit, at least a part of the region of the subject group Detecting means for distinguishing and detecting at least a part of the non-subject area;
An imaging region determined based on at least one region of the subject group detected by the detection unit is set as an imaging target, and the imaging unit is configured so that at least one region of the non-subject does not cover the imaging region. Imaging control means for controlling and imaging,
Function as
A program characterized by that.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018055577A JP2019168886A (en) | 2018-03-23 | 2018-03-23 | Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program |
| JP2022068577A JP2022105047A (en) | 2018-03-23 | 2022-04-19 | Imaging apparatus, flight device, imaging method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018055577A JP2019168886A (en) | 2018-03-23 | 2018-03-23 | Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022068577A Division JP2022105047A (en) | 2018-03-23 | 2022-04-19 | Imaging apparatus, flight device, imaging method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019168886A true JP2019168886A (en) | 2019-10-03 |
Family
ID=68106823
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018055577A Pending JP2019168886A (en) | 2018-03-23 | 2018-03-23 | Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program |
| JP2022068577A Pending JP2022105047A (en) | 2018-03-23 | 2022-04-19 | Imaging apparatus, flight device, imaging method, and program |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022068577A Pending JP2022105047A (en) | 2018-03-23 | 2022-04-19 | Imaging apparatus, flight device, imaging method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (2) | JP2019168886A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021140916A1 (en) * | 2020-01-07 | 2021-07-15 | ソニーグループ株式会社 | Moving body, information processing device, information processing method, and program |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004101616A (en) * | 2002-09-05 | 2004-04-02 | Sony Corp | Moving imaging system, moving imaging method, moving object, and signal generator |
| JP2005337863A (en) * | 2004-05-26 | 2005-12-08 | Fuji Photo Film Co Ltd | Map updating system |
| JP2006242871A (en) * | 2005-03-04 | 2006-09-14 | Victor Co Of Japan Ltd | Beacon receiver and viewer system |
| JP2008252713A (en) * | 2007-03-30 | 2008-10-16 | Nikon Corp | Imaging device |
| JP2010103947A (en) * | 2008-10-27 | 2010-05-06 | Canon Inc | Image processing apparatus, imaging apparatus, and image processing method |
| JP2010263550A (en) * | 2009-05-11 | 2010-11-18 | Canon Inc | Image processing device |
| WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
| JP2013162287A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Image processing apparatus, image processing method, and program |
| JP2016143335A (en) * | 2015-02-04 | 2016-08-08 | 富士通株式会社 | Group association apparatus, group association method, and computer program for group association |
| JP2016146601A (en) * | 2015-02-09 | 2016-08-12 | キヤノン株式会社 | Image processing apparatus and control method therefor |
| US20180025498A1 (en) * | 2016-07-21 | 2018-01-25 | Gopro, Inc. | Subject Tracking Systems for a Movable Imaging System |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013034167A (en) * | 2011-06-28 | 2013-02-14 | Sony Corp | Information processing device, and information processing method and program |
| JP2013205675A (en) * | 2012-03-29 | 2013-10-07 | Nikon Corp | Imaging apparatus |
| JP2014202875A (en) * | 2013-04-04 | 2014-10-27 | キヤノン株式会社 | Subject tracking device |
| JP6103013B2 (en) * | 2015-09-18 | 2017-03-29 | カシオ計算機株式会社 | Information collecting apparatus and information collecting method |
-
2018
- 2018-03-23 JP JP2018055577A patent/JP2019168886A/en active Pending
-
2022
- 2022-04-19 JP JP2022068577A patent/JP2022105047A/en active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004101616A (en) * | 2002-09-05 | 2004-04-02 | Sony Corp | Moving imaging system, moving imaging method, moving object, and signal generator |
| JP2005337863A (en) * | 2004-05-26 | 2005-12-08 | Fuji Photo Film Co Ltd | Map updating system |
| JP2006242871A (en) * | 2005-03-04 | 2006-09-14 | Victor Co Of Japan Ltd | Beacon receiver and viewer system |
| JP2008252713A (en) * | 2007-03-30 | 2008-10-16 | Nikon Corp | Imaging device |
| JP2010103947A (en) * | 2008-10-27 | 2010-05-06 | Canon Inc | Image processing apparatus, imaging apparatus, and image processing method |
| JP2010263550A (en) * | 2009-05-11 | 2010-11-18 | Canon Inc | Image processing device |
| WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
| JP2013162287A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Image processing apparatus, image processing method, and program |
| JP2016143335A (en) * | 2015-02-04 | 2016-08-08 | 富士通株式会社 | Group association apparatus, group association method, and computer program for group association |
| JP2016146601A (en) * | 2015-02-09 | 2016-08-12 | キヤノン株式会社 | Image processing apparatus and control method therefor |
| US20180025498A1 (en) * | 2016-07-21 | 2018-01-25 | Gopro, Inc. | Subject Tracking Systems for a Movable Imaging System |
Non-Patent Citations (1)
| Title |
|---|
| 斉藤 謙志、他5名: "エッジコンピューティングのソリューション事例", NEC技報, vol. 第70巻 第1号, JPN6022006776, 10 September 2017 (2017-09-10), pages 27 - 33, ISSN: 0004981976 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021140916A1 (en) * | 2020-01-07 | 2021-07-15 | ソニーグループ株式会社 | Moving body, information processing device, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022105047A (en) | 2022-07-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9591364B2 (en) | Image processing apparatus, image processing method, and program | |
| US12217544B2 (en) | Method, apparatus and device for recognizing three-dimensional gesture based on mark points | |
| JP6988146B2 (en) | Arithmetic processing device and arithmetic processing method | |
| JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
| JP7122708B2 (en) | Image processing device, monitoring system and image processing method | |
| KR100879623B1 (en) | Automated Wide Area Surveillance System Using PTZ Camera and Its Method | |
| US9628700B2 (en) | Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program | |
| JP6555906B2 (en) | Information processing apparatus, information processing method, and program | |
| CN110688914A (en) | Gesture recognition method, intelligent device, storage medium and electronic device | |
| US20130329124A1 (en) | Image processing apparatus and image processing method | |
| CN110785993A (en) | Control method and device of shooting equipment, equipment and storage medium | |
| JP5279635B2 (en) | Image processing apparatus, image processing method, and program | |
| WO2017163688A1 (en) | Monitoring system and monitoring method | |
| EP4629608A2 (en) | Systems and methods for obtaining a smart panoramic image | |
| CN111246093B (en) | Image processing method, device, storage medium and electronic device | |
| US20240380968A1 (en) | Systems and methods for obtaining a smart panoramic image | |
| US11964775B2 (en) | Mobile object, information processing apparatus, information processing method, and program | |
| JP6664119B2 (en) | Monitoring system and monitoring method | |
| JP2022105047A (en) | Imaging apparatus, flight device, imaging method, and program | |
| JPWO2018158822A1 (en) | Anomaly detection system, method and program | |
| KR20180000110A (en) | Drone and method for controlling the same | |
| JP2023166863A (en) | Image processing device, image processing method, and imaging device | |
| CN115812309A (en) | Image processing apparatus and control method thereof | |
| JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
| JP2017175473A (en) | Monitoring system and monitoring method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220419 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221025 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230207 |