JP2022071984A - Imaging device, control method, and program - Google Patents
Imaging device, control method, and program Download PDFInfo
- Publication number
- JP2022071984A JP2022071984A JP2020181149A JP2020181149A JP2022071984A JP 2022071984 A JP2022071984 A JP 2022071984A JP 2020181149 A JP2020181149 A JP 2020181149A JP 2020181149 A JP2020181149 A JP 2020181149A JP 2022071984 A JP2022071984 A JP 2022071984A
- Authority
- JP
- Japan
- Prior art keywords
- image pickup
- subject
- drive
- imaging
- voice command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
- H04N23/651—Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Studio Devices (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Accessories Of Cameras (AREA)
Abstract
【課題】ユーザの撮像したい被写体を撮り逃しにくくする。
【解決手段】被写体を撮像する撮像手段と、前記撮像手段の撮像方向を駆動する駆動手段と、特定の処理を実行するための第一の音声コマンドと、前記第一の音声コマンドの検出を開始するための第二の音声コマンドと、を検出する検出手段と、を有し、前記検出手段が前記第二の音声コマンドを検出したことに応じて、前記駆動手段は、駆動範囲を制限することを特徴とする撮像装置。
【選択図】図7
PROBLEM TO BE SOLVED: To make it difficult to miss a subject to be imaged by a user.
SOLUTION: The detection of an image pickup means for photographing a subject, a drive means for driving the image pickup direction of the image pickup means, a first voice command for executing a specific process, and the first voice command is started. The driving means has a second voice command for detecting and a detecting means for detecting the second voice command, and the driving means limits the driving range according to the detection of the second voice command. An image pickup device characterized by.
[Selection diagram] FIG. 7
Description
本発明は、音声コマンドを認識可能な撮像装置に関する。 The present invention relates to an image pickup device capable of recognizing voice commands.
近年では、周囲を撮像することができる撮像装置が提案されている。このような撮像装置には、ユーザから発せられた音声コマンドを認識したことに応じて被写体を自動的に撮像することで、ユーザの欲するシーンの画像を撮像することを目的としている。 In recent years, an imaging device capable of imaging the surroundings has been proposed. Such an image pickup device is intended to capture an image of a scene desired by a user by automatically capturing a subject in response to recognizing a voice command issued by the user.
特許文献1には、パン・チルトやズームを駆動して被写体を自動探索して撮影する自動撮影モードを有し、自動撮影モードにおいて音声コマンドによって手動撮影することができる撮像装置が開示されている。 Patent Document 1 discloses an image pickup device having an automatic shooting mode in which a pan / tilt or zoom is driven to automatically search for and shoot a subject, and manual shooting can be performed by a voice command in the automatic shooting mode. ..
一般的に音声コマンドによる処理では、誤操作防止などの目的で、音声コマンドを検出する装置は、所定の処理を実行するための音声コマンド(コマンドワード)の前にコマンドワードの検出を開始させるための音声コマンド(トリガーワード)を検出する。しかしながら、特許文献1では撮像装置がトリガーワードを用いることについてなんら考慮されていない。このような音声コマンドによる処理を特許文献1に開示されている撮像装置に適用した場合、特許文献1の撮像装置は、自動撮影モードにおいて、被写体を自動探索しながらトリガーワードおよびコマンドワードを検出することが想定される。そして、トリガーワードを検出した時点ではその後の音声コマンドによる処理が特定されていないため、自動撮影を継続することが考えられる。しかしながら、ユーザの発したコマンドワードが被写体を撮像することを指示する音声コマンドである場合、ユーザの撮像したい被写体は、トリガーワードの発声を開始した時点において撮像装置に撮像されている被写体であることが想定される。それにもかかわらず、トリガーワードを検出しても自動探索を継続してしまう場合、コマンドワードが検出された時点では、ユーザの撮像したい被写体が画角から外れてしまい、ユーザの撮像したい被写体を撮り逃すおそれがある。そこで、本発明は、音声コマンドを用いて撮像指示を入力する際にユーザの撮像したい被写体を撮り逃しにくくすることを目的とする。 Generally, in the process by voice command, for the purpose of preventing erroneous operation, the device that detects the voice command starts the detection of the command word before the voice command (command word) for executing the predetermined process. Detects voice commands (trigger words). However, Patent Document 1 does not consider the use of the trigger word in the image pickup apparatus. When such processing by voice commands is applied to the image pickup apparatus disclosed in Patent Document 1, the image pickup apparatus of Patent Document 1 detects a trigger word and a command word while automatically searching for a subject in the automatic shooting mode. Is assumed. Then, since the processing by the subsequent voice command is not specified at the time when the trigger word is detected, it is conceivable to continue the automatic shooting. However, when the command word issued by the user is a voice command instructing the subject to be imaged, the subject to be imaged by the user is the subject imaged by the image pickup device at the time when the trigger word is uttered. Is assumed. Nevertheless, if the automatic search continues even if the trigger word is detected, the subject that the user wants to capture will be out of the angle of view when the command word is detected, and the subject that the user wants to capture will be shot. There is a risk of missing it. Therefore, an object of the present invention is to make it difficult for a user to miss a subject to be imaged when inputting an image pickup instruction using a voice command.
上記目的を達成するために、本発明の撮像装置は、被写体を撮像する撮像手段と、前記撮像手段の撮像方向を駆動する駆動手段と、特定の処理を実行するための第一の音声コマンドと、前記第一の音声コマンドの検出を開始するための第二の音声コマンドと、を検出する検出手段と、を有し、前記検出手段が前記第二の音声コマンドを検出したことに応じて、前記駆動手段は、駆動範囲を制限することを特徴とする。 In order to achieve the above object, the image pickup apparatus of the present invention includes an image pickup means for photographing a subject, a drive means for driving the image pickup direction of the image pickup means, and a first voice command for executing a specific process. , A second voice command for initiating detection of the first voice command, and a detection means for detecting, depending on the detection means detecting the second voice command. The driving means is characterized in that the driving range is limited.
本発明によれば、音声コマンドを用いて撮像指示を入力する際にユーザの撮像したい被写体を撮り逃しにくくすることができる。 According to the present invention, it is possible to make it difficult for a user to miss a subject to be imaged when inputting an image pickup instruction using a voice command.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されてもよい。また、各実施の形態は適宜組み合わされることも可能である。 The embodiment described below is an example as a means for realizing the present invention, and may be appropriately modified or modified depending on the configuration of the apparatus to which the present invention is applied and various conditions. Moreover, each embodiment can be combined as appropriate.
[第一の実施形態]
<撮像装置の構成>
図1は、第一の実施形態の撮像装置の構成を示す図である。
[First Embodiment]
<Configuration of image pickup device>
FIG. 1 is a diagram showing a configuration of an image pickup apparatus according to the first embodiment.
図1(a)に示す撮像装置101は、電源のオンおよびオフを切り替える操作を行うことができる電源スイッチを含む操作部材などが設けられている。操作部材にはタッチパネルも含まれる。
The
鏡筒102は、光学レンズ群および撮像素子を含む筐体である。鏡筒102は、撮像装置101に取り付けられる。チルト回転ユニット104およびパン回転ユニット105は、鏡筒102を固定部103に対して回転駆動できる回転機構である。チルト回転ユニット104は、例えば鏡筒102を図1(b)に示すピッチ方向に回転できるモーターである。パン回転ユニット105は、例えば鏡筒102を図1(b)に示すヨー方向に回転できるモーターである。チルト回転ユニット104およびパン回転ユニット105によって、鏡筒102は、1軸以上の方向に回転駆動できる。なお、本実施形態では、図1(b)に示すY軸は、パン回転ユニット105の回転軸である。また、本実施形態では、図1(b)に示すZ軸の正の方向は、撮像装置101の正面方向である。
The
角速度計106および加速度計107は、それぞれ、例えば、ジャイロセンサおよび加速度センサであり、撮像装置101の固定部103に配置されている。撮像装置101は、角速度計106や加速度計107において計測されたそれぞれの速度に基づいて、撮像装置101の振動を検出する。撮像装置101は、検出された撮像装置101の振動に基づいて、チルト回転ユニット104およびパン回転ユニット105を回転駆動することで鏡筒102における揺れおよび傾きを補正した画像を生成することができる。
The
図2は、本実施形態の撮像装置101の構成を示すブロック図である。
FIG. 2 is a block diagram showing the configuration of the
第1制御部223は、プロセッサ(例えば、CPU、GPU、マイクロプロセッサ、MPUなど)、およびメモリ(例えば、DRAM、SRAMなど)等からなる。第1制御部223は、各種処理を実行して撮像装置101の各ブロックを制御したり、各ブロック間でのデータ転送を制御したりする。なお、第1制御部223は、制御手段および決定手段の一例である。
The
不揮発性メモリ216は、データを記録および消去可能なメモリであり、第1制御部223の動作用の定数、プログラム等が記録される。
The
ズームユニット201は、ズーム倍率の変倍を行うズームレンズを構成する光学レンズ群である。ズーム駆動制御部202は、ズームユニット201の光学レンズを駆動制御する制御部である。フォーカスユニット203は、ピント調整を行う光学レンズ群である。フォーカス駆動制御部204は、フォーカスユニット203の光学レンズを駆動制御する。撮像部206は、撮像素子が各光学レンズ群を通して入射する光を受け、その光量に応じた電荷の情報をアナログ画像データとして画像処理部207に出力する。なお、ズームユニット201、ズーム駆動制御部202、フォーカスユニット203、フォーカス駆動制御部204、および撮像部206は鏡筒102に含まれる。
The zoom unit 201 is a group of optical lenses constituting a zoom lens that changes the zoom magnification. The zoom
画像処理部207は、撮像部206から入力された画像データに対して、歪曲補正、ホワイトバランス調整、および色補間処理等の画像処理を行い、デジタル画像データを出力する。画像処理部207から出力されたデジタル画像データは、画像記録部208でJPEG形式等の画像ファイルフォーマットやMPEG形式等の動画ファイルフォーマットによって変換される。変換されたデジタル画像データは、メモリ215や後述する映像出力部217に送信される。第1制御部223は、メモリ215に記録されたデジタル画像データを記録する場合、デジタル画像データを記録再生部220に出力する。
The
鏡筒回転駆動部205は、チルト回転ユニット104およびパン回転ユニット105を駆動して鏡筒102をチルト方向およびパン方向に駆動させる。なお、鏡筒回転駆動部205は駆動手段の一例である。
The lens barrel
装置揺れ検出部209は、例えば撮像装置101の3軸方向の角速度を検出する角速度計106および、装置の3軸方向の加速度を検出する加速度計107が搭載される。装置揺れ検出部209は、角速度計106および加速度計107によって検出された信号に基づいて、装置の回転角度や装置のシフト量などを演算する。
The device
音声入力部213は複数のマイクを有する。また、音声入力部213は、マイクから入力された音声信号をA/D変換して音声処理部214に出力する。
The voice input unit 213 has a plurality of microphones. Further, the voice input unit 213 A / D-converts the voice signal input from the microphone and outputs it to the
音声処理部214は、この複数のマイクが設置された平面上の音の方向を検出することができる。検出された音の方向は後述する探索や自動撮像に用いることができる。さらに、音声処理部214は、特定の音声コマンドを認識することができる。本実施形態では、特定の音声コマンドは、トリガーワードおよびコマンドワードの2種類ある。トリガーワードは、コマンドワードの認識を開始させるためのトリガーとなるコマンドである。例えば、トリガーワードは、ユーザが発声する「オーケー、カメラ」などの特定のキーワードからなるコマンドである。また、コマンドワードは、撮像装置101に対して所定の処理をするよう指示するためのコマンドである。例えば、この所定の処理は、静止画の撮像処理、動画の撮像開始処理、動画の撮像終了処理、スリープ処理、被写体の変更処理、および自動撮像処理である。なお、コマンドワードは、例えば、静止画の撮像処理であれば「静止画を撮って」、動画の撮像開始処理であれば「動画を撮って」、などのように、所定の処理ごとに異なるキーワードからなるコマンドである。これらの音声コマンドは、撮像装置101のメモリ215にあらかじめ記録されている。なお、撮像装置101は、あらかじめ記録されている音声コマンドの他にも、ユーザの任意の処理を実行するための音声コマンドを登録できるように構成されてもよい。
The
また、音声処理部214は、入力された音声信号に対して適正化処理および符号化等の音声に関する処理を行う。そして、音声処理部214で処理された音声信号は、第1制御部223によりメモリ215に送信される。メモリ215は、画像記録部208から入力されたデータ、および音声処理部214から入力された音声信号を一時的に記録する。第1制御部223は、この音声信号を記録する場合、音声信号をメモリ215から記録再生部220に出力する。
In addition, the
記録再生部220は、画像データ、音声信号、およびその他撮像に関する制御データ等を記録媒体221に記録する。記録媒体221は、撮像装置101に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。記録媒体221は、画像データ、音声信号などの各種データを記録することができる。本実施形態では、記録媒体221は、不揮発性メモリ216よりも大容量な媒体である。例えば、記録媒体221は、ハードディスク、光ディスク、光磁気ディスク、CD-R、DVD-R、磁気テープ、不揮発性の半導体メモリ、およびフラッシュメモリなどの記録媒体である。
The recording / reproducing
また、記録再生部220は、記録媒体221に記録された画像データ、音声信号、各種データ、プログラムを読み出す(再生する)ことができる。記録媒体221に記録された画像データおよび音声信号を再生する場合、第1制御部223は次のように動作する。第1制御部223は、記録再生部220によって読み出された画像データおよび音声信号を、それぞれ画像処理部207および音声処理部214に出力する。画像処理部207および音声処理部214は、それぞれ画像データおよび音声信号を復号する。画像処理部207および音声処理部214は、復号した信号を、それぞれ映像出力部217、および音声出力部218に出力する。
Further, the recording / reproducing
第2制御部211は、第1制御部223の供給電源を制御する。例えば、第2制御部211は、プロセッサ(例えば、CPU、マイクロプロセッサ、MPUなど)、およびメモリ(例えば、DRAM、SRAMなど)等からなる。なお、本実施形態では、第2制御部211は、撮像装置101のメインシステム全体を制御する第1制御部223とは別に設けられている。
The
第1電源部210および第2電源部212は、それぞれ第1制御部223および第2制御部211を動作させるための電力を供給する。本実施形態では、第1電源部210が供給する電力は、第2電源部212が供給する電力よりも大きい。本実施形態では、供給する電力量に合わせて、第1電源部210および第2電源部212が選定される。例えば、第1電源部210は、第1制御部223に電力供給するためのスイッチであり、第2電源部212は、リチウム電池、アルカリ乾電池である。撮像装置101に設けられた電源スイッチの押下により、まず第2制御部211へ電力が供給され、続いて、第1制御部223へ電力が供給される。
The first
また、撮像装置101はスリープ状態を有する。スリープ状態では、第1制御部223は、第1制御部223への電力供給をオフするように第1電源部210を制御する。第1制御部223に電力が供給されていないスリープ状態でも、第2制御部211は動作しており、装置揺れ検出部209および音声処理部214から情報を取得する。第2制御部はこのような入力情報に基づいて、第1制御部223を起動するか否かの判定処理を行う。第2制御部211は、第1制御部223を起動する(スリープ状態を解除する)と判定した場合、第1電源部210に対して第1制御部223へ電力を供給するよう制御する。
Further, the
音声出力部218は、例えば撮像時などに撮像装置101に内蔵されたスピーカーから電子シャッター音などの音声信号を出力する。LED制御部224は、例えば撮像時などに撮像装置101に設けられたLEDを予め設定されたパターンで点灯または点滅するように制御する。
The
映像出力部217は、例えば映像出力端子からなり、接続された外部ディスプレイ等に映像を表示させるための画像信号を出力する。また、音声出力部218、および映像出力部217は、統合された1つの端子、例えばHDMI(登録商標)(High-Definition Multimedia Interface(登録商標))端子のようなインターフェースであってもよい。
The
通信部222は、撮像装置101と外部装置との間で通信を行うためのインターフェースである。通信部222は、例えば、音声信号および画像データなどのデータを送信したり受信したりする。また、通信部222が撮像開始、撮像終了、パン駆動、チルト駆動、およびズーム駆動などの、撮像にかかわる制御信号を受信した場合、第1制御部223は、その制御信号に応じて撮像装置101を駆動する。通信部222は、例えば、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、無線LAN通信モジュール、WirelessUSB、GPS受信機等の無線通信モジュールを有する。
The
被写体検出部225は、画像処理部207から出力された画像データをメモリ215から読み出し、人物および物体などの被写体認識を行う。例えば、被写体検出部225が、人物を認識する場合、被写体の顔を検出する。撮像装置101には、被写体の顔を判定するためのパターンが予め登録されている。なお、このパターンには被写体ごとに区別するための識別子が付与されている。被写体の顔検出処理では、被写体検出部225は、撮像された画像内に含まれる被写体の顔を判定するためのパターンに一致する箇所を検出することで、被写体の顔を検出する。また、被写体検出部225は、複数の登録された人物をそれぞれ区別することができる。
The
また、被写体検出部225は、検出された被写体の顔に対する確からしさを示す信頼度も同時に算出する。信頼度は、例えば画像内における顔領域の大きさや、顔パターンとの一致度等から算出される。また、被写体検出部225は、画像内で被写体の顔に対してパターンマッチングを行うことで、検出された顔が笑顔であるか否か、目が開いているか否か、および顔の向き等の顔情報を検出することができる。なお、顔情報の検出方法はパターンマッチングに限るものではなく、ディープラーニングを利用する方法等、公知の技術を利用することができる。なお、被写体検出部225は、検出手段の一例である。
In addition, the
また、物体認識処理では、被写体検出部225は、予め登録されたパターンに一致するか否かを判定することで物体を認識することができる。他にも、被写体検出部225は、撮像された画像内の色相や彩度等のヒストグラムを利用して被写体の特徴量を抽出することで物体を認識することができる。
Further, in the object recognition process, the
以上の方法で、第1制御部223は、撮像された画像データから被写体検出部225によって被写体を検出することができる。
By the above method, the
<外部装置とのシステム構成>
図3は、撮像装置101とスマートデバイス301との無線通信システムの構成例を示す図である。撮像装置101は例えばデジタルカメラである。スマートデバイス301は例えばBluetooth通信モジュール、無線LAN通信モジュールを含むスマートフォンである。
<System configuration with external device>
FIG. 3 is a diagram showing a configuration example of a wireless communication system between the
本実施形態では、撮像装置101とスマートデバイス301は、2つの通信経路を介して通信できる。1つは、例えばIEEE802.11規格シリーズに準拠した無線LANによる通信経路302である。もう1つは、例えばBluetooth Low Energy(以下、「BLE」と呼ぶ)などの、制御局と従属局などの主従関係を有する通信経路303である。なお、無線LANおよびBLEは通信手法の一例である。なお、各通信装置が、2つ以上の通信機能を有し、例えば制御局と従属局との関係の中で通信を行う一方の通信機能によって、他方の通信機能の制御を行うことが可能であれば、他の通信手法が用いられてもよい。ただし、一般性を失うことなく、無線LANなどの第1の通信は、BLEなどの第2の通信より高速な通信が可能であり、また、第2の通信は、第1の通信よりも消費電力が少ないか通信可能距離が短いかの少なくともいずれかであるものとする。
In the present embodiment, the
<外部装置の構成>
外部装置の一例であるスマートデバイス301の構成を、図4を用いて説明する。スマートデバイス301は、いわゆるスマートフォンや携帯電話である。スマートデバイス301は、すなわち携帯可能な端末である。
<Configuration of external device>
The configuration of the
スマートデバイス301は、例えば、無線LANによる通信のための無線LAN制御部401、およびBLEによる通信のためのBLE制御部402に加え、公衆無線による通信のための公衆回線制御部406を有する。また、スマートデバイス301は、パケット送受信部403を有する。
The
無線LAN制御部401は、無線LANのRF制御、通信処理、IEEE802.11規格シリーズに準拠した無線LANによる通信の各種制御を行う。また、無線LAN制御部401は、無線LANによる通信に関するプロトコル処理を行う。BLE制御部402は、BLEのRF制御、通信処理、BLEによる通信の各種制御を行う。また、BLE制御部402は、BLEによる通信に関するプロトコル処理を行う。公衆回線制御部406は、公衆無線通信のRF制御、通信処理、公衆無線通信の各種制御を行う。また、公衆回線制御部406は、公衆無線通信関連のプロトコル処理を行う。公衆無線通信は例えばIMT(International Multimedia Telecommunications)規格やLTE(Long Term Evolution)規格などに準拠したものである。パケット送受信部403は、無線LANによる通信、BLEによる通信、および公衆無線通信に関するパケットの送信と受信との少なくともいずれかを実行するための処理を行う。なお、本実施形態では、スマートデバイス301は、通信においてパケットの送信と受信との少なくともいずれかを行うものとして説明するが、パケット交換以外に、例えば回線交換など、他の通信形式が用いられてもよい。
The wireless
また、本実施形態のスマートデバイス301は、制御部411、記録部404、GPS受信部405、表示部407、操作部408、音声入力音声処理部409、および電源部410をさらに有する。制御部411は、例えば、記録部404に記録されたプログラムを実行することにより、スマートデバイス301全体を制御する。記録部404は、例えば、制御部411によって実行されるプログラム、および通信に必要なパラメータ等の各種情報などを記録する。後述するスマートデバイス301の各種動作は、記録部404に記録されたプログラムを制御部411が実行することにより、実現される。
Further, the
電源部410はスマートデバイス301の各部に電力を供給する。表示部407は、例えば、LCDやLEDのように視覚で認知可能な情報の出力、およびスピーカー等の音出力が可能な機能を有し、各種情報の表示および出力を行う。操作部408は、例えばユーザによるスマートデバイス301に対する操作を受け付けるボタン等である。なお、表示部407および操作部408は、例えばタッチパネルなどの共通する部材によって構成されてもよい。
The
音声入力音声処理部409は、例えばマイクを有し、マイクから入力された音声信号に対して音声認識処理を行う。音声入力音声処理部409は、ユーザの撮像装置101に対する操作を音声認識することができる。この音声認識処理では、音声入力音声処理部409は、専用のアプリケーションによって、マイクから入力された音声信号からユーザにより発せられた音声コマンドを認識する。スマートデバイス301は、例えば通信経路302を介して、撮像装置101の音声処理部214に特定処理を実行させるための音声コマンドを撮像装置101に登録することができる。
Voice input The
GPS(Global positioning system)405は、衛星から受信したGPS信号を解析することで、スマートデバイス301の現在位置(経度および緯度情報)を推定する。推定した現在位置が自宅などの予め設定されている範囲(所定半径の範囲以内)に位置している場合、スマートデバイス301は、BLE制御部402を介して撮像装置101へ現在位置の情報を通知する。撮像装置101はこの現在位置に基づいて、後述する自動撮像や自動編集のためのパラメータとして使用することができる。また、現在位置に予め設定されている範囲から外れるなどの位置変化があった場合、BLE制御部402を介して撮像装置101へ移動情報を通知し、自動撮像や自動編集のためのパラメータとして使用する。なお、スマートデバイス301は、WPS(Wi-Fi Positioning System)等を利用して、周囲に存在する無線ネットワークの情報に基づいて、スマートデバイス301の現在位置を推定してもよい。
The GPS (Global Positioning System) 405 estimates the current position (longitude and latitude information) of the
上記のように撮像装置101とスマートデバイス301は、無線LAN制御部401、およびBLE制御部402を用いた通信により、撮像装置101とデータのやりとりを行う。例えば、撮像装置101とスマートデバイス301は、音声信号、および画像データなどのデータを送受信する。また、スマートデバイス301は撮像装置101の撮像にかかわる設定情報を撮像装置101へ送信することができる。また、スマートデバイス301は、撮像装置101の撮像処理に関する制御信号、および位置情報を撮像装置101へ送信することができる。
As described above, the
<自動撮像処理>
自動撮像処理は、第1制御部223が撮像するタイミングを判定し、被写体を自動的に撮像する処理である。この自動撮像処理では、第1制御部223は、良い画像や良い動画を撮像できると判定した場合やある程度時間が経過した場合に、自動的に撮像対象となる被写体を決定し撮像する、ということを繰り返す。これにより、ユーザは手動で撮像しなくとも、日常に不意に現れる良い場面や日常の何気ない変化を撮像装置101によって残すことができる。
<Automatic imaging process>
The automatic image pickup process is a process of determining the timing at which the
図5は、本実施形態における撮像装置101の自動撮像処理のフローチャートである。本フローチャートの処理は、ユーザによって撮像装置101の電源スイッチをオンにされたことに応じて開始される。なお、本実施形態において、撮像装置101とスマートデバイス301との間では無線接続が確立されている。また、ユーザはスマートデバイス301上の専用アプリケーションから撮像装置101に対して各種の操作を行うことができる。以下のフローチャートの各ステップの処理は、第1制御部223が撮像装置101の各部を制御することによって実現される。
FIG. 5 is a flowchart of the automatic image pickup process of the
ステップS501では、第1制御部223は、自動撮像処理が停止中の状態かどうかを判定する。自動撮像処理の停止に関しては後述の音声認識処理の説明で述べる。自動撮像処理が停止中である場合では、第1制御部223は、自動撮像処理の停止が解除されるまで待機する。すなわち、自動撮像処理が停止中である場合では、自動撮像処理の停止が解除されるまでステップS501の処理が繰り返される。自動撮像処理が停止中ではない場合では、ステップS502の処理が実行される。
In step S501, the
ステップS502では、第1制御部223は、画像処理部207に撮像部206で取り込まれた信号を画像処理させ、被写体認識用の画像を生成させる。さらに第1制御部223は、被写体検出部225を制御し、生成された被写体認識用の画像から、人物認識、および動物認識などの被写体認識を行う。例えば、第1制御部223は、被写体認識を行う場合、被写体を判定するためのパターンをあらかじめ保持しておき、この保持されているパターンと被写体認識用の画像に含まれるパターンとの一致度に基づいて、被写体検出部225によって被写体を判定する。ここで、被写体検出部225は、被写体の個人識別。また、第1制御部223は、被写体を判定するとともに、被写体の画角内の位置を検出する。
In step S502, the
ステップS503では、第1制御部223は、像揺れ補正量の算出を行う。具体的には、まず、第1制御部223は、装置揺れ検出部209において取得した角速度および加速度情報に基づいて撮像装置の絶対角度の算出を行う。そして、第1制御部223は、絶対角度を打ち消す角度方向にチルト回転ユニット104およびパン回転ユニット105を動かす防振角度を求め、像揺れ補正量とする。
In step S503, the
ステップS504では、第1制御部223は、被写体探索処理を行う。被写体探索処理は、以下の処理によって構成される。
In step S504, the
(1)エリア分割
図6(a)~(c)を用いて、エリア分割を説明する。図6(a)~(c)では、撮像装置の位置を原点Oとして、球面上のエリアが分割されている。図6(a)の例においては、チルト方向、パン方向においてエリアがそれぞれ22.5度ごとに分割されている。図6(a)に示すように分割すると、チルト方向の角度が0度から離れるにつれて、水平方向の円周が小さくなり、1エリアの領域が小さくなる。そこで、本実施形態の撮像装置は、図6(b)に示すように、チルト角度が45度以上の場合、水平方向のエリア範囲を22.5度よりも大きく設定する。
(1) Area division The area division will be described with reference to FIGS. 6 (a) to 6 (c). In FIGS. 6A to 6C, the area on the spherical surface is divided with the position of the image pickup apparatus as the origin O. In the example of FIG. 6A, the areas are divided by 22.5 degrees in the tilt direction and the pan direction, respectively. When divided as shown in FIG. 6A, the circumference in the horizontal direction becomes smaller and the area of one area becomes smaller as the angle in the tilt direction deviates from 0 degrees. Therefore, as shown in FIG. 6B, the image pickup apparatus of the present embodiment sets the horizontal area range to be larger than 22.5 degrees when the tilt angle is 45 degrees or more.
次に、図6(c)、(d)を用いて、撮像装置101によって撮像された画像の画角内におけるエリアについて説明する。軸1301は、撮像装置101の撮像方向の基準方向であり、この方向を基準としてエリア分割が行われる。軸1301は、例えば、撮像装置101が起動していたときにおける撮像方向、または撮像方向の基準となる方向として予め定められている方向である。エリア1302は、撮像部206によって撮像されている画像の画角エリアである。図6(d)は、エリア1302において撮像部206によって撮像されたスルー画像の一例である。図6(d)のスルー画像の画角内では図6(c)に示すエリア分割に基づいて、エリア1303~エリア1318のように画像のエリアが分割される。
Next, the area within the angle of view of the image captured by the
(2)エリア毎の重要度レベルの算出
上述のように分割した各エリアについて、エリア内に存在する被写体やエリアのシーン状況に応じて、被写体探索を行う際の優先順位を示す重要度レベルを算出する。被写体の状況に基づいた重要度レベルは、例えば、エリア内に存在する被写体の数、被写体の顔の大きさ、被写体の顔の向き、被写体の顔検出の確からしさ、被写体の表情、被写体の個人識別結果に基づいて算出される。また、シーンの状況に応じた重要度レベルは、例えば、一般物体認識結果、シーン判定結果(青空、逆光、夕景など)、エリアの方向からする音のレベルや音声認識結果、エリア内の動き検知情報等である。ここでは、第1制御部223は、撮像装置101の全周を探索するように駆動する。
(2) Calculation of importance level for each area For each area divided as described above, the importance level indicating the priority when searching for a subject is set according to the subject existing in the area and the scene situation of the area. calculate. The importance level based on the situation of the subject is, for example, the number of subjects existing in the area, the size of the subject's face, the orientation of the subject's face, the certainty of the subject's face detection, the facial expression of the subject, and the individual of the subject. Calculated based on the identification result. In addition, the importance level according to the situation of the scene is, for example, general object recognition result, scene judgment result (blue sky, backlight, evening scene, etc.), sound level or voice recognition result from the direction of the area, motion detection in the area. Information etc. Here, the
また、例えば、第1制御部223は、被写体の顔が登録されている場合、登録されている被写体の顔を検出したエリアの重要度レベルを高くする。例えば、被写体の顔は、被写体を判定するためのパターンとして不揮発性メモリ216に記録されている。なお、第1制御部223は、被写体の顔が検出されたエリアの重要度レベルを高くする場合、所定時間が経過したこと、または所定の回数撮像したことに応じて、そのエリアの重要度レベルを元の重要度レベルに戻す。
Further, for example, when the face of the subject is registered, the
(3)探索エリアの決定
第1制御部223は、上述のように各エリアの重要度レベルを決定した後、重要度レベルが高いエリアを重点的に探索するように決定する。そして、第1制御部223は、重要度レベルの高いエリアの1つを撮像するために必要なパン角度およびチルト角度を算出する。
(3) Determination of search area The
ステップS505では、第1制御部223は、パン駆動およびチルト駆動を行う。具体的には、像振れ補正量とステップS504において算出されたパン角度およびチルト角度とに基づいて、パン駆動量およびチルト駆動量を算出する。そして第1制御部223は、算出されたパン駆動量およびチルト駆動量に基づいて、鏡筒回転駆動部205によって、チルト回転ユニット104、およびパン回転ユニット105をそれぞれ駆動制御する。本実施形態では、第1制御部223は、ステップS505における駆動により、重要度レベルが高いエリアにおいて被写体を検出し、その被写体の撮像を開始するものとして説明する。そして、第1制御部223は、その被写体を追尾する(画角に収め続ける)ように鏡筒回転駆動部205を制御する。
In step S505, the
ステップS506では、第1制御部223は、ズームユニット201を制御しズーム駆動を行う。例えば、ステップS505において撮像を開始した被写体の状態に応じてズームを駆動させる。例えば、被写体の顔が画角内において非常に小さく撮像されている場合、第1制御部223は、望遠側にズームすることで、被写体の顔のサイズが画角内に適正に(より大きく)撮像されるように制御する。一方、被写体の顔が画角内において非常に大きく撮像されている場合、第1制御部223は、広角側にズームすることで、被写体の顔のサイズが画角内に適正に(より小さく)撮像されるように制御する。このようにズーム制御を行うことで、被写体を追尾するのに適した状態を保つことができる。
In step S506, the
ステップS504~ステップS506では、パン駆動およびチルト駆動、ならびにズーム駆動により被写体探索が行われる方法を説明したが、広角なレンズを複数使用して全方位を一度に撮像する撮像システムで被写体探索が行われてもよい。この場合、全方位の撮像によって得られる信号すべてを入力画像として、被写体検出などの画像処理を行うには全体の処理負荷が大きい。そこで、この場合は、全方位の撮像によって得られた画像の一部を切り出して、切り出された画像範囲の中で被写体の探索処理が行われる構成にする。この構成では、第1制御部223は、上述した方法と同様にエリア毎の重要度レベルを算出し、重要度レベルに基づいて切り出し位置を変更し、後述する自動撮像の判定を行う。これにより画像処理による消費電力を抑えながらも高速な被写体探索が可能となる。
In steps S504 to S506, a method of performing subject search by pan drive, tilt drive, and zoom drive has been described, but the subject search is performed by an imaging system that uses a plurality of wide-angle lenses to capture images in all directions at once. You may be broken. In this case, the overall processing load is large in order to perform image processing such as subject detection using all the signals obtained by omnidirectional imaging as input images. Therefore, in this case, a part of the image obtained by omnidirectional imaging is cut out, and the subject search process is performed within the cut out image range. In this configuration, the
ステップS507では、第1制御部223は、自動撮像を行うかどうかの判定を行う。
In step S507, the
ここで、自動撮像を行うかどうかの判定について説明する。自動撮像を行うかどうかの判定は、撮像スコアが所定値を超えるかどうかで行われる。撮像スコアとは、自動撮像を行うかどうかの判定に用いるパラメータである。撮像スコアは、被写体の検出状況と時間経過に応じて得点が加点される。例えば、撮像スコアが2000点を超えると自動撮像を行われるよう設計する場合を考える。この場合、まず、撮像スコアは初期値が0点であり、自動撮像のモードに入った時点からの時間経過によって加点されていく。例えば撮像スコアは120秒後に2000点に達するような増加率で増加していく。このとき、被写体が検出されないまま120秒が経過した場合、時間経過による加点によって2000点に達し、撮像が行われる。また、時間経過中に優先度の高い被写体を検出すると1000点が加点される。例えば、優先度の高い被写体は、撮像装置101に顔が登録されている被写体の内、優先して撮像する対象としてユーザに設定された被写体である。優先度の高い被写体が検出されている状態では、2000点に達しやすくなり、結果的に撮像頻度が上がることになりやすい。
Here, the determination of whether or not to perform automatic imaging will be described. The determination of whether or not to perform automatic imaging is performed based on whether or not the imaging score exceeds a predetermined value. The image pickup score is a parameter used for determining whether or not to perform automatic image pickup. Scores are added to the imaging score according to the detection status of the subject and the passage of time. For example, consider a case of designing so that automatic imaging is performed when the imaging score exceeds 2000 points. In this case, first, the initial value of the imaging score is 0, and points are added according to the passage of time from the time when the automatic imaging mode is entered. For example, the imaging score increases at an increasing rate so as to reach 2000 points after 120 seconds. At this time, if 120 seconds elapse without detecting the subject, the number of points added by the passage of time reaches 2000 points, and imaging is performed. Further, if a subject having a high priority is detected during the lapse of time, 1000 points will be added. For example, the subject having a high priority is a subject set by the user as a target to be imaged with priority among the subjects whose faces are registered in the
また、例えば被写体の笑顔を認識した場合は、800点が加点される。なお、この笑顔に基づく加点は、優先度の高い被写体でなくとも加点される。また、本実施形態では、笑顔に基づく加点の点数は優先度の高い被写体であるか否かに関わらず同じ点数である場合を例に挙げて説明するが、これに限られるものではない。例えば優先度の高い被写体の笑顔を検知したことに応じた加点の点数を、優先度が高くない被写体の笑顔を検知したことに応じた加点の点数よりも高くしてもよい。このようにすることで、よりユーザの意図に沿った撮像を行うことが可能になる。これらの被写体の喜怒哀楽等の表情変化に伴う加点により2000点を超えれば自動撮像される。また、表情変化に伴う加点で2000点を超えなくとも、その後の時間経過による加点で2000点により短い時間で到達する。 Further, for example, when the smiling face of the subject is recognized, 800 points are added. The points added based on this smile are added even if the subject is not a high-priority subject. Further, in the present embodiment, the points to be added based on the smile will be described by taking as an example the case where the points are the same regardless of whether or not the subject has a high priority, but the present invention is not limited to this. For example, the score added according to the detection of the smile of the subject having a high priority may be higher than the score added according to the detection of the smile of the subject having a low priority. By doing so, it becomes possible to perform imaging more in line with the user's intention. If the number of points exceeds 2000 due to the addition of points due to changes in facial expressions such as emotions of these subjects, automatic imaging is performed. In addition, even if the points added due to the change in facial expression do not exceed 2000 points, the points added after the passage of time reach 2000 points in a shorter time.
なお、時間経過による加点は、例えば120秒で2000点になるよう加点する場合、1秒ごとに2000/120点だけ加点する、すなわち時間に対して線形に加点する場合を例に挙げて説明するがこれに限られるものではない。例えば、120秒のうち110秒までは加点せず、110秒から120秒までの10秒間で、秒間200点ずつ加点して2000点に達するような増加の仕方にしてもよい。このようにすることで、被写体の表情変化による加点で、優先度の高低に関わらず撮像される点数に達してしまうことを防ぐことができる。時間経過に伴い線形増加する加点方法の場合、すでに時間経過により加点されている状態が長いため、優先度の低い被写体の笑顔への変化に伴う加点であっても撮像される点数に達してしまうことが多く、優先度の高低がさほど反映されにくい。かといって表情変化に伴う加点の点数を低くすると表情変化のあるタイミングを逃すことになるため、加点の点数を下げることでの対応は避けたい。そこで、110秒までは加点しないようにする。このようにすれば、優先度の低い被写体は加点されないまま110秒が経過する。一方、優先度の高い被写体は検知した時点で1000点が加点されるようにしているため、110秒まで時間経過による加点がなくとも1000点は加点された状態になる。これにより、表情変化に伴う加点が行われる場合に、優先度の低い被写体は撮像を行う点数に達する可能性を、優先度の高い被写体にくらべて抑えることができ、優先度の高低が機能しやすい。上記の説明では表情変化を例に挙げたが、加点される基準はこのほかにも声が大きくなった場合や身振り手振りが大きくなった場合などが考えられる。これらについても優先度の高低を機能させやすくするために上記のような加点方法の差を設ければよい。 The points added over time will be described by taking as an example a case where points are added so as to reach 2000 points in 120 seconds, a case where only 2000/120 points are added every second, that is, a case where points are added linearly with respect to time. Is not limited to this. For example, points may not be added up to 110 seconds out of 120 seconds, but may be increased so that points are added by 200 points per second to reach 2000 points in 10 seconds from 110 seconds to 120 seconds. By doing so, it is possible to prevent the points added due to the change in the facial expression of the subject from reaching the points to be imaged regardless of the high or low priority. In the case of the point addition method that linearly increases with the passage of time, the points are already added over time for a long time, so even if the points are added due to the change to the smile of the subject with low priority, the points to be imaged will be reached. In many cases, it is difficult to reflect the high and low priorities. However, if the score of points added due to changes in facial expressions is lowered, the timing of changes in facial expressions will be missed, so it is desirable to avoid measures by lowering the points of points added. Therefore, do not add points until 110 seconds. By doing so, 110 seconds elapse without adding points to the subject having a low priority. On the other hand, for a subject having a high priority, 1000 points are added at the time of detection, so that 1000 points are added even if there is no point added due to the passage of time up to 110 seconds. As a result, when points are added due to changes in facial expressions, the possibility that a low-priority subject will reach the number of points to be imaged can be suppressed compared to a high-priority subject, and the high and low priorities function. Cheap. In the above explanation, the change in facial expression is taken as an example, but other criteria for adding points may be when the voice becomes louder or when the gesture becomes louder. Also for these, in order to make it easier for the high and low priorities to function, the difference in the point addition method as described above may be provided.
また、仮に被写体の行動によって2000点を超えなくとも、時間経過によって必ず120秒で撮像されるため、一定期間まったく撮像されないということはない。 Further, even if the action of the subject does not exceed 2000 points, the image is always taken in 120 seconds with the passage of time, so that it is possible that the image is not taken at all for a certain period of time.
また、途中で被写体が検出された場合、120秒のうち、増加を開始する時間を前倒ししてもよい。つまり、例えば60秒の時点で優先度の高い被写体が検出された場合、それによって1000点が加点されても2000点を超えないが、そのまま110秒まで増加しないのではなく、被写体を検出したのち30秒が経過したら線形増加を始めるようにしてもよい。あるいは、120秒の10秒前ではなく20秒前に線形増加を始めるようにしてもよい。このようにすれば、優先度の高い被写体が撮像される可能性が高まるため、よりユーザの意図に沿った撮像を実現しやすくなる。 Further, when the subject is detected in the middle, the time for starting the increase may be advanced in 120 seconds. That is, for example, if a subject with a high priority is detected at 60 seconds, even if 1000 points are added, it does not exceed 2000 points, but it does not increase to 110 seconds as it is, but after detecting the subject. The linear increase may be started after 30 seconds. Alternatively, the linear increase may be started 20 seconds before 10 seconds before 120 seconds. By doing so, the possibility that a high-priority subject is imaged increases, and it becomes easier to realize the image capture according to the user's intention.
自動撮像が行われると、撮像スコアは0点にリセットされる。再度2000点を超えるまで自動撮像は行われない。 When automatic imaging is performed, the imaging score is reset to 0 points. Automatic imaging is not performed until 2000 points are exceeded again.
以上、自動撮像を行うかどうかの判定について説明した。上記の判定により、第1制御部223が自動撮像すると判定した場合には、ステップS508の処理が実行される。第1制御部223が撮像しないと判定した場合には、ステップS501の処理が実行される。
The determination of whether or not to perform automatic imaging has been described above. If it is determined by the above determination that the
ステップS508では、第1制御部223は、撮像処理を実行する。撮像処理は、例えば静止画撮像や動画撮像である。
In step S508, the
以上、本実施形態における撮像装置101の自動撮像処理について説明した。このような自動的に被写体を撮像する処理によって、撮像装置101はユーザからの撮像指示がなくとも、ユーザの欲するシーンの画像や動画を撮像することができる。
The automatic image pickup process of the
なお、第1制御部223は、自動撮像処理を、被写体の探索処理や撮像処理を所定時間行うことと、スリープ状態になるためのスリープ処理を所定時間行うこととを繰り返すような処理にしてもよい。スリープ処理では、第1制御部223は自身への電力供給をオフにするように第1電源部210を制御し、第2制御部211が動作している状態である。これにより、第1制御部223は消費電力を抑えつつも、ユーザの欲するシーンの画像や動画を自動的に撮像することができる。なお、このような自動撮像処理を、上述の連続的な撮像処理と区別するために、断続撮像処理という。
The
<音声認識処理>
図7は、本実施形態における撮像装置101の音声認識処理のフローチャートである。本フローチャートの処理は、マイクから音声信号が入力されたことを音声入力音声処理部409によって検出されたことに応じて開始される。また、本フローチャートの処理は図5の自動撮像処理と並行して実行される。本実施形態では、図5の自動撮像処理の実行中にマイクから音声信号が入力されたことを音声入力音声処理部409によって検出されたことに応じて本フローチャートが開始される場合を例に挙げて説明する。また、この処理は、第1制御部223が不揮発性メモリ216に記録されたプログラムを実行することで実現される。
<Voice recognition processing>
FIG. 7 is a flowchart of the voice recognition process of the
ステップS701では、第1制御部223は、トリガーワードの検出がされたかどうかの判定を行う。トリガーワードは、撮像装置101に対する具体的な指示を音声で行う音声コマンド認識を開始するための起動コマンドである。ユーザは音声によって撮像装置101に指示を行う場合、トリガーワードの後にコマンドワードを発声し、撮像装置101にそのコマンドワードを認識させる必要がある。トリガーワードが検出された場合には、ステップS702の処理が実行される。トリガーワードが検出されなかった場合には、トリガーワードが検出されるまでステップS701の処理が繰り返される。
In step S701, the
ステップS702では、第1制御部223は、自動撮像処理を停止状態にする。本実施形態では、第1制御部223は、トリガーワードを検出した場合、コマンドワードの待ち受け状態に遷移する。また、第1制御部223は、図5のフローチャートを用いて説明した自動撮像処理のうちの被写体探索処理(ステップS504)、駆動処理(ステップS505-ステップS506)、および撮像処理(ステップS508)を停止する。なお、駆動処理は、例えば、パン駆動、チルト駆動、およびズーム駆動である。なお、撮像処理は、例えば、静止画撮像および動画撮像である。一方、本ステップでは、第1制御部223は、被写体検出などのための画像認識処理(ステップS502)は停止せずに実行し続ける。このようにトリガーワードを検出した時点で自動撮像処理を停止する理由は、以下のとおりである。すなわち、ユーザは、撮像してほしい被写体の方向を撮像装置100が向いている状態を認識し、かつユーザが撮像してほしいタイミングでトリガーワードを発声すると考えられるからである。一方、第1制御部223は、トリガーワードを検出しただけでは、コマンドワードによる指示を検出していないため、撮像処理を実行するべきか否かは判定できない。撮像処理を実行するべきであると第1制御部223が判定するのは、トリガーワードのあとのコマンドワードを認識したタイミングである。つまり、第1制御部223がトリガーワードを検出した後も自動撮像処理を継続してしまうと、コマンドワードを認識した時点ではユーザの撮像したい向きから撮像装置100の方向が変わってしまう可能性がある。そこで、第1制御部223は、トリガーワードを検出したことに応じて自動撮像処理を停止することで、ユーザの撮像したいタイミングにおける撮像方向を向いた状態を維持する。そして、ユーザがトリガーワードの後に撮像を指示するためのコマンドワードを発声した場合には、第1制御部223は、撮像処理を実行することで、ユーザの撮像したい被写体を撮像することができる。すなわち、第1制御部223は、駆動処理を停止することで、ユーザの撮像したい被写体を撮像することができる。
In step S702, the
ステップS703では、第1制御部223は、トリガーワードを検出したことをユーザに示すための検出音をスピーカーによって出力する。
In step S703, the
ステップS704では、第1制御部223は、トリガーワードにつづいてコマンドワードが検出されたかどうか判定を行う。コマンドワードが検出された場合にはステップS706の処理が実行され、検出されなかった場合にはステップS705の処理が実行される。
In step S704, the
ステップS705では、第1制御部223は、トリガーワードを検出し、コマンドワード待ち受け状態になってから所定時間が経過したか否かを判定する。所定時間が経過した場合にはステップS701の処理が実行され、第1制御部223は、コマンドワードの待ち受け状態を止めて、トリガーワードの待ち受け状態となる。また、この場合、第1制御部223は自動撮像処理を再開する。所定時間が経過していない場合には、第1制御部223は、コマンドワードが検出されるまでステップS704の処理を繰り返す。
In step S705, the
ステップS706では、第1制御部223は、検出されたコマンドワードが静止画撮像コマンドかどうかの判定を行う。この静止画撮像コマンドは、撮像装置101に対して1枚の静止画の撮像処理および記録処理を実行させるためのコマンドである。静止画撮像コマンドと判定された場合には、ステップS707の処理が実行され、静止画撮像コマンドではないと判定された場合には、ステップS708の処理が実行される。
In step S706, the
ステップS707では、第1制御部223は、静止画撮像処理を行う。具体的には、撮像部206にて撮像した信号を画像処理部207において、JPEGフォーマット等に従って変換し、画像記録部208にて記録媒体221に記録を行う。
In step S707, the
ステップS708では、第1制御部223は、検出されたコマンドワードが被写体変更コマンドかどうかの判定を行う。被写体変更コマンドは、例えば、「他の人を撮像して」というキーワードである。被写体変更コマンドと判定された場合には、ステップS709の処理が実行され、被写体変更コマンドではないと判定された場合には、ステップS710の処理が実行される。
In step S708, the
ステップS709では、第1制御部223は、被写体変更処理を行う。被写体変更処理では、第1制御部223は、現在撮像している被写体とは別の被写体を撮像するように、鏡筒102を駆動制御する。なお、第1制御部223は、コマンドワードを検出した時点において被写体を検出していない場合、本ステップの処理を実行しない。
In step S709, the
ステップS710では、第1制御部223は、検出されたコマンドワードが動画記録開始コマンドかどうかの判定を行う。動画撮像コマンドは、撮像装置101に対して動画像の撮像処理および記録処理を実行させるコマンドである。動画記録開始コマンドと判定された場合には、ステップS712の処理が実行され、動画記録開始コマンドではないと判定された場合には、ステップS713の処理が実行される。
In step S710, the
ステップS711では、第1制御部223は、撮像部206を用いて動画の撮像を開始し、記録媒体221へ撮像された動画データの記録を行う。動画データの記録中、第1制御部223は、被写体の探索は行わず、自動撮像の停止の状態を維持し続ける。
In step S711, the
ステップS712では、第1制御部223は、検出されたコマンドワードが動画記録停止コマンドかどうかの判定を行う。動画記録停止コマンドと判定された場合には、ステップS713の処理が実行され、動画記録停止コマンドではないと判定された場合には、ステップS714の処理が実行される。
In step S712, the
ステップS713では、第1制御部223は、撮像部206による被写体の撮像、および記録媒体221への動画データの記録を停止し、動画データの記録を完了させる。
In step S713, the
ステップS714では、第1制御部223は、その他のコマンドワードに対応する処理を実行する。例えば、第1制御部223は、ユーザの指定した方向にパン駆動およびチルト駆動を行わせるためのコマンドワードに対する処理や、撮像装置101の露出補正などの各種撮像パラメータを変更させるためのコマンドワードに対する処理を行う。
In step S714, the
ステップS715およびステップS716では、第1制御部223は、ステップS702にて停止した自動撮像の再開処理を行う。例えば、第1制御部223は、図5に示すフローチャートの処理を、ステップS502の処理から開始する。
In step S715 and step S716, the
以上、本実施形態における撮像装置101の音声認識処理について説明した。
The voice recognition process of the
このように、本実施形態における撮像装置101の被写体の音声認識処理では、撮像装置101は、トリガーワードを検出したことに応じて自動撮像処理を停止した。すなわち、図7に示すフローチャートのステップS702の処理では、第1制御部223は、トリガーワードを検出したことに応じて自動撮像処理を停止することで、ユーザの撮像したいタイミングにおける撮像方向を向いた状態を維持した。これにより、ユーザがトリガーワードの後に撮像を指示するためのコマンドワードを発声した場合には、第1制御部223は、トリガーワードを受けた時点での画角で撮像処理を実行することになるため、ユーザの撮像したい被写体を撮像することができる。
As described above, in the voice recognition process of the subject of the
なお、第1制御部223は、ステップS702において、自動撮像処理を停止するのではなく、鏡筒102の撮像方向の駆動速度が、トリガーワードを検出する直前の駆動速度よりも遅くなるように制御してもよい。本実施形態では、コマンドワードを検出する処理に必要な時間などを考慮し、第1制御部223は、鏡筒102の撮像方向の駆動速度が、自動撮像処理における鏡筒102の撮像方向の駆動速度よりも遅くなるように制御する。そして、コマンドワードが撮像指示出なかった場合、第1制御部223は、駆動速度を元に戻して自動撮像処理を継続する。これにより、撮像装置101は、ユーザの撮像したい方向を画角に収めやすくすることと、自動撮像処理における画角の変更の継続とを両立することができる。
In step S702, the
なお、第1制御部223は、トリガーワードを検出したタイミングにおいて、被写体を検出していた場合、ステップS702において、駆動処理を停止せずにその被写体を追尾するように鏡筒102を駆動制御してもよい。これはユーザがトリガーワードを発したタイミングで撮像装置100が検出している被写体がユーザの撮像したい被写体であり、駆動を継続してその被写体を追尾したほうがユーザの望む画像を得られる可能性が高いと考えられるからである。この場合、第1制御部223は、トリガーワードを検出したタイミングにおいて検出していた被写体を追尾する(画角に収め続ける)ように鏡筒102を駆動制御する。このように、第1制御部223は、トリガーワードを検出した被写体を追尾するように撮像方向を駆動することで、ユーザの撮像したい被写体を撮像するようにしてもよい。なお、トリガーワードを検出したタイミングにおいて、被写体を追尾していた場合においても同様に、第1制御部223は、ステップS702において、駆動処理を停止せずにその被写体を追尾するように鏡筒102を駆動制御してもよい。
If the subject is detected at the timing when the trigger word is detected, the
なお、第1制御部223は、トリガーワードを検出したタイミングにおいて、被写体を検出していない場合、ステップS702において、被写体の探索処理を実行するように鏡筒102を駆動制御してもよい。例えば、第1制御部223は、現在の撮像方向を含む、自動撮像処理の探索範囲よりも狭い範囲において、被写体の探索処理を実行する。このように、第1制御部223は、トリガーワードを検出したことに応じて、現在の撮像方向付近において被写体を探索することで、ユーザの撮像したい被写体を撮像するようにしてもよい。
If the subject is not detected at the timing when the trigger word is detected, the
このように、撮像装置101は、トリガーワードを検出したことに応じて自動撮像処理を停止するだけでなく、トリガーワードを検出したタイミングに撮像していた被写体を追尾することなどのように、トリガーワードを検出したことに応じて駆動範囲を制限する。これにより、撮像装置101は、ユーザの撮像したい被写体を撮像することができる。
In this way, the
なお、ステップS702において、第1制御部223は、静止画の撮像および動画の撮像処理の実行を停止してもよい。撮像処理のための負荷が軽減されることにより、第1制御部223は、ユーザからトリガーワードの次に発せられるコマンドワードの指示により素早く反応することができる。
In step S702, the
なお、ステップS705において、所定時間が経過したと判定した場合、第1制御部223は、所定時間が経過したことを示す音を音声出力部218から出力してもよい。これにより、ユーザは撮像装置101がコマンドワードの検出に失敗したことを認識できるため、再度音声による指示をするタイミングが分かりやすくなる。
If it is determined in step S705 that the predetermined time has elapsed, the
なお、第1制御部223は、自動撮像処理として断続撮像処理を実行している場合、トリガーワードを検出したことに応じて、スリープ処理の実行をコマンドワードによって指示された処理を完了するまで先延ばしにしてもよい。この場合、第1制御部223は、コマンドワードによって指示された処理を完了したことに応じて、断続撮像処理におけるスリープ処理を実行する。
When the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 It should be noted that the present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.
Claims (17)
前記撮像手段の撮像方向を駆動する駆動手段と、
特定の処理を実行するための第一の音声コマンドと、前記第一の音声コマンドの検出を開始するための第二の音声コマンドと、を検出する検出手段と、を有し、
前記検出手段が前記第二の音声コマンドを検出したことに応じて、前記駆動手段は、前記撮像方向の駆動を制限する
ことを特徴とする撮像装置。 An imaging means that captures the subject,
A driving means for driving the imaging direction of the imaging means and
It has a detection means for detecting a first voice command for executing a specific process, a second voice command for initiating detection of the first voice command, and a detection means for detecting the first voice command.
An imaging device, characterized in that, in response to the detection means detecting the second voice command, the driving means limits driving in the imaging direction.
ことを特徴とする請求項1に記載の撮像装置。 A claim characterized in that, when the detection means detects the first voice command for executing the image pickup process while the drive means limits the drive, the image pickup means images the subject. The image pickup apparatus according to 1.
前記決定手段によって決定された撮像対象を前記撮像手段が撮像するように前記駆動手段に前記撮像手段の撮像方向を駆動させる自動撮像処理を制御する制御手段をさらに有する
ことを特徴とする請求項1または2に記載の撮像装置。 Determining means to automatically determine the imaging target,
Claim 1 is further characterized by further comprising a control means for controlling an automatic image pickup process for driving the image pickup means to drive the image pickup direction of the image pickup means so that the image pickup means captures an image pickup target determined by the determination means. Or the image pickup apparatus according to 2.
ことを特徴とする請求項4に記載の撮像装置。 The fourth aspect of the present invention is characterized in that the importance of the subject is calculated based on the priority set by the user, the facial expression of the subject, the size of the eyes of the subject, and the orientation of the face of the subject. The imaging device described.
ことを特徴とする請求項3から5のいずれか1項に記載の撮像装置。 One of claims 3 to 5, wherein the detection means detects the first voice command and the second voice command in parallel even during the execution of the automatic imaging process. The imaging device according to.
ことを特徴とする請求項3から6のいずれか1項に記載の撮像装置。 The invention according to any one of claims 3 to 6, wherein when the detection means detects the second voice command during the execution of the automatic image pickup process, the automatic image pickup process is stopped. Imaging device.
ことを特徴とする請求項3から6のいずれか1項に記載の撮像装置。 Any of claims 3 to 6, wherein when the detection means detects the second voice command during the execution of the automatic image pickup process, the drive means limits the drive in the image pickup direction. The image pickup apparatus according to item 1.
ことを特徴とする請求項3から8のいずれか1項に記載の撮像装置。 The image pickup according to any one of claims 3 to 8, wherein in the automatic image pickup process, the drive means drives the image pickup direction of the image pickup means with the entire circumference of the image pickup device as a drive range. Device.
ことを特徴とする請求項3から9のいずれか1項に記載の撮像装置。 The method according to any one of claims 3 to 9, wherein when the drive is limited, the drive means drives the image pickup direction of the image pickup means in a drive range narrower than the drive range in the automatic image pickup process. Imaging device.
ことを特徴とする請求項1から10のいずれか1項に記載の撮像装置。 When limiting the drive, the driving means drives the imaging direction of the imaging means at a speed slower than the driving speed of the imaging means immediately before the detecting means detects the second voice command. The image pickup apparatus according to any one of claims 1 to 10.
ことを特徴とする請求項1から11のいずれか1項に記載の撮像装置。 When the driving is limited, any one of claims 1 to 11 is characterized in that the driving means drives the subject captured when the second voice command is detected so as to fit in the angle of view. The imaging device according to the section.
ことを特徴とする請求項1から12のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 12, wherein when the drive is restricted, the drive means is driven so as to search for a subject in the restricted drive.
ことを特徴とする請求項1から10のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 10, wherein when the drive is limited, the drive means stops the drive of the image pickup means in the image pickup direction.
前記検出手段は、前記マイクから入力された音声信号を解析することによって前記音声コマンドを検出する
ことを特徴とする請求項1から14のいずれか1項に記載の撮像装置。 Have more mics
The imaging device according to any one of claims 1 to 14, wherein the detection means detects the voice command by analyzing a voice signal input from the microphone.
前記撮像ステップにおける撮像方向を駆動する駆動ステップと、
特定の処理を実行するための第一の音声コマンドと、前記第一の音声コマンドの検出を開始するための第二の音声コマンドと、を検出する検出ステップと、
前記検出ステップにおいて前記第二の音声コマンドを検出したことに応じて、前記駆動ステップにおける駆動を制限するステップと、
を有することを特徴とする制御方法。 An imaging step to capture the subject and
A drive step that drives the imaging direction in the imaging step,
A detection step for detecting a first voice command for executing a specific process and a second voice command for initiating detection of the first voice command.
A step of limiting the drive in the drive step according to the detection of the second voice command in the detection step, and a step of limiting the drive in the drive step.
A control method characterized by having.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020181149A JP2022071984A (en) | 2020-10-29 | 2020-10-29 | Imaging device, control method, and program |
| US17/512,523 US12003857B2 (en) | 2020-10-29 | 2021-10-27 | Image capturing apparatus capable of recognizing voice command, control method, and recording medium |
| CN202111265269.9A CN114430450B (en) | 2020-10-29 | 2021-10-28 | Camera device, control method, and recording medium capable of recognizing voice commands |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020181149A JP2022071984A (en) | 2020-10-29 | 2020-10-29 | Imaging device, control method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2022071984A true JP2022071984A (en) | 2022-05-17 |
Family
ID=81311051
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020181149A Pending JP2022071984A (en) | 2020-10-29 | 2020-10-29 | Imaging device, control method, and program |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12003857B2 (en) |
| JP (1) | JP2022071984A (en) |
| CN (1) | CN114430450B (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20240073518A1 (en) * | 2022-08-25 | 2024-02-29 | Rovi Guides, Inc. | Systems and methods to supplement digital assistant queries and filter results |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002123291A (en) * | 2000-10-18 | 2002-04-26 | Olympus Optical Co Ltd | System controller |
| JP2012015949A (en) * | 2010-07-05 | 2012-01-19 | Sony Corp | Imaging control device, imaging control method and program |
| JP2013168745A (en) * | 2012-02-14 | 2013-08-29 | Canon Inc | Imaging apparatus and method of controlling the same |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3710238B2 (en) * | 1996-12-19 | 2005-10-26 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
| US20160182814A1 (en) * | 2014-12-19 | 2016-06-23 | Microsoft Technology Licensing, Llc | Automatic camera adjustment to follow a target |
| US9870521B1 (en) * | 2016-03-29 | 2018-01-16 | Amazon Technologies, Inc. | Systems and methods for identifying objects |
| JP6766086B2 (en) | 2017-09-28 | 2020-10-07 | キヤノン株式会社 | Imaging device and its control method |
| CN111527446B (en) * | 2017-12-26 | 2022-05-17 | 佳能株式会社 | Image pickup apparatus, control method therefor, and recording medium |
| JP2019117375A (en) | 2017-12-26 | 2019-07-18 | キヤノン株式会社 | Imaging apparatus, control method of the same, and program |
| CN108737719A (en) * | 2018-04-04 | 2018-11-02 | 深圳市冠旭电子股份有限公司 | Camera filming control method, device, smart machine and storage medium |
| CN110070866B (en) * | 2019-04-09 | 2021-12-24 | 阿波罗智联(北京)科技有限公司 | Voice recognition method and device |
| WO2021140879A1 (en) * | 2020-01-06 | 2021-07-15 | キヤノン株式会社 | Imaging device, control method for imaging device, program |
| JP7584966B2 (en) * | 2020-09-24 | 2024-11-18 | キヤノン株式会社 | Imaging device |
| US11769491B1 (en) * | 2020-09-29 | 2023-09-26 | Amazon Technologies, Inc. | Performing utterance detection using convolution |
| JP7738991B2 (en) * | 2020-10-27 | 2025-09-16 | キヤノン株式会社 | Imaging device, control method, and program |
-
2020
- 2020-10-29 JP JP2020181149A patent/JP2022071984A/en active Pending
-
2021
- 2021-10-27 US US17/512,523 patent/US12003857B2/en active Active
- 2021-10-28 CN CN202111265269.9A patent/CN114430450B/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002123291A (en) * | 2000-10-18 | 2002-04-26 | Olympus Optical Co Ltd | System controller |
| JP2012015949A (en) * | 2010-07-05 | 2012-01-19 | Sony Corp | Imaging control device, imaging control method and program |
| JP2013168745A (en) * | 2012-02-14 | 2013-08-29 | Canon Inc | Imaging apparatus and method of controlling the same |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114430450A (en) | 2022-05-03 |
| CN114430450B (en) | 2025-09-23 |
| US20220141389A1 (en) | 2022-05-05 |
| US12003857B2 (en) | 2024-06-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11729487B2 (en) | Image pickup apparatus and control method therefor | |
| US11812132B2 (en) | Imaging device, control method therefor, and recording medium | |
| US12401880B2 (en) | Image pickup apparatus and control method therefor | |
| US11184550B2 (en) | Image capturing apparatus capable of automatically searching for an object and control method thereof, and storage medium | |
| US11265477B2 (en) | Image capturing apparatus and non-transitory recording medium | |
| JP7267686B2 (en) | Imaging device and its control method | |
| CN112040115B (en) | Image processing apparatus, control method thereof, and storage medium | |
| US10893191B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
| JP7403218B2 (en) | Imaging device, its control method, program, storage medium | |
| JP7738991B2 (en) | Imaging device, control method, and program | |
| JP2020095702A (en) | Information processing apparatus, imaging apparatus, control method of information processing apparatus, and program | |
| JP7584966B2 (en) | Imaging device | |
| CN114430450B (en) | Camera device, control method, and recording medium capable of recognizing voice commands | |
| US12167121B2 (en) | Image capturing apparatus, control method of image capturing apparatus, and storage medium | |
| JP7393133B2 (en) | Image processing device, image processing method, imaging device, program, storage medium | |
| JP7693292B2 (en) | Image capture device, image capture device control method, and program | |
| JP2020071873A (en) | Information processing device, information processing method, and program | |
| US20210266450A1 (en) | Image capture apparatus and control method for same, and storage medium | |
| JP2024107916A (en) | Information processing device, control method for information processing device, and program | |
| US12069413B2 (en) | Imaging apparatus capable of transmitting image data to an external apparatus, control method thereof, and storage medium | |
| JP2024164703A (en) | IMAGING APPARATUS, IMAGING SYSTEM, AND METHOD FOR CONTROLLING IMAGING APPARATUS, AND PROGRAM | |
| JP2024165083A (en) | Imaging device, control method thereof, and program | |
| JP2023115728A (en) | IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20201105 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231027 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241210 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250205 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250225 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250424 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250603 |