[go: up one dir, main page]

JP2016009039A - Image-capturing device - Google Patents

Image-capturing device Download PDF

Info

Publication number
JP2016009039A
JP2016009039A JP2014128703A JP2014128703A JP2016009039A JP 2016009039 A JP2016009039 A JP 2016009039A JP 2014128703 A JP2014128703 A JP 2014128703A JP 2014128703 A JP2014128703 A JP 2014128703A JP 2016009039 A JP2016009039 A JP 2016009039A
Authority
JP
Japan
Prior art keywords
unit
level
correction
frequency spectrum
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014128703A
Other languages
Japanese (ja)
Inventor
啓太 園田
Keita Sonoda
啓太 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014128703A priority Critical patent/JP2016009039A/en
Publication of JP2016009039A publication Critical patent/JP2016009039A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform a noise reduction process appropriately.SOLUTION: An image-capturing device has a noise cancellation unit for comparing, for each frequency, the signal level of the frequency spectrum of an inputted sound signal and the level of a noise profile, and performs level suppression. When the inputted sound level is below a predetermined threshold, a drive unit compares a signal level between the frequency spectrum before drive and the frequency spectrum whose level is suppressed by the noise cancellation unit during drive, and corrects the level of the noise profile.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、画像信号を記録すると共に音声信号を記録する撮像装置が知られている。これらの撮像装置には、装置に備えられたまたは装着されたレンズを移動する際に、レンズを移動するためのモータなどの駆動部が発生した音(駆動ノイズ、駆動雑音)を低減するものがあった(特許文献1:例えば図11)。   2. Description of the Related Art Conventionally, an imaging apparatus that records an image signal and an audio signal is known. Some of these imaging devices reduce sound (driving noise, driving noise) generated by a driving unit such as a motor for moving the lens when the lens provided in or attached to the device is moved. (Patent Document 1: for example, FIG. 11).

特開平06−349208号公報Japanese Patent Laid-Open No. 06-349208

ズームレンズ等を構成する鏡筒は、個体ばらつきや経年変化により駆動時の駆動音にレベル差が生じる。よって、レベル差に応じて鏡筒駆動時の減音処理のパラメータの補正が必要となる。   The lens barrel constituting the zoom lens or the like has a level difference in driving sound during driving due to individual variations and aging. Therefore, it is necessary to correct the parameters of the sound reduction processing when driving the lens barrel in accordance with the level difference.

前記に記載された音声処理の技術は、鏡筒の駆動音のみを抽出してレベルを検知する構成となっていない。つまり、鏡筒の駆動音を除いた音と鏡筒駆動音の区別することができない。   The voice processing technique described above is not configured to detect the level by extracting only the driving sound of the lens barrel. That is, it is impossible to distinguish between the sound excluding the driving sound of the lens barrel and the driving sound of the lens barrel.

よって環境音が限りなく小さい、例えば無響室や無響箱等の静音環境下でないと鏡筒の個体ばらつきによる音レベル差、経年変化による音レベル差を検知することができない。   Therefore, the sound level difference due to individual variation of the lens barrel and the sound level difference due to secular change cannot be detected unless the ambient sound is as low as possible, for example, in a silent environment such as an anechoic room or an anechoic box.

そこで、本発明は、静音環境等の限定された環境下だけでなく、ある程度の音が存在する環境下においても、鏡筒の個体ばらつきに依る鏡筒駆動時の駆動音のレベル差や経年変化により生じる鏡筒駆動時の駆動音のレベル変化を補正する事ができ、また、限定された環境下においては鏡筒駆動時の駆動音の周波数ずれも補正できる音声信号処理装置を提供することを目的とする。   Therefore, the present invention is not limited to a limited environment such as a quiet environment, but also in an environment where a certain amount of sound exists, the level difference or secular change of the driving sound at the time of driving the lens barrel due to individual variation of the lens barrel It is possible to correct a change in the level of the driving sound at the time of driving the lens barrel caused by the above, and to provide a sound signal processing device capable of correcting a frequency deviation of the driving sound at the time of driving the lens barrel in a limited environment. Objective.

本発明の撮像装置は、撮像手段と、前記撮像手段の光学系を移動させる駆動手段と、時系列の音声データを周波数スペクトルに変換するFFT部と、入力される音声信号の周波数スペクトルの信号レベルとノイズプロファイルのレベルを周波数毎に比較してレベル抑圧をするノイズキャンセル部と、前記ノイズキャンセル部にてレベル抑圧された周波数スペクトルを時系列の音声データに戻すiFFT部と、前記周波数スペクトルの信号レベルと前記ノイズプロファイルのレベルを比較するレベル比較部と、前記ノイズプロファイルと対象とする駆動部の周波数スペクトルとの周波数ずれあるいはレベルずれを演算し、結果に応じて補正を実行するか否かを判定する補正判定部と、前記ノイズプロファイルの補正レベルを演算し補正する補正部と、前記駆動部を駆動させているか否かに応じて、前記調整手段を制御する制御手段を備え、入力音声レベルが予め定められた閾値を下回る場合、駆動部が駆動前の周波数スペクトルと駆動中にノイズキャンセル部にてレベル抑圧された周波数スペクトルとの信号レベルを比較し、ノイズプロファイルのレベルを補正する。   The imaging apparatus of the present invention includes an imaging unit, a driving unit that moves an optical system of the imaging unit, an FFT unit that converts time-series audio data into a frequency spectrum, and a signal level of a frequency spectrum of an input audio signal. And a noise canceling unit for suppressing the level by comparing the level of the noise profile for each frequency, an iFFT unit for returning the frequency spectrum level-suppressed by the noise canceling unit to time-series audio data, and the signal of the frequency spectrum A level comparison unit that compares a level with the level of the noise profile, and calculates a frequency shift or level shift between the noise profile and a frequency spectrum of a target drive unit, and whether to perform correction according to the result Correction determining unit for determining, and correction for calculating and correcting the correction level of the noise profile And a control means for controlling the adjusting means according to whether or not the driving section is driven, and when the input sound level is lower than a predetermined threshold, the driving section drives the frequency spectrum before driving and the driving The signal level is compared with the frequency spectrum whose level is suppressed by the noise cancellation unit, and the level of the noise profile is corrected.

本発明によれば、静音環境等の限定された環境下だけでなく、ある程度の音が存在する環境下においても、鏡筒の個体ばらつきに依る鏡筒駆動時の駆動音のレベル差や経年変化により生じる鏡筒駆動時の駆動音のレベル変化を補正する事ができ、また、限定された環境化においては鏡筒駆動時の駆動音の周波数ずれも補正する事ができる。   According to the present invention, not only in a limited environment such as a quiet environment, but also in an environment where a certain amount of sound exists, the level difference or secular change of the driving sound at the time of driving the lens barrel due to individual variation of the lens barrel Therefore, it is possible to correct the change in the level of the driving sound when the lens barrel is driven, and to correct the frequency deviation of the driving sound when the lens barrel is driven in a limited environment.

撮像装置のブロック図である。It is a block diagram of an imaging device. 撮像部及び音声入力部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of an imaging part and an audio | voice input part. ノイズプロファイルの周波数スペクトルを示す図である。It is a figure which shows the frequency spectrum of a noise profile. ノイズキャンセル処理を表す図である。It is a figure showing a noise cancellation process. デジタル音声信号の周波数スペクトルを表す図である。It is a figure showing the frequency spectrum of a digital audio | voice signal. 音声信号の周波数スペクトルを表す図である。It is a figure showing the frequency spectrum of an audio | voice signal. 音声信号の周波数スペクトルを表す図である。It is a figure showing the frequency spectrum of an audio | voice signal. 補正パラメータを示した図である。It is the figure which showed the correction parameter. デジタル音声信号の周波数スペクトルを表す図である。It is a figure showing the frequency spectrum of a digital audio | voice signal. 音声信号の周波数スペクトルを表す図である。It is a figure showing the frequency spectrum of an audio | voice signal. 従来例の撮像部及び、音声入力部の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging part and audio | voice input part of a prior art example.

以下、図面を参照して本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施例では、撮像装置について図1から図10を用いて説明する。図1は、実施例1の撮像装置100の構成を示すブロック図である。   In this embodiment, an imaging apparatus will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the imaging apparatus 100 according to the first embodiment.

図1において、撮像部101は、撮影レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、画像データを生成する。撮影レンズは、内蔵型のレンズであっても、着脱式のレンズであっても良い。また、撮像素子は、CCD、CMOS等に代表される光電変換素子であればよい。   In FIG. 1, an imaging unit 101 converts an optical image of a subject captured by a photographing lens into an image signal by an imaging element, performs analog-digital conversion, image adjustment processing, and the like, and generates image data. The taking lens may be a built-in lens or a detachable lens. Further, the imaging element may be a photoelectric conversion element typified by a CCD, a CMOS or the like.

音声入力部102は、内蔵または音声端子を介して接続されたマイクにより、撮像装置100の周辺の音声を集音し、アナログデジタル変換、音声処理などを行い音声データを生成する。マイクは、指向性、無指向性を問わないが、本実施例では無指向性のマイクを使用するものとする。メモリ103は、撮像部101により得られた画像データや、音声入力部102により得られた音声データを一時的に記憶する。表示制御部104は、撮像部101により得られた画像データに係る映像や、撮像装置100の操作画面、メニュー画面等を表示部105や、不図示の映像端子を介して外部のディスプレイに表示させる。   The sound input unit 102 collects sound around the imaging apparatus 100 with a built-in microphone or connected via a sound terminal, and performs analog-digital conversion, sound processing, and the like to generate sound data. The microphone may be directional or omnidirectional, but in this embodiment, an omnidirectional microphone is used. The memory 103 temporarily stores the image data obtained by the imaging unit 101 and the audio data obtained by the audio input unit 102. The display control unit 104 displays a video related to the image data obtained by the imaging unit 101, an operation screen of the imaging device 100, a menu screen, and the like on the display unit 105 or an external display via a video terminal (not shown). .

符号化処理部106は、メモリ103に一時的に記憶された画像データや音声データを読み出して所定の符号化を行い、圧縮画像データ、圧縮音声データ等を生成する。また、音声データに関しては圧縮しないようにしてもよい。圧縮画像データは、例えば、MPEG2やH.264/MPEG4−AVCなど、どのような圧縮方式で圧縮されたものであってもよい。また、圧縮音声データも、AC3、AAC、ATRAC、ADPCMなどのような圧縮方式で圧縮されたものであってもよい。   The encoding processing unit 106 reads out image data and audio data temporarily stored in the memory 103, performs predetermined encoding, and generates compressed image data, compressed audio data, and the like. Further, the audio data may not be compressed. The compressed image data is, for example, MPEG2 or H.264. It may be compressed by any compression method such as H.264 / MPEG4-AVC. The compressed audio data may also be compressed by a compression method such as AC3, AAC, ATRAC, ADPCM.

記録再生部107は、記録媒体108に対して、符号化処理部106で生成された圧縮画像データ、圧縮音声データまたは音声データ、各種データを記録したり、記録媒体108から読出したりする。ここで、記録媒体108は、画像データ、音声データ、等を記録することができれば、磁気ディスク、光学式ディスク、半導体メモリなどのあらゆる方式の記録媒体を含む。   The recording / reproducing unit 107 records the compressed image data, compressed audio data or audio data, and various data generated by the encoding processing unit 106 on the recording medium 108, and reads out from the recording medium 108. Here, the recording medium 108 includes all types of recording media such as a magnetic disk, an optical disk, and a semiconductor memory as long as image data, audio data, and the like can be recorded.

制御部109は、撮像装置100の各ブロックに制御信号を送信することで撮像装置100の各ブロックを制御することができ、各種制御を実行するためのCPUやメモリなどからなる。制御部109で使用するメモリは、各種制御プログラムを格納するROM、演算処理のためのRAM等であり、制御部109外付けのメモリも含む。操作部110は、ボタンやダイヤルなどからなり、ユーザの操作に応じて、指示信号を制御部109に送信する。   The control unit 109 can control each block of the imaging apparatus 100 by transmitting a control signal to each block of the imaging apparatus 100, and includes a CPU, a memory, and the like for performing various controls. The memory used by the control unit 109 is a ROM for storing various control programs, a RAM for arithmetic processing, and the like, and includes a memory external to the control unit 109. The operation unit 110 includes buttons, a dial, and the like, and transmits an instruction signal to the control unit 109 according to a user operation.

本実施例の撮像装置では、動画記録開始、終了を指示するための撮影ボタン、光学的、電子的に画像を拡大、縮小する指示するためのズームレバー、各種調整をするための十字キー、決定キーなどからなる。音声出力部111は、記録再生部107により再生された音声データや圧縮音声データ、または制御部109により出力される音声データをスピーカ112や音声端子などに出力する。外部出力部113は、記録再生部107により再生された圧縮映像データや圧縮音声データ、音声データなどを外部機器に出力する。データバス114は、音声データや画像データ等の各種データ、各種制御信号を撮像装置100の各ブロックに供給する。   In the image pickup apparatus of the present embodiment, a shooting button for instructing start and end of moving image recording, a zoom lever for instructing optically and electronically enlarging and reducing an image, a cross key for performing various adjustments, and a determination It consists of keys. The audio output unit 111 outputs the audio data and compressed audio data reproduced by the recording / reproducing unit 107 or the audio data output by the control unit 109 to the speaker 112 and the audio terminal. The external output unit 113 outputs the compressed video data, compressed audio data, audio data, and the like reproduced by the recording / reproducing unit 107 to an external device. The data bus 114 supplies various data such as audio data and image data and various control signals to each block of the imaging apparatus 100.

ここで、本実施例の撮像装置100の通常の動作について説明する。本実施例の撮像装置100は、ユーザが操作部110を操作して電源を投入する指示が出されたことに応じて、不図示の電源供給部から、撮像装置の各ブロックに電源を供給する。   Here, the normal operation of the imaging apparatus 100 of the present embodiment will be described. The imaging apparatus 100 according to the present embodiment supplies power to each block of the imaging apparatus from a power supply unit (not illustrated) in response to an instruction to turn on the power by operating the operation unit 110 by the user. .

電源が供給されると、制御部109は、操作部110のモード切り換えスイッチが、例えば、撮影モード、再生モード等のどのモードであるかを操作部110からの指示信号により確認する。動画記録モードでは、撮像部101により得られた画像データと音声入力部102により得られた音声データとを1つのファイルとして保存する。再生モードでは、記録媒体108に記録された圧縮画像データを記録再生部107により再生して表示部105に表示させる。   When the power is supplied, the control unit 109 confirms which mode the mode change switch of the operation unit 110 is in, for example, a shooting mode, a reproduction mode, or the like by an instruction signal from the operation unit 110. In the moving image recording mode, the image data obtained by the imaging unit 101 and the audio data obtained by the audio input unit 102 are stored as one file. In the reproduction mode, the compressed image data recorded on the recording medium 108 is reproduced by the recording / reproducing unit 107 and displayed on the display unit 105.

動画記録モードでは、まず、制御部109は、撮影待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。   In the moving image recording mode, first, the control unit 109 transmits a control signal to each block of the imaging apparatus 100 so as to shift to the shooting standby state, and performs the following operation.

撮像部101は、撮影レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、画像データを生成する。そして、得られた画像データを表示処理部104に送信し、表示部105に表示させる。ユーザはこの様にして表示された画面を見ながら撮影の準備を行う。   The imaging unit 101 converts an optical image of a subject captured by a photographing lens into an image signal by an imaging element, performs analog-digital conversion, image adjustment processing, and the like, and generates image data. Then, the obtained image data is transmitted to the display processing unit 104 and displayed on the display unit 105. The user prepares for shooting while viewing the screen displayed in this way.

音声入力部102は、複数のマイクにより得られたアナログ音声信号をデジタル変換し、得られた複数のデジタル音声信号を処理して、マルチチャンネルの音声データを生成する。そして、得られた音声データを音声出力部111に送信し、接続されたスピーカ112や不図示のイヤホンから音声として出力させる。ユーザは、この様にして出力された音声を聞きながら記録音量を決定するためのマニュアルボリュームの調整をすることもできる。   The audio input unit 102 digitally converts analog audio signals obtained by a plurality of microphones and processes the obtained digital audio signals to generate multi-channel audio data. Then, the obtained audio data is transmitted to the audio output unit 111 and is output as audio from the connected speaker 112 or an unillustrated earphone. The user can also adjust the manual volume to determine the recording volume while listening to the sound output in this way.

次に、ユーザが操作部110の記録ボタンを操作することにより撮影開始の指示信号が制御部109に送信されると、制御部109は、撮像装置100の各ブロックに撮影開始の指示信号を送信し、以下のような動作をさせる。   Next, when a shooting start instruction signal is transmitted to the control unit 109 by the user operating the recording button of the operation unit 110, the control unit 109 transmits a shooting start instruction signal to each block of the imaging apparatus 100. Then, the following operation is performed.

撮像部101は、撮影レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、画像データを生成する。そして、得られた画像データを表示処理部104に送信し、表示部105に表示させる。また、得られた画像データをメモリ103送信する。   The imaging unit 101 converts an optical image of a subject captured by a photographing lens into an image signal by an imaging element, performs analog-digital conversion, image adjustment processing, and the like, and generates image data. Then, the obtained image data is transmitted to the display processing unit 104 and displayed on the display unit 105. Further, the obtained image data is transmitted to the memory 103.

音声入力部102は、複数のマイクにより得られたアナログ音声信号をデジタル変換し、得られた複数のデジタル音声信号を処理して、マルチチャンネルの音声データを生成する。そして、得られた音声データをメモリ103に送信する。また、マイクが一つの場合には、得られたアナログ音声信号をデジタル変換し音声データを生成し、音声データをメモリ103に送信する。   The audio input unit 102 digitally converts analog audio signals obtained by a plurality of microphones and processes the obtained digital audio signals to generate multi-channel audio data. Then, the obtained audio data is transmitted to the memory 103. If there is only one microphone, the obtained analog audio signal is digitally converted to generate audio data, and the audio data is transmitted to the memory 103.

符号化処理部106は、メモリ103に一時的に記憶された画像データや音声データを読み出して所定の符号化を行い、圧縮画像データ、圧縮音声データ等を生成する。   The encoding processing unit 106 reads out image data and audio data temporarily stored in the memory 103, performs predetermined encoding, and generates compressed image data, compressed audio data, and the like.

そして、制御部109は、これらの圧縮画像データ、圧縮音声データを合成し、データストリームを形成し、記録再生部107に出力する。音声データを圧縮しない場合には、制御部109は、メモリ103に格納された音声データと圧縮画像データとを合成し、データストリームを形成して記録再生部107に出力する。   Then, the control unit 109 synthesizes these compressed image data and compressed audio data, forms a data stream, and outputs the data stream to the recording / reproducing unit 107. When the audio data is not compressed, the control unit 109 synthesizes the audio data stored in the memory 103 and the compressed image data, forms a data stream, and outputs the data stream to the recording / reproducing unit 107.

記録再生部107は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体108に書き込んでいく。   The recording / playback unit 107 writes the data stream to the recording medium 108 as one moving image file under the management of a file system such as UDF or FAT.

以上の動作を撮影中は継続する。そして、ユーザが操作部110の記録ボタンを操作することにより撮影終了の指示信号が制御部109に送信されると、制御部109は、撮像装置100の各ブロックに撮影終了の指示信号を送信し、以下のような動作をさせる。   The above operation is continued during shooting. When the user operates the recording button of the operation unit 110 and a shooting end instruction signal is transmitted to the control unit 109, the control unit 109 transmits a shooting end instruction signal to each block of the imaging apparatus 100. The following operations are performed.

撮像部101、音声入力部102は、それぞれ画像データ、音声データの生成を停止する。符号化処理部106は、メモリに記憶されている残りの画像データと音声データとを読出して所定の符号化を行い、圧縮画像データ、圧縮音声データ等を生成し終えたら動作を停止する。音声データを圧縮しない場合には、当然、圧縮画像データの生成が終わったら動作を停止する。   The imaging unit 101 and the audio input unit 102 stop generating image data and audio data, respectively. The encoding processing unit 106 reads the remaining image data and audio data stored in the memory, performs predetermined encoding, and stops the operation when generation of compressed image data, compressed audio data, and the like is completed. When the audio data is not compressed, the operation is naturally stopped when the generation of the compressed image data is finished.

そして、制御部109は、これらの最後の圧縮画像データと、圧縮音声データまたは音声データとを合成し、データストリームを形成し、記録再生部107に出力する。   Then, the control unit 109 synthesizes the last compressed image data and the compressed audio data or audio data, forms a data stream, and outputs the data stream to the recording / reproducing unit 107.

記録再生部107は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体108に書き込んでいく。そして、データストリームの供給が停止したら、動画ファイルを完成させて、記録動作を停止させる。   The recording / playback unit 107 writes the data stream to the recording medium 108 as one moving image file under the management of a file system such as UDF or FAT. When the supply of the data stream is stopped, the moving image file is completed and the recording operation is stopped.

制御部109は、記録動作が停止すると、撮影待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信して、撮影待機状態に戻る。   When the recording operation stops, the control unit 109 transmits a control signal to each block of the imaging apparatus 100 so as to shift to the shooting standby state, and returns to the shooting standby state.

次に、再生モードでは、制御部109は、再生状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。   Next, in the playback mode, the control unit 109 transmits a control signal to each block of the imaging apparatus 100 so as to shift to the playback state, and performs the following operation.

記録媒体108に記録された圧縮画像データと圧縮音声データとからなる動画ファイルを記録再生部107が読出して、読出された圧縮画像データ、圧縮音声データは、符号化処理部106に送る。   The recording / playback unit 107 reads a moving image file composed of compressed image data and compressed audio data recorded on the recording medium 108, and sends the read compressed image data and compressed audio data to the encoding processing unit 106.

符号化処理部106は、圧縮画像データ、圧縮音声データを復号してそれぞれ、表示制御部104、音声出力部111に送信する。表示制御部104は、復号された画像データを表示部105に表示させる。音声出力部111は、復号された音声データを内蔵または、取付けられた外部スピーカから出力させる。本実施例の撮像装置100は以上のように、画像、音声の記録再生を行うことができる。   The encoding processing unit 106 decodes the compressed image data and the compressed audio data and transmits them to the display control unit 104 and the audio output unit 111, respectively. The display control unit 104 causes the display unit 105 to display the decoded image data. The audio output unit 111 outputs the decoded audio data from an external speaker built in or attached. As described above, the imaging apparatus 100 according to the present embodiment can record and reproduce images and sounds.

本実施例では、音声入力部102において、音声信号を得る際に、マイクにより得られた音声信号のレベル調整処理等の処理をしている。この処理は、装置が起動してから常に行われてもよいし、撮影モードが選択されてから行われてもよい、または、音声の記録に関連するモードが選択されてから行われても良い。また、音声の記録に関連するモードにおいて、音声の記録が開始したことに応じて上記の処理を行ってもよい。本実施例では、動画像撮影の開始されたタイミングで上記の処理を行うようにしたものとする。   In the present embodiment, the audio input unit 102 performs processing such as level adjustment processing of the audio signal obtained by the microphone when obtaining the audio signal. This process may always be performed after the apparatus is activated, may be performed after the shooting mode is selected, or may be performed after a mode related to audio recording is selected. . Further, in a mode related to audio recording, the above processing may be performed in response to the start of audio recording. In this embodiment, it is assumed that the above processing is performed at the timing when moving image shooting is started.

図2は、本実施例の撮像装置100の撮像部101、音声入力部102の詳細な構成を示すブロック図である。   FIG. 2 is a block diagram illustrating detailed configurations of the imaging unit 101 and the audio input unit 102 of the imaging apparatus 100 according to the present exemplary embodiment.

撮像部101は、被写体の光学像を取り込むレンズ201等の光学系、レンズ201により取り込まれた被写体の光学像を電気信号(画像信号)に変換させる撮像素子202を有している。さらに、撮像素子202により得られたアナログ画像信号をデジタル画像信号に変換し、画質調整処理をして画像データを形成し、メモリに送信する画像処理手段203を有している。さらに、レンズ201を移動させるための位置センサ、モータ等の公知の駆動メカニズムを有するレンズ制御部204を有している。本実施例では撮像部101にレンズ201、レンズ制御部204が内蔵されているように記載しているが、これらは着脱可能な交換レンズであっても良い。   The imaging unit 101 includes an optical system such as a lens 201 that captures an optical image of a subject, and an imaging element 202 that converts the optical image of the subject captured by the lens 201 into an electrical signal (image signal). The image processing unit 203 further converts an analog image signal obtained by the image sensor 202 into a digital image signal, performs image quality adjustment processing, forms image data, and transmits the image data to a memory. Furthermore, it has a lens control unit 204 having a known drive mechanism such as a position sensor for moving the lens 201 and a motor. In this embodiment, it is described that the imaging unit 101 includes the lens 201 and the lens control unit 204, but these may be detachable interchangeable lenses.

例えば、ズーム動作、フォーカス調整などの指示を、ユーザが操作部110を操作して入力すると、制御部109は、レンズ制御部204にレンズを移動させる制御信号(駆動信号)を送信する。レンズ制御部204は、この制御信号に応じて、位置センサでレンズ201の位置を確認し、モータ等の駆動部でレンズ201の移動を行う。また、画像処理部203により得られた画像や被写体との距離を制御部109が確認し、自動的に調整する場合は、レンズを駆動させる制御信号を送信することになる。また、画像のブレを防止する、いわゆる防振機能を備えている場合には、制御部109は、不図示の振動センサにより検出された振動に基づいて、レンズ201を移動させるための制御信号をレンズ制御部204に送信することになる。   For example, when a user operates the operation unit 110 to input instructions such as zoom operation and focus adjustment, the control unit 109 transmits a control signal (drive signal) for moving the lens to the lens control unit 204. In response to this control signal, the lens control unit 204 confirms the position of the lens 201 with a position sensor, and moves the lens 201 with a driving unit such as a motor. In addition, when the control unit 109 confirms the image obtained by the image processing unit 203 and the distance to the subject and automatically adjusts the distance, a control signal for driving the lens is transmitted. Further, when a so-called image stabilization function for preventing image blurring is provided, the control unit 109 outputs a control signal for moving the lens 201 based on vibration detected by a vibration sensor (not shown). This is transmitted to the lens control unit 204.

このときに、本実施例の撮像装置100は、レンズ201の移動による駆動ノイズやレンズ201を移動させるためのモータの駆動ノイズが発生することになる。本実施例では、制御部109からのレンズを駆動させる制御信号に応じて、レンズ制御部204は、レンズを駆動させる。すなわち、制御部109は、駆動ノイズが発生するタイミングを知る(検出するまたは、決定する)ことができる。   At this time, the imaging apparatus 100 according to the present embodiment generates driving noise due to movement of the lens 201 and driving noise of a motor for moving the lens 201. In the present embodiment, the lens control unit 204 drives the lens in response to a control signal for driving the lens from the control unit 109. That is, the control unit 109 can know (detect or determine) the timing at which drive noise occurs.

本実施例において、レンズ201は、例えば最大で6倍、最小で1倍の拡大、縮小を光学的に行うことができる。これを本実施例では光学ズームと言う。光学ズームは、制御部109からの指示で、レンズ制御部204が、レンズ201のレンズを移動させることで、被写体の光学像を拡大させるものである。また、画像処理部203は、撮像素子202により得られた画像信号の一部を拡大した画像信号を出力する電子ズーム(拡大)機能を備えている。また、撮像素子202により得る画像の範囲を広くし、画像処理部203で画像サイズを縮小した画像信号を出力する電子ズーム(縮小)機能を備えている。   In this embodiment, the lens 201 can optically perform enlargement and reduction, for example, 6 times at the maximum and 1 time at the minimum. This is called optical zoom in this embodiment. In the optical zoom, in response to an instruction from the control unit 109, the lens control unit 204 moves the lens 201 to enlarge the optical image of the subject. Further, the image processing unit 203 has an electronic zoom (enlargement) function for outputting an image signal obtained by enlarging a part of the image signal obtained by the image sensor 202. In addition, an electronic zoom (reduction) function is provided for outputting an image signal in which an image range obtained by the image sensor 202 is widened and the image processing unit 203 reduces the image size.

また、音声入力部102の音声処理は、音声振動を電気信号に変換し、音声信号を出力するマイク205、マイク205により得られたアナログ音声信号をデジタル音声信号に変換するAD変換部206を有している。また、AD変換された時間領域のデジタル音声信号を高速フーリエ変換して周波数領域のデジタル音声信号に変換するFFT部207、FFT部207により変換された周波数領域のデジタル音声信号の或るサンプルタイミングにおける周波数スペクトルの信号レベルをメモリ208に記憶されている周波数スペクトルが持つ各周波数ごとの信号レベルと比較し、周波数毎に抑圧処理を施すノイズキャンセル部209を有している。さらに、抑圧処理された後の周波数領域のデジタル信号を時間軸に逆変換してデジタル音声信号を生成するiFFT部210、iFFT部210により生成された時間領域のデジタル音声信号の振幅を所定のレベルに抑えるためのオートレベルコントローラ(以後、ALC)211、音声信号に所定の処理を行い音声データを形成しメモリ103へ送信する音声処理部212を有している。   The voice processing of the voice input unit 102 includes a microphone 205 that converts voice vibration into an electrical signal and outputs the voice signal, and an AD converter 206 that converts an analog voice signal obtained by the microphone 205 into a digital voice signal. doing. Also, an FFT unit 207 that converts the time-domain digital audio signal subjected to AD conversion into a frequency-domain digital audio signal by performing fast Fourier transform at a certain sample timing of the frequency-domain digital audio signal converted by the FFT unit 207 A noise cancel unit 209 that compares the signal level of the frequency spectrum with the signal level of each frequency included in the frequency spectrum stored in the memory 208 and performs suppression processing for each frequency is provided. Further, the frequency domain digital signal after the suppression processing is inversely converted to the time axis to generate a digital audio signal, and the amplitude of the time domain digital audio signal generated by the iFFT unit 210 is set to a predetermined level. An audio level controller (hereinafter referred to as ALC) 211, and an audio processor 212 that performs predetermined processing on the audio signal to generate audio data and transmit it to the memory 103.

本実施例におけるメモリ208に記録された周波数スペクトルは、例えば、被写体の光学像を拡大するためにレンズ201を移動(以降、拡大駆動)するときに対応する「拡大時の周波数スペクトル」を有している。また、被写体の光学像を縮小するためにレンズ201を移動(以降、縮小駆動)するときに対応する「縮小時の周波数スペクトル」を有している。本実施例ではレンズ201を移動する場合について説明したが、これ以外の駆動部についてそれぞれに異なる周波数スペクトルを有し、同様の処理をしてもよい。   The frequency spectrum recorded in the memory 208 in the present embodiment has, for example, a “frequency spectrum at the time of enlargement” corresponding to the movement of the lens 201 (hereinafter referred to as enlargement driving) in order to enlarge the optical image of the subject. ing. Further, it has a “frequency spectrum at the time of reduction” corresponding to when the lens 201 is moved (hereinafter referred to as reduction driving) in order to reduce the optical image of the subject. In this embodiment, the case where the lens 201 is moved has been described. However, the drive units other than this may have different frequency spectra, and the same processing may be performed.

このメモリ208に記録された周波数スペクトルの例を示した図が図3である。図3において(A1)は、拡大駆動するときに対応する「拡大時の周波数スペクトル」を示す。また、(B1)は、縮小駆動するときに対応する「縮小時の周波数スペクトル」を示す。本実施例はこれらをノイズプロファイルと呼ぶ。   FIG. 3 is a diagram showing an example of the frequency spectrum recorded in the memory 208. In FIG. 3, (A1) shows a “frequency spectrum at the time of enlargement” corresponding to the case of enlargement driving. (B1) shows a “frequency spectrum at the time of reduction” corresponding to reduction driving. In the present embodiment, these are called noise profiles.

本実施例においてデジタル音声信号は、48KHz、16bitのサンプリングである。周波数スペクトルは、レンズ201を移動している期間のスペクトルの信号レベルを512ポイントFFT部207で求め、周波数スペクトルとして算出している。本実施例においては、「拡大時の周波数スペクトル」(以後ノイズプロファイルA1)と「縮小時の周波数スペクトル」(以後ノイズプロファイルB1)を例として図3に図示している。勿論、レンズ201以外の駆動部についてそれぞれに異なる周波数スペクトルを有し、同様の処理をしてもよい。   In this embodiment, the digital audio signal is 48 KHz, 16-bit sampling. The frequency spectrum is calculated as a frequency spectrum by obtaining the signal level of the spectrum during the period in which the lens 201 is moved by the 512-point FFT unit 207. In this embodiment, “a frequency spectrum at the time of enlargement” (hereinafter referred to as noise profile A1) and “a frequency spectrum at the time of reduction” (hereinafter referred to as noise profile B1) are shown in FIG. 3 as examples. Of course, the drive units other than the lens 201 may have different frequency spectra, and the same processing may be performed.

次にレンズ201がレンズ制御部204の駆動部により移動するときのノイズキャンセル処理について説明する。ユーザによる操作部110の操作により、被写体の光学像を拡大するためにレンズ201が移動する(拡大駆動)場合について説明する。ユーザにより操作部110が拡大操作されると、制御部109は、レンズ制御部204に、被写体の光学像を拡大する方向にレンズが移動するように制御信号を送信する。レンズ制御部204はこの制御信号に応じて、被写体の光学像を拡大する方向にレンズ201が移動するようにモータ等を駆動する。このとき、レンズ201が駆動部の駆動により移動する間、制御部109は、ノイズキャンセル部209に対して、レンズ201が拡大駆動することを示す制御信号を送信する。   Next, noise cancellation processing when the lens 201 is moved by the driving unit of the lens control unit 204 will be described. A case will be described in which the lens 201 moves (enlargement drive) in order to enlarge the optical image of the subject by the operation of the operation unit 110 by the user. When the operation unit 110 is magnified by the user, the control unit 109 transmits a control signal to the lens control unit 204 so that the lens moves in the direction of enlarging the optical image of the subject. In response to this control signal, the lens control unit 204 drives a motor or the like so that the lens 201 moves in the direction of enlarging the optical image of the subject. At this time, while the lens 201 is moved by the drive of the drive unit, the control unit 109 transmits a control signal indicating that the lens 201 is enlarged and driven to the noise cancellation unit 209.

そして、マイク205により得られたアナログ音声信号はAD変換部206によりデジタル音声信号に変換され、FFT部207により周波数領域に変換されたデジタル音声信号をノイズキャンセル部209に送信する。ノイズキャンセル部209は、レンズ201が拡大駆動することを示す制御信号を制御部109から受信しているので、メモリ208からノイズプロファイルA1を読み出す。ノイズプロファイルA1を用いたノイズキャンセル部209のノイズキャンセル処理を図4に示す。FFT部207により周波数領域にへ変換されたデジタル信号の周波数スペクトルをA2として示す。   The analog audio signal obtained by the microphone 205 is converted into a digital audio signal by the AD conversion unit 206, and the digital audio signal converted into the frequency domain by the FFT unit 207 is transmitted to the noise cancellation unit 209. Since the noise canceling unit 209 receives a control signal indicating that the lens 201 is driven to enlarge, from the control unit 109, the noise canceling unit 209 reads the noise profile A1 from the memory 208. FIG. 4 shows the noise canceling process of the noise canceling unit 209 using the noise profile A1. A frequency spectrum of the digital signal converted into the frequency domain by the FFT unit 207 is indicated as A2.

本実施例においてデジタル音声信号は、48KHz、16bitのサンプリングである。周波数スペクトルは、レンズ201を移動している期間、ある一定の短期間においてスペクトルの信号レベルを512ポイントFFT部207で求め、周波数スペクトルA2として算出している。ノイズプロファイルA1と周波数スペクトルA2の512ポイントでのレベルを比較し、4段階に分類して抑圧量を決定している。図4に示すように例として、ノイズプロファイルA1と周波数スペクトルA2の一致度を比較して、(1)48dB抑圧、(2)36dB抑圧、(3)24dB抑圧、(4)抑圧なしとする。勿論、抑圧量は、変更しても構わないし、4段階も問わない。ノイズキャンセル部209により前記抑圧処理を施されたデジタル音声データは、iFFT部210により時間領域のデジタル音声信号に逆変換され、その後、ALC部211によりALC処理、音声処理部211によりデジタル音声データに所定の処理を行い音声データを形成してメモリ103へ送信する。   In this embodiment, the digital audio signal is 48 KHz, 16-bit sampling. The frequency spectrum is calculated as the frequency spectrum A2 by obtaining the signal level of the spectrum by the 512-point FFT unit 207 in a certain short period while the lens 201 is moving. The levels at 512 points of the noise profile A1 and the frequency spectrum A2 are compared and classified into four stages to determine the suppression amount. As an example, as shown in FIG. 4, the degree of coincidence between the noise profile A1 and the frequency spectrum A2 is compared, and (1) 48 dB suppression, (2) 36 dB suppression, (3) 24 dB suppression, and (4) no suppression. Of course, the amount of suppression may be changed, and there are no four levels. The digital audio data that has been subjected to the suppression processing by the noise canceling unit 209 is inversely converted into a digital audio signal in the time domain by the iFFT unit 210, and then ALC processing by the ALC unit 211 and digital audio data by the audio processing unit 211. Predetermined processing is performed to form audio data and transmitted to the memory 103.

ユーザによる操作部110の操作により、被写体の光学像を縮小するためにレンズ201が移動する(縮小駆動)場合のノイズキャンセル処理についても、拡大駆動時と同様に、ノイズキャンセル部209が、レンズ201が縮小駆動することを示す制御信号を制御部109から受信して、メモリ208からノイズプロファイルB1を読み出して、FFT部207により周波数領域にへ変換されたデジタル信号の周波数スペクトルに対し信号レベルを比較して、4段階に分類して抑圧量を決定する。勿論、レンズ201以外の駆動部についても、それぞれに異なるノイズプロファイルをメモリ208に格納し、FFT部207は制御部109の制御信号により、読み出すプロファイルを変更してノイズキャンセル動作を実施する。   As for the noise cancellation processing when the lens 201 is moved to reduce the optical image of the subject (reduction driving) by the operation of the operation unit 110 by the user, the noise cancellation unit 209 performs the lens 201 similarly to the enlargement driving. Receives a control signal from the control unit 109, reads the noise profile B1 from the memory 208, and compares the signal level with the frequency spectrum of the digital signal converted into the frequency domain by the FFT unit 207 Then, the suppression amount is determined by classifying into four stages. Of course, different noise profiles are stored in the memory 208 for the driving units other than the lens 201, and the FFT unit 207 changes the profile to be read out by the control signal of the control unit 109 and performs the noise canceling operation.

本実施例では図2において、マイクが一つの場合について説明したが、複数のマイクを使用するようにしてもよい。この場合、ノイズプロファイルをマイク共通にしてノイズキャンセル処理をするようにしてもよい。しかし、それぞれのマイクに対応するノイズプロファイルを個別に設けるようにすると、さらに雑音低減効果を高めることができる。これは、マイクによって、配置された位置などの影響により、それぞれのマイクに入力される駆動雑音のレベルが異なるため、個別に雑音を低減することが望ましいからである。   In this embodiment, the case where there is one microphone has been described with reference to FIG. 2, but a plurality of microphones may be used. In this case, noise cancellation processing may be performed with a noise profile shared by microphones. However, if a noise profile corresponding to each microphone is provided individually, the noise reduction effect can be further enhanced. This is because it is desirable to individually reduce noise because the level of drive noise input to each microphone differs depending on the location of the microphone.

次に、図2を用いて、本実施例におけるノイズプロファイルの補正について説明する。図2において、レベル比較部213は、FFT部207により変換された周波数領域のデジタル音声信号の周波数スペクトルの信号レベルとメモリ208に格納されたノイズプロファイルのレベルを比較するものである。補正判定部214は、レベル比較部213の比較結果を受けて、補正判定の条件を満たした場合、メモリ208に格納されたノイズプロファイルを補正するか否かを判定する。(補正判定の条件についての説明は後述する)。補正部216は、補正判定部214からの補正判定結果を受けて、メモリ208に格納されたノイズプロファイルを補正する。   Next, the noise profile correction in this embodiment will be described with reference to FIG. In FIG. 2, the level comparison unit 213 compares the signal level of the frequency spectrum of the digital audio signal in the frequency domain converted by the FFT unit 207 with the level of the noise profile stored in the memory 208. The correction determination unit 214 receives the comparison result of the level comparison unit 213 and determines whether or not to correct the noise profile stored in the memory 208 when the correction determination condition is satisfied. (Description of the correction determination condition will be described later). The correction unit 216 receives the correction determination result from the correction determination unit 214 and corrects the noise profile stored in the memory 208.

ここで、補正判定部214が補正判定をする条件について説明する。まず、第一の条件について説明する。補正判定部214は、レベル比較部の比較結果如何により、メモリ208に格納されたノイズプロファイルを補正するか否かを判定する。補正判定部214は、レベル比較部の比較結果を以って、補正判定手段を変更する。第一の補正判定手段として、メモリ208に格納されたノイズプロファイルとノイズキャンセル部208から出力されるノイズキャンセル後のデジタル音声信号の周波数スペクトルを比較することに依る。(詳細の処理については後述する。)また、/第二の補正判定手段として、レンズ201がレンズ制御部204の駆動部により移動する時のイズキャンセル部208から出力されるノイズキャンセル後のデジタル音声信号と、レンズ201が移動する直前のバッファ1に格納されたノイズキャンセル未処理のデジタル音声信号の夫々の所定の周波数帯のみの平均値とメモリ208に格納された補正パラメータを比較することに依る。(補正パラメータについての説明は後述する。)補正判定部214が補正判定をする第一の条件として、第一の補正判定手段もしくは、第二の補正判定手段による比較結果によりメモリ208に格納されたノイズプロファイルの補正が必要か否かである。   Here, conditions for the correction determination unit 214 to perform correction determination will be described. First, the first condition will be described. The correction determination unit 214 determines whether or not to correct the noise profile stored in the memory 208 based on the comparison result of the level comparison unit. The correction determination unit 214 changes the correction determination unit based on the comparison result of the level comparison unit. As a first correction determination unit, the noise profile stored in the memory 208 is compared with the frequency spectrum of the digital audio signal after noise cancellation output from the noise cancellation unit 208. (Detailed processing will be described later.) Also, as the second correction determination means, the digital audio after noise cancellation output from the noise canceling unit 208 when the lens 201 is moved by the driving unit of the lens control unit 204. By comparing the average value of only the predetermined frequency band of the signal and the digital audio signal not yet processed with noise cancellation stored in the buffer 1 immediately before the movement of the lens 201 and the correction parameter stored in the memory 208. . (The correction parameter will be described later.) As a first condition for the correction determination unit 214 to perform correction determination, the correction parameter is stored in the memory 208 by the comparison result of the first correction determination unit or the second correction determination unit. Whether or not the noise profile needs to be corrected.

次に、補正判定部214が補正判定をする第二の条件について説明する。ユーザーが操作部110により補正処理を指示すると、制御部109は、補正判定部214と補正部216に対して、補正処理司令を示す制御信号を送信する。補正判定部214が補正判定をする第二の条件として、ユーザーにより補正処理の操作が為されたか否かである。   Next, the second condition for the correction determination unit 214 to perform correction determination will be described. When the user instructs correction processing through the operation unit 110, the control unit 109 transmits a control signal indicating a correction processing command to the correction determination unit 214 and the correction unit 216. A second condition for the correction determination unit 214 to perform correction determination is whether or not the user has performed an operation for correction processing.

次に、補正判定部214が補正判定をする第三の条件について説明する。制御部109は、カウンターとメモリを内蔵しており、レンズ201の駆動回数をカウントして記録し、メモリに記録されている予め定められた規定の回数を超えたら、補正判定部214と補正部216に対して、補正処理司令を示す制御信号を送信する。また制御部109は、カウンターが規定の回数を超えたらリセットする。カウンターとメモリは外部に別で構成しても勿論良いものとする。補正判定部214が補正判定をする第三の条件としては、レンズ201等の駆動部の駆動回数が規定の回数を超えたか否かである。補正判定部214は、前記条件1においてノイズプロファイルの補正が必要と判定された場合、かつ前記条件2においてユーザーにより補正処理の操作が為された場合において、補正実行を判定をする。また、補正判定部214は、前記条件1においてノイズプロファイルの補正が必要と判定された場合、かつ前記条件3においてレンズ201等の駆動部の駆動回数が規定の回数を超えた場合において、補正実行を判定をする。   Next, the third condition for the correction determination unit 214 to perform correction determination will be described. The control unit 109 includes a counter and a memory. The control unit 109 counts and records the number of times the lens 201 is driven. When a predetermined number of times recorded in the memory is exceeded, the correction determination unit 214 and the correction unit A control signal indicating a correction processing command is transmitted to 216. The control unit 109 resets the counter when the counter exceeds a specified number. Of course, the counter and the memory may be configured separately outside. A third condition for the correction determination unit 214 to perform correction determination is whether or not the number of driving times of the driving unit such as the lens 201 has exceeded a specified number. The correction determination unit 214 determines whether or not to perform correction when it is determined that the noise profile needs to be corrected under the condition 1 and when a correction operation is performed by the user under the condition 2. The correction determination unit 214 executes correction when it is determined that the noise profile needs to be corrected under the condition 1, and when the number of driving times of the driving unit such as the lens 201 exceeds the specified number of times under the condition 3. Judgment.

次に本実施例における音声入力部102の音声レベル補正処理について説明する。まずユーザによる操作部110の操作により、被写体の光学像を拡大するためにレンズ201が移動する(拡大駆動)場合について説明する。ユーザによる操作部110の操作により、被写体の光学像を拡大するためにレンズ201が移動する(拡大駆動)と、制御部109は、補正判定部214と補正部216に対して、レンズ201が駆動部の駆動により移動する間、レンズ201が拡大駆動することを示す制御信号を送信する。また、マイク205により得られたアナログ音声信号はAD変換部206によりデジタル音声信号に変換され、さらにFFT部207により変換された周波数領域のデジタル音声信号がレベル比較部213に送信される。ここでレベル比較部213は、FFT部207からのデジタル音声信号の周波数スペクトルの信号レベルとメモリ208に格納された拡大駆動時のノイズプロファイルA1のレベルを比較する。   Next, the sound level correction process of the sound input unit 102 in this embodiment will be described. First, a case where the lens 201 moves (enlargement drive) in order to enlarge the optical image of the subject by the operation of the operation unit 110 by the user will be described. When the lens 201 is moved to enlarge the optical image of the subject (enlargement driving) by the operation of the operation unit 110 by the user, the control unit 109 drives the lens 201 with respect to the correction determination unit 214 and the correction unit 216. While moving by driving the part, a control signal indicating that the lens 201 is enlarged is transmitted. The analog audio signal obtained by the microphone 205 is converted into a digital audio signal by the AD conversion unit 206, and the frequency domain digital audio signal converted by the FFT unit 207 is transmitted to the level comparison unit 213. Here, the level comparison unit 213 compares the signal level of the frequency spectrum of the digital audio signal from the FFT unit 207 with the level of the noise profile A1 stored in the memory 208 during expansion driving.

実施例においてデジタル音声信号は、48KHz、16bitのサンプリングである。周波数スペクトルは、レンズ201を拡大駆動する直前の、ある一定の短期間においてスペクトルを512ポイントFFT部207で求め、周波数スペクトルXとして算出している。図5は、前述のノイズプロファイルA1、レンズ201を拡大駆動する直前のデジタル音声信号の周波数スペクトルXを表す。補正判定部214は、レベル比較部213の結果により、前述の補正判定手段を決定する。周波数全帯域において周波数スペクトルXがノイズプロファイルA1を下回る場合、例えば周波数スペクトルX1とノイズプロファイルA1の関係にある場合に補正判定部214は前述の第一の補正判定手段を選定する。周波数全帯域において周波数スペクトルXがノイズプロファイルA1を下回らなかった場合、補正判定部214は、周波数スペクトルXとノイズプロファイルA1夫々の予め定められた特定の周波数帯の平均値を比較する。予め定められた特定の周波数帯の平均値においては、周波数スペクトルXがノイズプロファイルA1を下回る場合、例えば周波数スペクトルX2とノイズプロファイルA1の関係の様に予め定められた特定周波数帯F1においては、周波数スペクトルXの平均値がノイズプロファイルA1の平均値を下回る場合に補正判定部214は前述の第二の補正判定手段を選定する。予め定められた特定の周波数帯の平均値においても、周波数スペクトルXがノイズプロファイルA1を上回る場合、例えば周波数スペクトルX3とノイズプロファイルA1の関係にある場合には、補正判定部214は補正判定を実施しない。   In the embodiment, the digital audio signal is 48 KHz, 16-bit sampling. The frequency spectrum is calculated as the frequency spectrum X by obtaining the spectrum by the 512-point FFT unit 207 in a certain short period immediately before the lens 201 is enlarged and driven. FIG. 5 shows the above-described noise profile A1 and the frequency spectrum X of the digital audio signal immediately before the lens 201 is magnified. The correction determination unit 214 determines the correction determination unit described above based on the result of the level comparison unit 213. When the frequency spectrum X is lower than the noise profile A1 in the entire frequency band, for example, when there is a relationship between the frequency spectrum X1 and the noise profile A1, the correction determination unit 214 selects the first correction determination unit described above. When the frequency spectrum X does not fall below the noise profile A1 in the entire frequency band, the correction determination unit 214 compares the average value of a specific frequency band determined in advance for each of the frequency spectrum X and the noise profile A1. In the average value of the predetermined specific frequency band, when the frequency spectrum X is lower than the noise profile A1, for example, in the predetermined specific frequency band F1 like the relationship between the frequency spectrum X2 and the noise profile A1, the frequency When the average value of the spectrum X is lower than the average value of the noise profile A1, the correction determination unit 214 selects the second correction determination unit described above. Even in the average value of a predetermined specific frequency band, when the frequency spectrum X exceeds the noise profile A1, for example, when there is a relationship between the frequency spectrum X3 and the noise profile A1, the correction determination unit 214 performs correction determination. do not do.

ここで第一の補正判定手段について説明する。補正判定部214は、バッファに格納されたレンズ201を拡大駆動する直前の音声信号の周波数スペクトルの信号レベルと、ノイズキャンセル部209によりノイズキャンセル処理の施されたレンズ201の拡大駆動中の周波数スペクトルの夫々512ポイントのレベルを比較する。バッファ215は、随時ある一定の短期間においてスペクトルの信号レベルを512ポイントFFT部207で求め、周波数スペクトルとして格納される。補正判定部214は、前述の2種類の周波数スペクトルの夫々512ポイント分のレベルを比較した(以後、このレベル比較の処理をプロファイルチェック1と記述)結果、予め定められた閾値よりも大きな差分が算出された場合、そのポイントをワーニングする。例えば図6の様に、拡大駆動する直前の音声信号の周波数スペクトルX1aに対し、拡大駆動中の音声信号の周波数スペクトルX1bがF3、F4の周波数帯でのポイントで閾値以上の差分が算出された場合、その周波数帯でのポイントをワーニングする。更に補正判定部214は、前述のプロファイルチェック1を所定回数実施し、ワーニングした回数が所定回数以上となるポイントを補正実行ポイントと判定する。例えば図6の様に、周波数スペクトルX1aと周波数スペクトルX1bのF3、F4の周波数帯でのポイントのレベル差が所定回数以上閾値を超え、ワーニングされた場合、F3、F4の周波数帯でのポイントが補正手段1実行ポイントと判定される。   Here, the first correction determination means will be described. The correction determination unit 214 stores the signal level of the frequency spectrum of the audio signal immediately before the lens 201 stored in the buffer before being magnified and the frequency spectrum during the magnification driving of the lens 201 on which the noise cancellation processing has been performed by the noise cancellation unit 209. Compare the 512 point levels. The buffer 215 obtains the spectrum signal level by the 512-point FFT unit 207 from time to time in a certain short period and stores it as a frequency spectrum. As a result of comparing the levels of 512 points of the above-described two types of frequency spectra (hereinafter, the level comparison process is described as profile check 1), the correction determination unit 214 finds a difference larger than a predetermined threshold value. If calculated, warn that point. For example, as shown in FIG. 6, the difference between the frequency spectrum X1a of the audio signal immediately before the expansion drive and the frequency spectrum X1b of the audio signal being expanded is greater than the threshold at the points in the frequency bands F3 and F4. If so, warn the point in that frequency band. Further, the correction determination unit 214 performs the above-described profile check 1 a predetermined number of times, and determines a point where the number of warnings is equal to or greater than the predetermined number as a correction execution point. For example, as shown in FIG. 6, when the level difference of the points in the frequency bands F3 and F4 of the frequency spectrum X1a and the frequency spectrum X1b exceeds a threshold value for a predetermined number of times or more and a warning is given, the points in the frequency bands of F3 and F4 are The correction means 1 is determined as the execution point.

次に、第二の補正判定手段について説明する。補正判定部214は、バッファに格納されたレンズ201を拡大駆動する直前の音声信号の周波数スペクトルの予め定められた特定の周波数帯の平均値と、ノイズキャンセル部209によりノイズキャンセル処理の施されたレンズ201の拡大駆動中の周波数スペクトルの予め定められた特定の周波数帯の平均値を比較する。例えば、図7の様に、予め定められた特定の周波数帯F1において、夫々拡大駆動する直前の音声信号の周波数スペクトルX2aとノイズキャンセル処理を施された拡大駆動中の周波数スペクトルX2bの平均値の差分αを算出する。ここで、補正判定部209は、メモリ208に格納された補正パラメータと前述の算出した夫々のある特定周波数帯F1での周波数スペクトルの平均値の差分αから、補正レベルを算出する。   Next, the second correction determination unit will be described. The correction determination unit 214 is subjected to noise cancellation processing by the noise cancellation unit 209 and the average value of a predetermined specific frequency band of the frequency spectrum of the audio signal immediately before the lens 201 stored in the buffer is enlarged and driven. The average value of a predetermined specific frequency band of the frequency spectrum during expansion driving of the lens 201 is compared. For example, as shown in FIG. 7, in the predetermined specific frequency band F1, the average value of the frequency spectrum X2a of the sound signal immediately before the expansion driving and the frequency spectrum X2b during the expansion driving subjected to the noise cancellation processing are respectively calculated. The difference α is calculated. Here, the correction determination unit 209 calculates the correction level from the correction parameter stored in the memory 208 and the difference α between the average values of the frequency spectra in each of the specific frequency bands F1 calculated above.

ここで補正パラメータについて説明する。図8は補正パラメータを示した図である。横軸にレンズ201が拡大駆動していない一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルを示し、縦軸に拡大駆動している一定期間の一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルから拡大駆動していない一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルを引いたレベルを示す。前記の関係を求める場合、音圧レベル[dB]は相対尺度のため音圧[μPa]で算出 する。駆動部が駆動していないある一定期間の間入力される音声信号のレベル、つまり環境音の音圧レベルをS[dB]、音圧をs[μPa]と表し、駆動部が駆動しているある一定期間の間入力される音声信号のレベルから駆動部が駆動していないある一定期間の間入力される音声信号、つまり駆動部駆動音の音圧レベルをN[dB]、音圧をn[μPa]と表し、駆動部が駆動しているある一定期間の間入力される音声信号のレベル、つまり駆動部駆動音と環境音を足した音圧レベルをS+N[dB]、音圧をs+n[μPa]と表すとする。この時後述の計算式が成り立つ。   Here, the correction parameters will be described. FIG. 8 is a diagram showing correction parameters. The horizontal axis indicates the average level of a predetermined specific frequency band F1 of the frequency spectrum of the audio signal for a certain period during which the lens 201 is not expanded and the vertical axis indicates the audio for a certain period during the period during which the lens 201 is expanded. A level obtained by subtracting an average level of a predetermined specific frequency band F1 of a frequency spectrum of an audio signal during a certain period of time that is not expanded from the average level of a predetermined specific frequency band F1 of the frequency spectrum of the signal. . When obtaining the above relationship, the sound pressure level [dB] is calculated as sound pressure [μPa] because it is a relative scale. The level of the audio signal input during a certain period when the driving unit is not driven, that is, the sound pressure level of the environmental sound is represented as S [dB], and the sound pressure is represented as s [μPa], and the driving unit is driven. An audio signal input for a certain period when the drive unit is not driven, that is, a sound pressure level of the drive unit drive sound is N [dB] and a sound pressure is n from a level of the audio signal input for a certain period. It is expressed as [μPa], and the level of the audio signal input for a certain period during which the driving unit is driven, that is, the sound pressure level obtained by adding the driving unit driving sound and the environmental sound is S + N [dB], and the sound pressure is s + n. Let it be expressed as [μPa]. At this time, the calculation formula described later holds.

S=20log10(s/p0
N=20log10(n/p0
S+N=20log10(10^(S/10)+10^(N/10))
※p0は基準値(p0=20μPa)
前記式より、図8で前述の横軸に拡大駆動していない一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルを示し、縦軸に拡大駆動している一定期間の一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルから拡大駆動していない一定期間の音声信号の周波数スペクトルの予め定められた特定の周波数帯域F1の平均レベルを引いたレベルの関係を導いている。
S = 20 log 10 (s 2 / p 0 2 )
N = 20 log 10 (n 2 / p0 2 )
S + N = 20 log 10 (10 ^ (S / 10) + 10 ^ (N / 10))
* P0 is the reference value (p0 = 20μPa)
From the above equation, in FIG. 8, the horizontal axis indicates the average level of a predetermined specific frequency band F1 of the frequency spectrum of the audio signal for a certain period of time that is not expanded and the vertical axis indicates the constant that is expanded and driven. The average level of the predetermined specific frequency band F1 of the frequency spectrum of the audio signal for a certain period not driven to be expanded from the average level of the predetermined specific frequency band F1 of the frequency spectrum of the audio signal for a certain period of time It leads the level relationship minus.

補正判定部214は、前述の算出した夫々のある特定周波数帯F1での周波数スペクトルの平均値の差分αと横軸上のレベルが同レベルであり、補正パラメータ上にあるデフォルトレベルβとの差分を算出する(以後、この算出の処理をプロファイルチェック2と記述)。前述のプロファイルチェック2の結果、予め定められた閾値よりも大きな差分が算出された場合、補正判定部214はワーニングする。更に補正判定部214は、前述のプロファイルチェック2を所定回数実施し、ワーニングした回数が所定回数以上となる場合、補正手段2実行と判定する。   The correction determination unit 214 has the difference α between the average value of the frequency spectrum in each specific frequency band F1 calculated as described above and the level on the horizontal axis being the same level and the default level β on the correction parameter. (Hereinafter, this calculation process is described as profile check 2). If a difference larger than a predetermined threshold is calculated as a result of the profile check 2, the correction determination unit 214 warns. Further, the correction determination unit 214 performs the above-described profile check 2 a predetermined number of times, and determines that the correction unit 2 is executed when the number of warnings exceeds a predetermined number.

続いて、補正判定部214は、前述の補正判定の条件1かつ2を満たした場合、もしくは、条件1かつ3を満たした場合、補正実行を判定する。またこの場合、補正判定部214は、条件1において、補正判定手段1における判定か、補正判定手段2における判定か、又、補正判定手段1における判定の場合は補正手段1実行ポイントも判定に付与する。   Subsequently, the correction determination unit 214 determines the execution of correction when the above-described correction determination conditions 1 and 2 are satisfied, or when the conditions 1 and 3 are satisfied. In this case, the correction determination unit 214 also assigns the execution point of the correction unit 1 to the determination in the case of the determination in the correction determination unit 1 or the determination in the correction determination unit 2 in the condition 1. To do.

次に、補正部216は、補正判定部214の判定結果を受けて、補正処理を実行する。ここで、補正判定部214が補正判定手段1により補正実行を判定した場合の補正処理1について説明する。   Next, the correction unit 216 receives the determination result of the correction determination unit 214 and executes correction processing. Here, the correction process 1 when the correction determination unit 214 determines the correction execution by the correction determination unit 1 will be described.

ユーザーによる操作部110の操作により、被写体の光学像を拡大するためにレンズ201が移動する(拡大駆動)と、制御部109は、補正判定部214と補正部216に対して、レンズ201が駆動部の駆動により移動する間、レンズ201が拡大駆動することを示す制御信号を送信する。また、マイク205により得られたアナログ音声信号はAD変換部206によりデジタル音声信号に変換され、さらにFFT部207により変換された周波数領域のデジタル音声信号がレベル比較部213に送信される。ここでレベル比較部213は、FFT部207からのデジタル音声信号の周波数スペクトルの信号レベルとメモリ208に格納された拡大駆動時のノイズプロファイルA1のレベルを比較する。   When the lens 201 is moved to enlarge the optical image of the subject (enlarged drive) by the operation of the operation unit 110 by the user, the control unit 109 drives the lens 201 with respect to the correction determination unit 214 and the correction unit 216. While moving by driving the part, a control signal indicating that the lens 201 is enlarged is transmitted. The analog audio signal obtained by the microphone 205 is converted into a digital audio signal by the AD conversion unit 206, and the frequency domain digital audio signal converted by the FFT unit 207 is transmitted to the level comparison unit 213. Here, the level comparison unit 213 compares the signal level of the frequency spectrum of the digital audio signal from the FFT unit 207 with the level of the noise profile A1 stored in the memory 208 during expansion driving.

実施例においてデジタル音声信号は、48KHz、16bitのサンプリングである。周波数スペクトルは、レンズ201を拡大駆動する直前の、ある一定の短期間においてスペクトルの信号レベルを512ポイントFFT部207で求め、周波数スペクトルYとして算出している。図9は、前述のノイズプロファイルA1、レンズ201を拡大駆動する直前のデジタル音声信号の周波数スペクトルY1を表す。   In the embodiment, the digital audio signal is 48 KHz, 16-bit sampling. The frequency spectrum is calculated as the frequency spectrum Y by obtaining the signal level of the spectrum by the 512-point FFT unit 207 in a certain short period immediately before the lens 201 is enlarged and driven. FIG. 9 shows the noise profile A1 and the frequency spectrum Y1 of the digital audio signal immediately before the lens 201 is driven to be enlarged.

補正部216は、レベル比較部213からの結果を受け、図9の様に補正手段1実行ポイントの周波数帯において、周波数スペクトルY1がノイズプロファイルA1を下回る場合、補正処理の実行を進める。逆に周波数スペクトルY1がノイズプロファイルA1を上回る場合、補正処理の実行を中止する。続いて、補正部216は、バッファ217に格納されたレンズ201を拡大駆動する直前の音声信号の周波数スペクトルの信号レベルと、ノイズキャンセル部209によりノイズキャンセル処理の施されたレンズ201の拡大駆動中の周波数スペクトルの夫々補正手段1実行ポイントのレベルを比較する。バッファ215は、随時ある一定の短期間においてスペクトルの信号レベルを512ポイントFFT部207で求め、周波数スペクトルとして格納される。補正部216は、前述の2種類の周波数スペクトルの夫々補正手段1実行ポイント分のレベルを比較した(以後、このレベル比較の処理をプロファイル補正1と記述)結果、予め定められた閾値よりも大きな差分が算出された場合、メモリ208に格納されたノイズプロファイルA1のレベルを補正する。例えば図10の様に、拡大駆動する直前の音声信号の周波数スペクトルY1aに対し、拡大駆動中の音声信号の周波数スペクトルY1bがF3、F4の周波数帯でのポイントで閾値以上の差分が算出された場合、メモリ208に格納されたノイズプロファイルA1のその周波数帯でのポイントのレベルに対し、算出結果分の補正を実施する。前述のプロファイル補正1の処理は、レンズ201の縮小駆動の場合においても、同様の処理を実施する。比較する対象が、縮小駆動時のノイズプロファイルとなるのみである。   The correction unit 216 receives the result from the level comparison unit 213 and advances the execution of the correction process when the frequency spectrum Y1 is lower than the noise profile A1 in the frequency band of the correction unit 1 execution point as shown in FIG. Conversely, when the frequency spectrum Y1 exceeds the noise profile A1, the execution of the correction process is stopped. Subsequently, the correction unit 216 is in the process of enlarging and driving the signal level of the frequency spectrum of the audio signal immediately before enlarging the lens 201 stored in the buffer 217 and the noise 201 subjected to the noise canceling process by the noise canceling unit 209. The levels of the execution points of the correction means 1 of the frequency spectra are compared. The buffer 215 obtains the spectrum signal level by the 512-point FFT unit 207 from time to time in a certain short period and stores it as a frequency spectrum. The correction unit 216 compares the levels of the above-described two types of frequency spectrums for the correction means 1 execution point (hereinafter, the level comparison process is described as profile correction 1), and as a result, is larger than a predetermined threshold value. When the difference is calculated, the level of the noise profile A1 stored in the memory 208 is corrected. For example, as shown in FIG. 10, the difference between the frequency spectrum Y1a of the audio signal immediately before the enlargement driving and the frequency spectrum Y1b of the audio signal being enlarged is greater than the threshold at the points in the frequency bands F3 and F4. In this case, correction for the calculation result is performed on the level of the point in the frequency band of the noise profile A1 stored in the memory 208. The process of profile correction 1 described above is performed in the same way even when the lens 201 is driven to reduce. The object to be compared is only a noise profile at the time of reduction driving.

次に、補正判定部214が補正判定手段2により補正実行を判定した場合の補正処理2を説明する。レベル比較部213の比較結果の処理までは、前述の補正処理1と同様である。前述しているが、図5は、前述のノイズプロファイルA1、レンズ201を拡大駆動する直前のデジタル音声信号の周波数スペクトルXを表す。レベル比較部213の比較結果を受けて、補正部216は、例えば周波数スペクトルX2とノイズプロファイルA1の関係の様に予め定められた特定周波数帯F1において、周波数スペクトルX2の平均値がノイズプロファイルA1の平均値を下回る場合に補正部216は補正処理の実行を進める。予め定められた特定の周波数帯の平均値においても、周波数スペクトルXがノイズプロファイルA1を上回る場合は、補正処理の実行を中止する。   Next, the correction process 2 when the correction determination unit 214 determines the correction execution by the correction determination unit 2 will be described. The processing up to the comparison result of the level comparison unit 213 is the same as the correction processing 1 described above. As described above, FIG. 5 shows the noise profile A1 and the frequency spectrum X of the digital audio signal immediately before the lens 201 is magnified. In response to the comparison result of the level comparison unit 213, the correction unit 216 has an average value of the frequency spectrum X2 of the noise profile A1 in a specific frequency band F1 that is predetermined as in the relationship between the frequency spectrum X2 and the noise profile A1. When the average value is below, the correction unit 216 advances the execution of the correction process. Even in the predetermined average value of a specific frequency band, when the frequency spectrum X exceeds the noise profile A1, the execution of the correction process is stopped.

続いて、補正部216は、バッファ217に格納されたレンズ201を拡大駆動する直前の音声信号の周波数スペクトルの予め定められた特定の周波数帯の平均値と、ノイズキャンセル部209によりノイズキャンセル処理の施されたレンズ201の拡大駆動中の周波数スペクトルの予め定められた特定の周波数帯の平均値を比較する。処理内容としては、補正判定手段2と同様の処理を実施する。例えば、前述の図7の様に、予め定められた特定の周波数帯F1において、夫々拡大駆動する直前の音声信号の周波数スペクトルX2aとノイズキャンセル処理を施された拡大駆動中の周波数スペクトルX2bの平均値の差分αを算出する。ここで、補正部216は、メモリ208に格納された補正パラメータと前述の算出した夫々のある特定周波数帯F1での周波数スペクトルの平均値の差分αから、補正レベルを算出する。図8の補正パラメータについては、前述の通りである。補正部216は、前述の算出した夫々のある特定周波数帯F1での周波数スペクトルの平均値の差分αと横軸上のレベルが同レベルであり、補正パラメータ上にあるデフォルトレベルβとの差分を算出する(以後、この算出の処理をプロファイル補正2と記述)。   Subsequently, the correction unit 216 performs noise cancellation processing by the noise cancellation unit 209 using the average value of a predetermined specific frequency band of the frequency spectrum of the audio signal immediately before the lens 201 stored in the buffer 217 is enlarged and driven. The average value of a predetermined specific frequency band of the frequency spectrum during enlargement driving of the applied lens 201 is compared. As processing contents, processing similar to that of the correction determination means 2 is performed. For example, as shown in FIG. 7 described above, the average of the frequency spectrum X2a of the audio signal immediately before the expansion driving and the frequency spectrum X2b during the expansion driving subjected to the noise canceling process in the predetermined specific frequency band F1 respectively. The value difference α is calculated. Here, the correction unit 216 calculates a correction level from the correction parameter stored in the memory 208 and the difference α between the average values of the frequency spectra in each of the specific frequency bands F1 calculated above. The correction parameters in FIG. 8 are as described above. The correction unit 216 calculates the difference between the average value difference α of the frequency spectrum in each of the calculated specific frequency bands F1 described above and the level on the horizontal axis and the default level β on the correction parameter. (Hereinafter, this calculation process is described as profile correction 2).

前述のプロファイル補正2の結果、予め定められた閾値よりも大きな差分が算出された場合、補正部216は、メモリ208に格納されたノイズプロファイルA1のその周波数帯でのポイントのレベルに対し、算出結果分の補正を実施する。前述のプロファイル補正1の処理は、レンズ201の縮小駆動の場合においても、同様の処理を実施する。比較する対象が、縮小駆動時のノイズプロファイルとなるのみである。   When a difference larger than a predetermined threshold is calculated as a result of the above-described profile correction 2, the correction unit 216 calculates the level of the point in the frequency band of the noise profile A1 stored in the memory 208. Correct the result. The process of profile correction 1 described above is performed in the same way even when the lens 201 is driven to reduce. The object to be compared is only a noise profile at the time of reduction driving.

本実施例においては、1系統の音声が入力される場合について説明したが、それ以上のチャンネル数であっても適用することができる。   In the present embodiment, the case where one system of audio is input has been described, but the present invention can be applied even when the number of channels is more than that.

また、本実施例においては、撮像装置について説明したが、本実施例の音声入力部102にの音声処理は、外部の音声を記録、または入力するような装置であればどのような装置であっても適用することができる。例えば、ICレコーダ、携帯電話等に適用しても良い。   In the present embodiment, the imaging apparatus has been described. However, the audio processing performed by the audio input unit 102 according to the present embodiment is any apparatus that records or inputs external audio. Even can be applied. For example, you may apply to an IC recorder, a mobile telephone, etc.

100 撮像装置、101 撮像部、102 音声入力部、103 メモリ、
104 表示制御部、105 表示部、106 符号化処理部
100 imaging device, 101 imaging unit, 102 voice input unit, 103 memory,
104 display control unit, 105 display unit, 106 encoding processing unit

Claims (4)

撮像手段と、
前記撮像手段の光学系を移動させる駆動手段と、
時系列の音声データを周波数スペクトルに変換するFFT部と、
入力される音声信号の周波数スペクトルの信号レベルとノイズプロファイルのレベルを周波数毎に比較してレベル抑圧をするノイズキャンセル部と、
前記ノイズキャンセル部にてレベル抑圧された周波数スペクトルを時系列の音声データに戻すiFFT部と、
前記周波数スペクトルの信号レベルと前記ノイズプロファイルのレベルを比較するレベル比較部と、
前記ノイズプロファイルと対象とする駆動部の周波数スペクトルとの周波数ずれあるいはレベルずれを演算し、結果に応じて補正を実行するか否かを判定する補正判定部と、
前記ノイズプロファイルの補正レベルを演算し補正する補正部と、
前記駆動部を駆動させているか否かに応じて、前記調整手段を制御する制御手段を備え、
入力音声レベルが予め定められた閾値を下回る場合、駆動部が駆動前の周波数スペクトルと駆動中にノイズキャンセル部にてレベル抑圧された周波数スペクトルとの信号レベルを比較し、ノイズプロファイルのレベルを補正することを特徴とする撮像装置。
Imaging means;
Driving means for moving the optical system of the imaging means;
An FFT unit for converting time-series audio data into a frequency spectrum;
A noise cancellation unit that performs level suppression by comparing the signal level of the frequency spectrum of the input audio signal and the level of the noise profile for each frequency;
An iFFT unit that returns the frequency spectrum level-suppressed by the noise cancellation unit to time-series audio data;
A level comparison unit that compares the signal level of the frequency spectrum and the level of the noise profile;
A correction determination unit that calculates a frequency shift or a level shift between the noise profile and a frequency spectrum of a target drive unit, and determines whether to execute correction according to the result;
A correction unit that calculates and corrects the correction level of the noise profile;
Control means for controlling the adjusting means according to whether or not the drive unit is driven,
When the input audio level falls below a predetermined threshold, the drive unit compares the signal level between the frequency spectrum before driving and the frequency spectrum whose level is suppressed by the noise canceling unit during driving, and corrects the level of the noise profile. An imaging apparatus characterized by:
前記周波数スペクトルの信号レベルが予め定められた第一の閾値以下であれば、前記補正判定部は、前記駆動部が駆動前の周波数スペクトルの信号レベルと前記駆動部が駆動中のノイズキャンセル部によりレベル抑圧された周波数スペクトルの信号レベルを比較し、比較結果に応じて補正を実行するか否かを判定することを特徴とする請求項1に記載の撮像装置。   If the signal level of the frequency spectrum is equal to or less than a predetermined first threshold value, the correction determination unit is configured by the signal level of the frequency spectrum before the driving unit is driven and the noise canceling unit that is driving the driving unit. 2. The imaging apparatus according to claim 1, wherein the signal levels of the frequency spectra whose levels are suppressed are compared, and it is determined whether or not to execute correction according to the comparison result. 前記周波数スペクトルの信号レベルが予め定められた第二の閾値以下であれば、前記補正判定部は、所定の周波数帯域において、前記駆動部が駆動中のノイズキャンセル部によりレベル抑圧された周波数スペクトルの信号レベルと前記駆動部が駆動前の周波数スペクトルの信号レベルの平均値と補正パラメータを比較し、比較結果に応じて補正を実行するか否かを判定することを特徴とする請求項1に記載の撮像装置。   If the signal level of the frequency spectrum is equal to or less than a predetermined second threshold value, the correction determination unit is configured to output a frequency spectrum whose level is suppressed by a noise canceling unit that is driving the driving unit in a predetermined frequency band. The signal level and the drive unit compare an average value of a signal level of a frequency spectrum before driving with a correction parameter, and determine whether or not to execute correction according to the comparison result. Imaging device. 前記操作手段から補正が指示された場合か、もしくは駆動部の駆動回数が予め定められた回数を超えた場合の条件と前記補正判定部による補正実行の判定結果が出された場合の条件との和条件により、前記補正判定部は補正処理を実行するか否かを判定することを特徴とする請求項1に記載の撮像装置。   A condition when correction is instructed from the operation means or when the number of times the drive unit has been driven exceeds a predetermined number of times and a condition when a correction execution determination result is issued by the correction determination unit The imaging apparatus according to claim 1, wherein the correction determination unit determines whether to execute a correction process based on a sum condition.
JP2014128703A 2014-06-24 2014-06-24 Image-capturing device Pending JP2016009039A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014128703A JP2016009039A (en) 2014-06-24 2014-06-24 Image-capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014128703A JP2016009039A (en) 2014-06-24 2014-06-24 Image-capturing device

Publications (1)

Publication Number Publication Date
JP2016009039A true JP2016009039A (en) 2016-01-18

Family

ID=55226635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014128703A Pending JP2016009039A (en) 2014-06-24 2014-06-24 Image-capturing device

Country Status (1)

Country Link
JP (1) JP2016009039A (en)

Similar Documents

Publication Publication Date Title
US10535363B2 (en) Audio processing apparatus and control method thereof
JP2008263498A (en) Wind noise reducing device, sound signal recorder and imaging apparatus
KR101739942B1 (en) Method for removing audio noise and Image photographing apparatus thereof
US8514300B2 (en) Imaging apparatus for reducing driving noise
JP6610725B2 (en) Sound processing apparatus and sound processing program
US9462174B2 (en) Electronic device and control method
JP2010166516A (en) Acoustic processing device, electronic apparatus with the same and acoustic processing method
JP2016009039A (en) Image-capturing device
JP5495753B2 (en) Imaging device
JP2018074220A (en) Voice processing device
JP6985821B2 (en) Speech processing device and its control method
US10425731B2 (en) Audio processing apparatus, audio processing method, and program
JP6929137B2 (en) Speech processing device and its control method
JP5645373B2 (en) Audio processing apparatus and audio processing method
JP2016111478A (en) Voice processing device
JP2016009965A (en) Imaging device
JP6886352B2 (en) Speech processing device and its control method
JP6877246B2 (en) Speech processing device and its control method
JP5340127B2 (en) Audio signal processing apparatus and control method of audio signal processing apparatus
JP2010134260A (en) Electronic apparatus and voice processing method
JP6931296B2 (en) Speech processing device and its control method
JP2018066963A (en) Sound processing device
JP5506471B2 (en) Imaging device
JP2023026918A (en) Voice processing unit, control method of voice processing unit, and program
JP2016009952A (en) Audio signal processing apparatus