JP2019033470A - 画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム - Google Patents
画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム Download PDFInfo
- Publication number
- JP2019033470A JP2019033470A JP2018094397A JP2018094397A JP2019033470A JP 2019033470 A JP2019033470 A JP 2019033470A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2018094397 A JP2018094397 A JP 2018094397A JP 2019033470 A JP2019033470 A JP 2019033470A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image processing
- region
- image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
【課題】 互いに異なる入出力特性(ガンマ曲線)が画像内の複数の部分領域に其々適用されている画像について、補正処理をする場合に不具合が生じるおそれがある。
【解決手段】 撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を取得することで、前記第1領域と前記第2領域とを区別して表示させユーザーが意図する補正を実施することで色再現性を高める。
【選択図】 図5
【解決手段】 撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を取得することで、前記第1領域と前記第2領域とを区別して表示させユーザーが意図する補正を実施することで色再現性を高める。
【選択図】 図5
Description
本発明は、複数の画像を合成した撮影画像について領域毎の補正処理を適用する技術に関する。
近年、ネットワークカメラを利用した監視システムが広く普及している。ネットワークカメラは大規模な公共機関や量販店などにおける監視カメラとして幅広い分野で利用されているため、屋内および屋外などの照度差の大きな環境または照明が異なる環境などに対してダイナミックレンジの拡大が課題になっている。
また、色をより正確に表示することも要求されている。例えば特許文献1では、被写体の認識を行って異なる領域を区分し、区分された複数の領域に対して露出条件と画像処理条件とを含む撮像条件を決定する方法が記載されている。また、特許文献2では、複数の領域ごとにホワイトバランスを算出し補正することが提案されている。
しかし、ダイナミックレンジの拡大などのために、互いに異なる入出力特性(ガンマ曲線)が画像内の複数の部分領域に其々適用されている画像について、補正処理をする場合に不具合が生じるおそれがある。詳細には、ユーザーが部分領域毎に適用された入出力特性を意識せずに画像全体を対象としたホワイトバランスなどの調整処理を行うと、好ましい色再現を得ることが困難である。
上記課題を解決するために、本発明に係る画像処理システムは、撮像装置と画像処理装置とを有する画像処理システムであって、前記撮像装置は、撮像画像を取得する撮像手段と、前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、前記画像処理装置は、前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする。
本発明によれば、異なるガンマカーブなどを適用した領域をユーザーが識別し易い様にすることで、領域毎にホワイトバランス調整などの補正処理を適用しやすくし、好ましい色再現性を得ることができる。
以下に、本発明の実施形態を図面に基づいて詳細に説明する。
<<実施形態1>>
以下、図1〜図10を参照して、本発明の実施形態1について説明する。以下においては、本発明の一実施形態としてネットワークカメラについて説明する。
以下、図1〜図10を参照して、本発明の実施形態1について説明する。以下においては、本発明の一実施形態としてネットワークカメラについて説明する。
図1は、実施形態1にかかる画像処理システムとしてのネットワークカメラシステムの概略構成の一例を示す図である。図1に示すように、ネットワークカメラシステム100は撮像装置としてのネットワークカメラ110(以降、カメラと称す)とビューワークライアント120(以降、クライアントと称す)とネットワーク130とを有している。カメラ110とクライアント120はネットワーク130によって互いに通信可能に接続されている。なお、撮影装置は、ネットワークカメラに限らず、たとえば、デジタル一眼レフカメラ、ミラーレス一眼カメラ、コンパクトデジタルカメラ、カムコーダ、タブレット端末、PHS、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮影機能を有する別の携帯の装置に置き換えてもよい。
カメラ110は撮影(撮像)した画像を含む画像データを、ネットワーク130を介して配信する。クライアント120はカメラ110にアクセスして、カメラ110の初期設定をして、カメラ110の撮像パラメータを設定したり、配信設定をしたりする等して、所望の画像データを取得できるようにする。そして、クライアント120はカメラ110から配信された画像データを処理したり、配信された画像データを蓄積したり、蓄積された画像データなどを処理したりして、処理後の画像データに基づいて画像の表示を行う。
ネットワーク130は、カメラ110とクライアント120とを通信可能に接続するものであり、例えば、Ethernet等の通信規格を満足する複数のルータ、スイッチ、ケーブル等を含んでいる。なお、本実施形態において、ネットワーク130はカメラ110とクライアント120との間の通信(画像配信用とカメラの設定用)が支障なく行えるものであれば、その通信規格や規模、構成は問わない。したがって、ネットワーク130としては、インターネットから有線LAN、無線LANにいたるまで適用が可能である。
図2は、本実施形態におけるカメラ110の構成を示すブロック図である。撮像光学系201は対物レンズ、ズームレンズ、フォーカスレンズ、光学絞り等を備えており、被写体の光情報を後述の撮像素子部202へ集光する。撮像素子部202は、撮像光学系201にて集光された光情報を電流値へと変換する素子でCCDまたはCMOSセンサを備え、カラーフィルタなどと組み合わせることで色情報を取得する。ここで、撮像素子部202は基本的に、各画素について任意の露光時間を設定可能な撮像センサとする。
CPU203は、バス210に接続されている各構成の処理に関わる。例えば、ROM(Read Only Memory)204や、RAM(Random Access Memory)205に格納された命令をCUP203が順次に読み込み、解釈し、その結果に従って処理を実行する。撮像系制御部206は撮像光学系201に対して、フォーカスレンズを駆動しフォーカスを合わせたり、CPU203から絞りを調整するなどの指示があれば指示されたとおりの制御を行ったりする。
より詳細には、絞りの駆動制御はプログラムAE(Automatic Exposure)、シャッター速度優先AE、絞り優先AEなど、ユーザーが設定する撮影モードにより指定されるAE機能に基づいて計算された露出値に基づいて行われる。
また、CPU203はAE制御に併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、コントラスト検出方式等が適用される。なお、この種のAEおよびAFの構成および制御については周知の一般的な技術を利用すればよいため、ここで詳細な説明は省略する。
撮像素子部202においてデジタル化された画像信号は、画像処理部207に入力される。画像処理部207では、後述の画像処理を行い、輝度信号Y、色差信号Cb・Crを生成する。
エンコーダ部208は、画像処理部207にて処理した画像データをJpegやH.264、H.265などの所定のフォーマットに変換する符号化処理を行う。
通信部209は、クライアント120とonvifなどのカメラ制御用プロトコルに従った通信をしたり、撮影された画像データをネットワーク130経由でクライアント120へ配信したりする。カメラ制御用プロトコルを用いた通信とは、クライアント120からのカメラ操作コマンドやカメラ設定コマンド、機能の問合せ等を受信し、そのレスポンスや画像データ以外の必要なデータの送信を行うことである。
図3は、本実施形態におけるクライアント120の概略構成を示すブロック図である。CPU301は、クライアント120における動作を統括的に制御するものである。ROM302は、CPU301が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。すなわち、CPU301は、処理の実行に際してROM302から必要なプログラム等をRAM303にロードし、ロードしたプログラム等を実行することで各種の機能動作を実現したり、後述の図5や図8に示す処理を実施したりする。
HDD304は大容量の2次記憶部であって、例えば、CPU301が処理を行う際に必要な各種データや、画像データ、各種情報等を記憶している。また、HDD304には、CPU301がプログラム等を用いた処理を行うことにより得られた各種データや、画像データ、各種情報等が記憶される。
操作入力部305は電源ボタンやキーボードやマウス等の操作デバイスを備える入力部であり、ユーザーからの各種設定(後述する、領域毎の画像処理設定や優先度の設定)を受け付ける受付部として機能する。通信部306は、クライアント120とネットワーク130との通信の処理を行う。具体的には、カメラ110において撮影された画像データをネットワーク130経由で受信する。また、カメラ操作コマンドをカメラ110へ送信し、そのレスポンスや画像データ以外の必要なデータを受信する。
表示部307は、カメラ110の各種制御パラメータ入力のためのGUI(詳細は後述)やディスプレイを備えている。表示部307は、外部のディスプレイに後述するGUIなどを表示させるように表示制御する構成であってもよい。また。クライアント120の各要素の一部または全部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、クライアント120の各要素のうち少なくとも一部(GPUやDMAなど)が専用のハードウェアとしてCPU301とは別に動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。
図4は本実施形態の画像処理部207の構成の詳細を示すブロック図である。画像処理部207は現像処理部400とダイナミックレンジ拡張処理部410の2つのブロックに大きく分かれておりローカルバス430を介してメモリ420と接続している。
現像処理部400は、撮像素子部202より入力された画像データに対して、レンズ収差の補正や周辺光量の補正など撮像光学系201の補正を行う光学補正部401、センサのキズや欠陥の補正やオフセット調整など撮像素子部202の補正を行うセンサ補正部402、センサのゲインと合わせてデジタル値でゲイン調整を行うゲイン調整部403を備える。さらに現像処理部400は、ノイズリダクション処理を行うNR処理部404、ホワイトバランスの調整を行うWB調整部405、ガンマ補正を行うガンマ補正部406、シャープネス処理を行うシャープネス処理部407、コントラスト調整処理や彩度調整処理や色変換処理などの色処理を行う色処理部408などの画像内容の補正処理を実施する構成を備える。現像処理部400の出力は、メモリ420に一時的に蓄えられる。
ダイナミックレンジ拡張処理部410は、ヒストグラム解析処理部411と後述するマップ作成処理部412、ガンマ調整部413、WDR合成処理部414を備える。マップ作成処理412で作成されたマップ情報もメモリ420に蓄えられる。ダイナミックレンジ拡張処理部410の有する各機能モジュールの説明は後述する。
アトリビュート生成部409では、画素の輝度に基づいて画像処理の内容を変えるために、アトリビュート情報を画像処理部207(現像処理部400)の各構成に出力する。各構成はアトリビュート生成部409から出力されたアトリビュート情報を参照して、画像データを処理する際の処理パラメータを変更することが可能なように構成されている。
例えば、輝度しきい値Ythをアトリビュート生成部409に設定する。そして、アトリビュート生成部409は、処理画素ごとに輝度値を輝度しきい値Ythと比較し、しきい値よりも大きいか否かを示す情報を、画素の輝度情報にアトリビュート情報として付加する。例えば、アトリビュート情報はブーリアン値でよく、画素の輝度値がYthより大きければ”1”、小さければ”0”の値を保持する。光学補正部401〜色処理部408は、アトリビュート情報を参照し、アトリビュート情報に対応する処理パラメータを設定する。
次に図5において、画像処理部207の動作フローについて説明する。ステップS501では、画像処理部207が撮像素子部202から画像データを受信する。次に、ステップS502において、現像処理部400の各構成が受信した画像データについて種々の処理を実施する。
次に、ステップS503で画像処理部207が、クライアント120からマップ作成についての指示を受けたか判定する。この指示は、本実施形態においては、ユーザーがホワイトバランスなどの画像調整の作業を開始する際にクライアントから送られてくるコマンドのことである。例えば、明るさによって現像処理の内容が異なる領域がある際に、そのマップ情報をクライアント120から要求があったことを意味するコマンドである。このコマンドを受信していなければ、後述のステップS507においてガンマ調整処理を行い、処理を終了する。一方で、マップ作成指示がある場合は、ステップS504に遷移する。
ステップS504ではヒストグラム解析処理部411がヒストグラム解析を行う。ヒストグラムについては図6を用いて説明する。図6(a)は、撮影シーンの一例を示しており、網掛けで示す窓601の外と室内602を含む範囲が撮影されている。窓601の外と室内602は異なる光源の影響を受けており、窓601の画像領域と室内602の画像領域とでは輝度差が大きいとする。このような輝度差のあるシーンの場合、ヒストグラムは、図6(b)に示すように室内602に対応するピーク702を持つヒストグラムと、窓601に対応するピーク701を持つヒストグラムとが、谷703を挟んでいる様になる。
ヒストグラム解析部411は、ステップS504において、画像データから画素毎の輝度値についてのヒストグラムを生成し、生成したヒストグラムについて2つの山ができるか、1つしか山がないかを検知する。解析結果となるピークの数によってステップS505において処理を分岐する。
検出されたピークが1つ以下である場合は、後述のガンマ調整処理507を行い画像処理部207の処理を終了する。ピークが2つある場合、ステップS506においてマップ作製の処理を行う。さらに、ピークが2つある場合、ピークの谷703の輝度値をヒストグラム解析部411がアトリビュート生成部409に設定する。なお、3つ以上のピークを検出するように構成してもよく、検出されたピークに対応する分だけ領域を分割してもよいし、含まれる画素数が少なければ(ピークが属する領域のサイズが小さければ)無視するように構成してもよい。
ステップS506ではマップ作成処理部412がマップを作成する。ピークが2つ検出された画像に対して、マップは、ヒストグラムの2つのピークのどちらに属する領域であるかを画像上で示している。まず、マップ作成処理部412が画像を複数の輝度領域に分割する。本実施形態では、処理画像604の解像度は、1920×1080であり、64×36のブロック603に分割する。このブロックの中でヒストグラムの谷703の輝度値よりも大きい輝度値の画素がブロック内の画素数の2/3を超えるブロック603と、そうでないブロック603とに分割しマップとして示す。図6に示した画像に対応するマップを図6(c)に示す。窓の部分が明るいため窓601の部分と、それ以外とで領域がわかれていることがわかる。このマップ情報と、ステップS505で検出されたピーク数とはダイナミックレンジ拡張処理部410がメモリ420に出力し、通信部209がクライアント120へ通知する。
ステップS507では、ガンマ調整部413がガンマ調整処理を実施する。ステップS506のマップ作成処理を行っていない場合は、調整用のガンマは図6(c)において点線801で示されたガンマカーブ(ガンマ曲線)となっている。ここで、マップを作成した場合、調整用のガンマは、図8において実線802(第1の入出力特性)、803(第2の入出力特性)に示されるような特性となるように調整する。図6(c)に示す通り、ガンマ特性として不連続な階調特性となる。この不連続な輝度を境界に輝度領域を分割する。つまり、図6(b)において谷703以降の明るさの領域の明るさを下げるように調整されており、全体的なダイナミックレンジを確保する処理となる。谷703に相当する輝度値でいったん出力値が下がっており、このようなガンマカーブで輝度調整を行うことで、ダイナミックレンジが拡大され明るいエリアの視認性が向上する。以上のように画像処理部207の処理が完了する。
次に、後述するクライアント120から送信された設定パラメータをカメラ110が受信した後の処理について説明する。クライアント120から受信する設定パラメータは、各画像処理モジュール(図4の構成401〜409)の画像処理のパラメータとして反映され、アトリビュート生成部409で設定されたしきい値によって切り替えられる。詳しくは、アトリビュート生成部409へ輝度しきい値としてヒストグラムの谷の値の703に相当する輝度しきい値が設定され、この値を境に各画像処理パラメータが変更される。そのため、被写体が移動した場合においても、同一の被写体であれば同様のガンマ補正が適用され続ける。また同様に、輝度の明るい画素に対するホワイトバランスの処理も維持される。
ここで、ホワイトバランス処理について詳細に説明する。ホワイトバランスは自動設定と、手動設定の2つの動作モードを有している。この動作モードは、クライアント120から指定されるが、クライアントの動作については後述する。
また、ホワイトバランスの自動モードが指定される場合は、ホワイトバランスの測定領域を示す領域情報もクライアント120からカメラ110に送られてくる。手動モードでは、クライアント120からホワイトバランスの色温度情報や光源情報を受信する。この手動モード、自動モードの設定はステップS504のヒストグラム解析において2つの領域が検出された際は、其々の領域に対応する設定が可能であるため、2つの設定情報をカメラ110で受信することになる。
自動モードが選択された際には、クライアント120から指定された測定領域から白と思われる画素を抽出する(例えば、ノイズ以外であって、一番、白の値に近い画素値を有する画素を抽出する)。次に抽出された白と思われる画素の値を、白の値に近づけるような色変換の係数を算出し、算出された係数に基づく色変換の処理を処理対象の画素全体にかけることで、ホワイトバランス調整を行う。一方で、クライアント120から測定領域の指定がない場合は、マップにより分割されたそれぞれの領域から白と思われる画素を抽出して、各領域の其々について係数を算出し色変換してホワイトバランス調整を実施する。
手動モードの場合は、マップで分けられたそれぞれの領域ごとにクライアント120から指定された色温度や光源情報に基づいてホワイトバランスの調整を行うが、輝度値しきい値を持ち、しきい値を超える画素と超えない画素で処理パラメータを異ならせることでホワイトバランスの設定を行うように構成する。
さらに、ホワイトバランス調整以外の画像処理、例えば、ノイズリダクション処理やシャープネス処理、コントラスト調整、彩度調整も同様にアトリビュート生成部409に設定された輝度しきい値により処理設定を変えることができる。
図13にアトリビュート生成部409が設定するしきい値により画像処理部207の各構成のパラメータが切り替えられる様子を示す。各画像処理部207の構成毎に、アトリビュート生成部409に設定された輝度しきい値との比較によって処理内容を設定可能となる。ホワイトバランスは、しきい値未満の暗い領域ではAuto、しきい値以上の明るい領域ではManual(5500K)に設定する。また、ノイズリダクション、シャープネス等についても同様に、図13に示す様に設定する。
例えば、ノイズリダクションについては、しきい値以上の明るい領域については、しきい値未満の領域よりもノイズリダクションが弱めに実施される様なパラメータを設定する。シャープネス、コントラスト調整、彩度調整については、しきい値以上の明るい領域については、しきい値未満の領域よりも各処理が強めに実施されるようなパラメータを設定する。以上の様に明るい領域として合成されている領域について、パラメータを切り替えることで、より好ましい色再現性を得ることができる。
次に、クライアント120の処理について説明する。クライアント120においては、カメラ110から配信される動画像を表示するとともに、カメラ110へ撮影に関する設定やネットワークに関する設定を行うことができる。
ここで、ユーザーのホワイトバランスの設定について図12を用いて説明する。まず、ステップS1201においてクライアント120は、ホワイトバランス設定のモードに遷移するとカメラ110に対して、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップに更新があるかどうかを確認する。更新がある場合にステップS1202およびステップS1203において、画像処理部207におけるステップS504で検出されたピーク数と、ステップS505で作成されたマップをカメラ110の通信部209が配信しクライアント120の通信部306が受信する。
次に、ステップS1204において通信部306が110カメラ110の配信画像を受信する。さらに、ステップS1205において、表示部307が、ユーザーが使用するモニターやディスプレイなどの表示画面上にカメラ110から配信される撮影画像に上記で受信したマップを重畳して表示する。この時、マップ上で入出力特性が異なる領域を枠で囲ってもよいし、異なる色で塗りつぶしてもよいし、どちらか一方を点滅表示させたりクリック選択時に入出力特性に対応する文字列やシンボルを表示させたりしてもよい。
図7にユーザーがホワイトバランス調整領域およびホワイトバランス調整方法(動作モード)を選択する表示画面の一例を示す。本図は窓のある部屋を撮影した例の模式図であり左側に明るい窓があり外を歩く人物が写っている。また室内の人と植物が写っている例を示している。ユーザーは表示されたマップにより分けられた領域毎にホワイトバランス調整の白の基準の抽出領域を選択することができる。図7では、互いに異なるガンマカーブが適用される領域として、窓の外の明るい領域1001と、室内を撮影し、窓の外に比べて暗い領域1002とが区別可能な様にマップとして表示されている。そのため、各々の領域に対応するホワイトバランス調整方法を選択することができる。
ここで、指定した領域に対してホワイトバランス調整モードは複数選ぶことができ、自動(Auto)で処理するモード、手動で光源または環境の種類などの色温度を選択するモードを選択することもできる。図7に示す例では、領域1001に対応する領域1と領域1002に対応する領域2の其々について、表示されている各種のホワイトバランス調整モードからユーザーが選択欄1006、選択欄1007から1つずつ指定できる。ホワイトバランス調整モードとしては「AWB(オート・ホワイト・バランス)」、「Fluorescent3000K,4000K,6500K(蛍光灯と色温度ケルビン)」、「Indoor(屋内)」、「Outdoor(屋外)」がある。もちろん、プルダウン形式で選択可能であってもよい。なお、初期設定は各領域「Auto」設定がされており、選択欄1006を選択することで「Manual」設定がされる。
さらに、自動で処理するモードの場合、マップにより分けられた領域ごとにホワイトバランスの測定領域として画像上の任意の位置(例えば、図7の領域1003、領域1004)をドラック&ドロップ等の操作で指定することもできる。このため、例えばユーザーが白基準となる領域(基準領域)をあらかじめ指定することでホワイトバランスの補正精度が高まる。図7では、白い壁が写っている場合に矩形1004を指定することで、ホワイトバランスの補正精度が好ましくなる。
このホワイトバランスの測定領域をユーザーが指定した場合、この測定領域を示す領域情報は画像処理部207のWB調整部405の設定値としてカメラ110へ送信される。ユーザーが指定し、カメラ110へ送信される領域の形は矩形以外の任意の形でもよい。また、特にユーザーがホワイトバランス領域を指定しない場合は、カメラ110にAutoを通知し、カメラ110において自動的にマップ毎のホワイトバランス調整を行うようにしてもよい。
以上のとおり、本発明によれば、ガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。
さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角がパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色を正確に再現することができる。
<<実施形態2>>
次に、本発明の実施形態2について説明する。実施形態1では、1枚の画像中の明部をヒストグラム解析し、輝度で分割した部分領域毎に異なるガンマ調整値(ガンマ曲線)を用いて画像を作成し、ホワイトバランスを明部と暗部で異ならせる実施形態について述べた。本実施形態においては、さらに露出の異なる複数枚の画像を合成して合成画像を生成する実施形態について説明する。
次に、本発明の実施形態2について説明する。実施形態1では、1枚の画像中の明部をヒストグラム解析し、輝度で分割した部分領域毎に異なるガンマ調整値(ガンマ曲線)を用いて画像を作成し、ホワイトバランスを明部と暗部で異ならせる実施形態について述べた。本実施形態においては、さらに露出の異なる複数枚の画像を合成して合成画像を生成する実施形態について説明する。
なお、実施形態1と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
本実施形態では、互いに露出が異なる撮像条件で撮像した2枚のフレーム(撮像画像)を取得し、そのうち明るい被写体側に対応するフレームを実施形態1の方法でヒストグラム解析、現像処理、ガンマ調整処理を行い、その後にすべてのフレームを合成して合成画像として出力する。もちろん、露出を変えて撮像した画像を合成する数は2つに限定されるものではなく、3枚以上の撮像画像を合成してもよい。また、本実施形態では、簡便のため撮影エリア全体を合成する例について説明するが、これに限らず撮影される画像の少なくとも一部について合成するようにしてもよい。
まず、図8を用いて画像処理部207の動作フローについて説明する。ステップS501、S502は実施形態1と同様で、本実施形態ではステップS1101において画像処理部207が、合成のために必要なフレーム分の画像を受信し現像処理をしたかを判断する。なお、本実施形態では互いに露出条件の異なる撮影で得られた2枚の画像を取得する。露出の条件としては、シャッター速度を変えてもよいし、撮像素子のゲインを変えてもよいし、シャッター速度とゲインの双方を変えてもよい。合成に必要な枚数が受信されていれば、ステップS503に遷移し、必要な枚数に達していなければ、ステップS501に戻る。
次にステップS504において、実施形態1におけるステップS503と同様にクライアント120からマップ作成の指示があるかどうかを判定する。ここで、実施形態2におけるマップ作成について説明する。マップ作成が必要な場合は、実施形態1と同様にステップS504においてヒストグラム解析を行い、ステップS505においてピークの数を判定する。ここで、ヒストグラム解析処理部411がヒストグラム解析を行うフレームは、高EVフレーム(後述する)とする。ヒストグラムの解析方法については、実施形態1と同様であるため説明を省略する。ここで、高EV・低EVフレームについて説明を補足する。図9のように、明るい対象物に露出を合わせて撮影したフレーム(以降、高EVフレーム)を図9(a)、暗い対象物に露出を合わせて撮影したフレーム(以降、低EVフレーム)を図9(c)に示す。低EVフレーム図9(c)では、明るい窓の外などは白飛んでしまう一方、暗い室内は適正値に近い露出が得られる。ここで、EVとは露出値(Exposure Value)のことを示す。
ステップS505でピークの数が2つである場合に、ステップS506においてマップを作成する。本実施形態では、2枚の露出の異なるフレームの合成を想定しているため、マップは複数画像の合成比率に応じたマップとなる。具体的には、輝度の低い側から、低EVフレーム比率が100%のエリア、低EVフレームと高EVフレームの混合エリア、高EVフレーム比率100%のエリア、高EVフレーム比率100%であり、かつ複数のピークが検出されガンマ特性の異なるエリアの4カテゴリーを持つマップとなる。もちろんマップ作成は、高EVフレーム、もしくは低EVフレームに対して行ってもよい。図9の撮影シーンにおいて本実施形態で作成されたマップの例を図10(b)に示す。
陰になっている暗いエリア1401は、低EVフレーム比率が100%のエリアである。もっとも広いエリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。室内の人が明るく映っているため、エリア1403は高EVフレーム比率100%のエリアとなっている。窓の外が写っているエリア1404はもっとも明るく、高EVフレーム比率100%であり、複数ピークが検出されガンマ特性の異なるエリアとなっている。ここで作成されたマップはクライアント120へ送信される。
その後、ステップS507の処理は、実施形態1と同様である。図9(a)に示す明るい対象物に露出を合わせて撮影した画像に、ヒストグラム解析を行い、現像、ガンマ調整処理を行った画像を図9(b)に示す。ガンマを調整したことで、窓の外の明るい領域の輝度が下がり適切な輝度になる。
次に、ステップS1103で高EVフレームのガンマ調整後の画像と低EVフレームの合成処理をWDR合成処理部414により行う。WDR合成処理部414による合成処理について、図10(a)を参照して説明する。図10(a)の横軸は基準輝度を、縦軸は画像を加算合成する際の合成比率を表す。実線1301で示す合成比率は、基準輝度に対する低EVフレームの合成比率を表し、1点鎖線1302で示す合成比率は、基準輝度に対する高いEVフレームの合成比率を表している。合成する際の基準輝度の閾値Y1より暗い領域は低EVフレームのみを使用し、基準輝度の閾値Y2より明るい領域では高EVフレームのみを用いる。また、基準輝度の閾値付近の境界Y1〜Y2の中間領域では、合成比率を徐々に変化させることで画像の切り替えを滑らかにすることができる。基準輝度として用いるのは、本実施形態では高EVフレームとなる。
図9(d)に合成処理後の画像を示す。図9(a)と図9(c)が合成されることで、明るいエリアから暗いエリアまで表現できるダイナミックレンジの広い画像となっている。なお、クライアント120における処理は、マップ情報の領域数が4つになること以外は、実施形態1と同様である。
以上により、WDR撮影においてもガンマカーブ毎にホワイトバランス補正を適用することで、照度差または環境が異なる領域に対して色を正確に再現することができる。
さらに、本実施形態においては、位置的な領域ではなく、輝度の高い低いといった輝度領域において処理を変えているため、例えばカメラの画角についてパンやチルトといった変化がある場面や、夜間の交通監視のように画面中を明るい被写体が移動するような場面においても、照度差または環境が異なる領域に対して色をより正確に再現することができる。
<<実施形態3>>
次に、本発明の実施形態3について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態では輝度に基づいて分割した範囲の其々に異なるガンマ調整値と優先モードとを適用する。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
次に、本発明の実施形態3について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態では輝度に基づいて分割した範囲の其々に異なるガンマ調整値と優先モードとを適用する。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
クライアントの動作について説明する。図11(a)はユーザーが設定するための表示画面(GUI)の一例である。ユーザーは、クライアント120で表示画面に重畳されたマップ情報をもとに優先させたいモード、例えば「動き優先」、「ノイズ優先」または「解像度優先」などを選択することができる。本実施形態では、マップは最大4つの領域を持つが、例えば、シャッター速度を変える変更の場合、本実施形態では2枚の合成となるため、高EVフレームと高EVフレームのガンマ特性の異なる領域を分けることは意味をなさないため、設定項目によってユーザーに表示する領域を削減してもよい。
ユーザーが選択した優先モードを適用した場合のカメラ設定変更の一例を図11(b)に示す。例として、図11(a)に示すように領域601で「動き優先」が選択された場合について説明する。
図11(b)にあるように、領域601に対応するフレームのシャッター速度はそれ以外が選択された場合に比べ短い値になる。これにより、動きブレの少ない画像を取得することができる。なお、実施形態1において、ノイズリダクション強度を弱めることでも同様に動きブレを弱めることができるため、この方法を用いてもよい。
さらに、領域602について「解像度」優先が設定されている場合は、図11(b)に示すようにエッジ強調などのシャープネス調整、またはガンマカーブの調整をすることでコントラストの高めた解像感の高い画像を得ることができる。なお、ノイズリダクションを弱めることでコントラストを強める補正などをしてもよい。
本発明によれば、異なるガンマカーブ毎に優先モードを適用することで、照度差または環境が異なる領域ごとに動きぶれが少ない、ノイズが低い、シャープネスが高い画像などを詳細に設定することで、ユーザーの所望の画像を得ることができる。
また、上述の実施形態では、互いに異なるガンマカーブを適用する領域(第1領域、第2領域)を主とした説明をしているが、互いに異なる露出設定を適用する領域についても、本発明を適用することもできる。詳細には、合成画像について領域毎に異なる露出補正を適用する場合について、領域毎に上述の実施形態で示す補正処理を設定し、適用できるようにしてもよい。
<<実施形態4>>
次に、本発明の実施形態4について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態ではフォーカスの調整を行う。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
次に、本発明の実施形態4について説明する。実施形態1および実施形態2では、輝度に基づいて分割した範囲の其々に異なるガンマ調整値を設定しホワイトバランス調整を行うのに対して、本実施形態ではフォーカスの調整を行う。なお、実施形態1、2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的に変わらないものについては、その説明を省略する。
本実施形態では、実施形態2における露出の異なる複数枚の画像を合成して合成画像を生成する実施形態に基づいて説明するが、実施形態1に基づく1枚の画像に適応してもよい。
まず、図14に本実施形態の画像処理部207の構成の詳細を示す。本実施形態においては、画像処理部207の現像処理部400にフォーカス評価値取得部1701を持つ。フォーカス評価値取得部1701は、指定されたエリアのフォーカスの評価値を取得する取得部であり、露出の異なる複数枚の画像それぞれについてフォーカス評価値を取得する。
次に、図15を用いて撮像系制御部206および画像処理部207の動作フローについて説明する。本実施形態では、S501の画像受信ののちに、フォーカス評価値取得部1701においてフォーカス評価値を取得する(ステップS1501)。次のS502、S1101は実施形態2と同様の処理であり説明を省略する。
次に、S1502においてS1501で取得したフォーカス評価値を用いてフォーカス処理を行う。フォーカス評価値は、ユーザーから指定されたエリアの評価値が、露出の異なる画像ごとに保持されている。本ステップにおいてユーザーから指定された露出の画像のフォーカス評価値を基にフォーカスを駆動する。
ここで、ユーザー指定エリアとフォーカス評価値について詳細に説明する。ユーザーは、実施形態1及び2と同様の図10(b)に示すマップの領域エリア1401〜1404からフォーカス判定に用いる領域を選択する。
エリア1401は、低EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、低EVフレームを基にフォーカス評価値を算出する。エリア1403、およびエリア1404は、高EVフレーム比率が100%のエリアであるため、ユーザーがこのエリアを選択した場合には、高EVフレームを基にフォーカス評価値を算出する。
エリア1402は、低EVフレームと高EVフレームの混合エリアとなっている。このエリアを指定した場合は、高EV,低EVどちらのフレームを用いてもよい。本実施形態では、フォーカス評価値が高い値であるフレームのフォーカス評価値を採用した。
以降のS503〜S1103は実施形態2と同様の処理になるため説明を省略する。
以上説明してきた構成により、ユーザーはフォーカス対象となるエリアを指定できるため、フォーカスしたい領域と露出を選択でき、所望のエリアに対して視認性を向上することができる。さらに、被写体に動きがある場合においても、露出を指定してフォーカス評価値を取得しているため、被写体の動きによって評価値が変化することなく安定した値を取得できる。
また、実施形態1及び2において実施しているS507ガンマ調整処理は、本実施形態とは依存せずに実行の可否を設定可能である。
<<その他の実施形態>>
その他の実施形態として、実施形態1および2においてホワイトバランス調整を行い、実施形態3では画像パラメータ調整、実施形態4においてはフォーカス調整を行っていたが、本実施形態では指定されたエリアに対して上述の複数の調整機能を選択的に実施してもよい。
その他の実施形態として、実施形態1および2においてホワイトバランス調整を行い、実施形態3では画像パラメータ調整、実施形態4においてはフォーカス調整を行っていたが、本実施形態では指定されたエリアに対して上述の複数の調整機能を選択的に実施してもよい。
図16にユーザーが設定するための表示画面(GUI)の一例を示す。ユーザーはクライアント120で表示画面に重畳されたマップ情報をもとに調整したいモード、例えば「ノイズ優先」、「フォーカス」、「ホワイトバランス」など複数選択可能である。ただし、フォーカスについては、一つのマップ情報でのみ有効に設定可能となる。
これにより、ユーザーが注目している露出エリアに対して、前述の調整処理を選択的に一括して設定することが可能となり、容易に所望の画像を得ることができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (22)
- 撮像装置と画像処理装置とを有する画像処理システムであって、
前記撮像装置は、
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段と、を備え、
前記画像処理装置は、
前記撮像装置から前記領域情報を取得し、前記第1領域と前記第2領域とを区別して表示させる表示制御手段を備えることを特徴とする画像処理システム。 - 前記撮像手段は互いに異なる撮像条件で撮像した複数の撮像画像を取得し、前記設定手段は前記複数の撮像画像の輝度値に基づいて前記第1領域と前記第2領域とを設定することを特徴とする請求項1に記載の画像処理システム。
- 前記撮像条件は露出条件であり、前記撮像装置は前記設定手段により設定した第1領域の輝度と第2領域の輝度と、前記複数の撮像画像とに基づいて、ダイナミックレンジを拡張した合成画像を取得する合成手段を更に備えることを特徴とする請求項2に記載の画像処理システム。
- 前記入出力特性はガンマ曲線であって、前記第1の入出力特性に対応する第1のガンマ曲線と前記第2の入出力特性に対応する第2のガンマ曲線とは不連続であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。
- 前記画像処理装置は、前記表示制御手段で表示させている前記第1領域と前記第2領域の其々について、補正処理の適用を受け付ける受付手段を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。
- 前記撮像手段は、前記受付手段で受け付けた補正処理を実施する現像処理手段を更に備えることを特徴とする請求項5に記載の画像処理システム。
- 前記補正処理は、ホワイトバランスを調整する処理であることを特徴とする請求項5または6に記載の画像処理システム。
- 前記補正処理は、ノイズリダクション処理、シャープネス処理、色処理の少なくとも1つを含むことを特徴とする請求項5乃至7のいずれか1項に記載の画像処理システム。
- 前記画像処理装置は、前記表示制御手段に表示させている前記第1領域と前記第2領域のいずれかについて、合焦度の評価値を算出する処理の指示を受け付ける受付手段を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。
- 撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段とを有することを特徴とする撮像装置。 - 複数のホワイトバランスの設定値を持ち、前記第1領域または前記第2領域の輝度値に基づいて、前記複数のホワイトバランスの設定値を切り替えてホワイトバランスを調整する補正処理手段を更に備ることを特徴とする請求項10に記載の撮像装置。
- 撮像画像について、第1の入出力特性を適用する第1領域と第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を撮像装置から取得する取得手段と、
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
を有することを特徴とする画像処理装置。 - 前記第1領域と前記第2領域の其々について、ホワイトバランスを調整するための設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。
- 前記第1領域と前記第2領域の其々について、ホワイトバランス調整のための基準領域の設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。
- 前記第1領域と前記第2領域の其々について、撮影の優先度の設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。
- 前記第1領域と前記第2領域の其々について、画像処理パラメータの設定を受付ける受付手段を更に有することを特徴とする請求項11に記載の画像処理装置。
- 前記第1領域と前記第2領域は互いに露出設定が異なる領域であることを特徴とする請求項11乃至15のいずれか1項に記載の画像処理装置。
- 撮像装置と画像処理装置とを有する画像処理システムの制御方法であって、
前記撮像装置が、
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程と、を実施し、
前記画像処理装置が、
前記撮像装置から前記領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程とを実施することを特徴とする画像処理システムの制御方法。 - 撮像装置の制御方法であって、
撮像画像を取得する取得工程と、
前記取得工程において取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定工程と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力工程とを有することを特徴とする撮像装置の制御方法。 - 撮像装置と通信可能に接続されている画像処理装置の制御方法であって、
前記撮像装置から領域情報を取得する取得工程と、
前記第1領域と前記第2領域とを区別して表示させる表示制御工程と
を有することを特徴とする画像処理装置の制御方法。 - コンピュータを、
撮像画像を取得する撮像手段と、
前記撮像手段により取得した撮像画像について、第1の入出力特性を適用する第1領域と、第2の入出力特性を適用する第2領域とを設定する設定手段と、
前記第1領域または前記第2領域の少なくとも一方を示す領域情報を出力する出力手段として機能させることを特徴とするプログラム。 - コンピュータを、
撮像画像について、第1の入出力特性を適用する第1領域と第2の入出力特性を適用する第2領域の少なくとも一方を示す領域情報を撮像装置から取得する取得手段と、
前記第1領域と前記第2領域とを区別して表示させる表示制御手段と
して機能させることを有することを特徴とするプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/056,144 US20190052803A1 (en) | 2017-08-09 | 2018-08-06 | Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium |
| CN201810896293.4A CN109391804A (zh) | 2017-08-09 | 2018-08-08 | 摄像装置、图像处理装置及系统、控制方法和存储介质 |
| EP18188039.4A EP3442218A1 (en) | 2017-08-09 | 2018-08-08 | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017153813 | 2017-08-09 | ||
| JP2017153813 | 2017-08-09 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019033470A true JP2019033470A (ja) | 2019-02-28 |
Family
ID=65523762
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018094397A Pending JP2019033470A (ja) | 2017-08-09 | 2018-05-16 | 画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019033470A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020177340A (ja) * | 2019-04-16 | 2020-10-29 | 株式会社デンソー | 画像処理装置 |
| CN113163123A (zh) * | 2020-12-30 | 2021-07-23 | 浙江宇视科技有限公司 | 一种自动聚焦方法、装置、电子设备和存储介质 |
-
2018
- 2018-05-16 JP JP2018094397A patent/JP2019033470A/ja active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020177340A (ja) * | 2019-04-16 | 2020-10-29 | 株式会社デンソー | 画像処理装置 |
| JP7230658B2 (ja) | 2019-04-16 | 2023-03-01 | 株式会社デンソー | 画像処理装置 |
| CN113163123A (zh) * | 2020-12-30 | 2021-07-23 | 浙江宇视科技有限公司 | 一种自动聚焦方法、装置、电子设备和存储介质 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN104853112B (zh) | 一种控制长曝光时间的方法及装置 | |
| JP7516471B2 (ja) | 制御装置、撮像装置、制御方法およびプログラム | |
| US20190082092A1 (en) | Imaging apparatus, image processing apparatus, imaging method, image processing method, and storage medium | |
| JP7353864B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム、撮像システム | |
| JP6786273B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| CN110392205B (zh) | 图像处理设备、信息显示设备、控制方法和存储介质 | |
| JP2019033470A (ja) | 画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム | |
| EP3442218A1 (en) | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner | |
| JP7224826B2 (ja) | 撮像制御装置、撮像制御方法、およびプログラム | |
| JP5335964B2 (ja) | 撮像装置およびその制御方法 | |
| JP7075272B2 (ja) | 画像処理装置、情報表示装置、制御方法、及びプログラム | |
| JP6157274B2 (ja) | 撮像装置、情報処理方法及びプログラム | |
| JP2023090492A (ja) | 画像処理装置および画像処理方法、撮像装置 | |
| WO2019216072A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP5351663B2 (ja) | 撮像装置およびその制御方法 | |
| JP5483949B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP2018019435A (ja) | 画像処理装置 | |
| JP2019134332A (ja) | 画像処理装置およびその制御方法 | |
| JP2019050551A (ja) | 撮像装置、画像処理装置、撮像方法、画像処理方法、およびプログラム | |
| JP6039726B2 (ja) | 撮像装置及びその制御方法 | |
| JP6232712B2 (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
| JP2012120025A (ja) | 画像処理装置 | |
| JP2020178166A (ja) | 投影制御装置、投影制御方法およびプログラム | |
| JP2018093327A (ja) | 画像制御システム、電子機器およびその制御方法、プログラム | |
| JP2018133658A (ja) | 画像処理装置、制御方法およびプログラム |