JP2010003091A - オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 - Google Patents
オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 Download PDFInfo
- Publication number
- JP2010003091A JP2010003091A JP2008161004A JP2008161004A JP2010003091A JP 2010003091 A JP2010003091 A JP 2010003091A JP 2008161004 A JP2008161004 A JP 2008161004A JP 2008161004 A JP2008161004 A JP 2008161004A JP 2010003091 A JP2010003091 A JP 2010003091A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- similarity
- image
- determination
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 157
- 238000012545 processing Methods 0.000 claims description 63
- 238000000034 method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 58
- 241001465754 Metazoa Species 0.000 description 31
- 238000012937 correction Methods 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 206010047571 Visual impairment Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000037311 normal skin Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000003236 psychic effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】効率よく複数の種類のオブジェクトを検出する。
【解決手段】画像データ13bが示す画像からオブジェクトを検出するにあたり、前記画像データ13bが示す画像における複数の検出窓SWについて所定の第1オブジェクトとの類似度を取得し、少なくとも前記類似度が第1閾値(300)以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定し、少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値(100)以上である場合、前記検出窓SWに前記第2オブジェクトが存在すると判定する
【選択図】図7
【解決手段】画像データ13bが示す画像からオブジェクトを検出するにあたり、前記画像データ13bが示す画像における複数の検出窓SWについて所定の第1オブジェクトとの類似度を取得し、少なくとも前記類似度が第1閾値(300)以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定し、少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値(100)以上である場合、前記検出窓SWに前記第2オブジェクトが存在すると判定する
【選択図】図7
Description
本発明は、オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置に関する。
画像から特定のオブジェクトを検出し、その結果を画像処理や画像出力に利用することが行われている。オブジェクトの典型的な例として人の顔が挙げられる。人の顔は特定の画像的特徴を有しているため、当該画像的特徴を有する検出領域を画像において探索することにより人の顔を検出している。例えば、人の顔が含まれる多数のサンプルによって学習させたニューラルネットワーク等の判定アルゴリズムを任意の検出領域について適用することにより、当該検出領域に人の顔が存在するか否かを判定する。一方、画像において検出するオブジェクトは人間の顔に限られず、動物の顔を検出する技術も提案されている(特許文献1、参照。)。
特開2007−11970号公報
上述した技術においては、動物の画像をサンプルとした判定アルゴリズムを用意している。従って、当該判定アルゴリズムによれば動物の顔を検出することができるが、当該判定アルゴリズムによって人間の顔を検出することはできない。そのため、対象の画像から人間と動物の顔の双方を検出する場合には、それぞれに対応した個別の判定アルゴリズムを用意しなければならないという問題があった。むろん、検出時においても、各判定アルゴリズムによる判定を個別に実行しなければならず、検出処理が効率的でないという問題もあった。
本発明は前記課題にかんがみてなされたもので、効率よく複数の種類のオブジェクトを検出するオブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置を提供することを目的とする。
本発明は前記課題にかんがみてなされたもので、効率よく複数の種類のオブジェクトを検出するオブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置を提供することを目的とする。
前記課題を解決するため請求項1にかかる発明では、画像データが示す画像からオブジェクトを検出するにあたり、まず前記画像における複数の検出領域について所定の第1オブジェクトとの類似度を取得する。そして、前記類似度が第1閾値以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定する。さらに、少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値以上である場合、前記検出領域に前記第2オブジェクトが存在すると判定する。すなわち、前記第1オブジェクトとして判定するまでは前記第1オブジェクトに類似はしていないものを、前記第2オブジェクトとして判定する。前記第1オブジェクトと前記第2オブジェクトを判定するための前記類似度は共通しているため、当該類似度を算出するための関数やアルゴリズムを複数用意する必要がない。
なお、少なくとも前記類似度が第1閾値以上である場合に、前記第1オブジェクトが存在すると判定すればよく、前記第1オブジェクトが存在すると判定するために他の要件を加重してもよい。例えば、前記類似度が前記第1閾値以上であり、かつ、前記検出領域の大きさが前記第1オブジェクトの大きさとして妥当である場合に、前記検出領域に前記第1オブジェクトが存在すると判定するようにしてもよい。これにより、異常な大きさのものが、前記第1オブジェクトとして検出されることが防止できる。
さらに、前記第1オブジェクトが存在すると判定するために加重される他の要件の一例として、前記類似度が前記第1閾値以上であり、かつ、前記検出領域における色またはコントラストが前記第1オブジェクトの色またはコントラストとして妥当である場合に前記検出領域に前記第1オブジェクトが存在すると判定するようにしてもよい。ここでも同様に、異常な色やコントラストのものが、前記第1オブジェクトとして検出されることが防止できる。
一方、前記第2オブジェクトは、前記第1オブジェクトとしての妥当な色またはコントラストを有しているとは限らず、むしろ前記第1オブジェクトとして妥当でない色またはコントラストを有していることをもって前記第2オブジェクトであると考えることができる。例えば、前記第1オブジェクトは人の顔とし、前記第2オブジェクトは人の顔に類似する動物の顔等のオブジェクトとした場合、動物の顔や通常肌色を示さないため、人間の顔色として妥当な肌色でないことをもって前記第2オブジェクトが存在すると判定することができる。
さらに、本発明の技術的思想は、具体的なオブジェクト検出方法にて具現化されるのみならず、当該方法をオブジェクト検出装置において具現化することもできる。すなわち、上述したオブジェクト検出方法が行う各工程に対応する手段を有するオブジェクト検出装置としても本発明を特定することができる。むろん、上述したオブジェクト検出装置がプログラムを読み込んで上述した各手段を実現する場合には、当該各手段に対応する機能を実行させるプログラムや当該プログラムを記録した各種記録媒体においても本発明の技術的思想が具現化できることは言うまでもない。なお、本発明のオブジェクト検出装置は、単一の装置のみならず、複数の装置によって分散して存在可能であることはいうまでもない。また、プリンタ等の印刷装置やデジタルスチルカメラ等の画像入力装置において本発明のオブジェクト検出方法を実現するようにしてもよい。
ここでは、下記の順序に従って本発明の実施形態について説明する。
(1)コンピュータの構成:
(2)オブジェクト検出処理:
(3)画像処理・印刷処理:
(4)変形例:
(1)コンピュータの構成:
(2)オブジェクト検出処理:
(3)画像処理・印刷処理:
(4)変形例:
(1)コンピュータの構成
図1は、本発明のオブジェクト検出装置を具体的に実現するコンピュータの概略構成を示している。同図において、コンピュータ10には、内部バス18によって接続されたCPU11とRAM12とHDD13とUSBインターフェイス(I/F)14と入力機器インターフェイス(I/F)15とビデオインターフェイス(I/F)16とが備えられており、HDD13には各種プログラムデータ13aと複数の画像データ13b,13b,13b・・・が記憶されている。CPU11は、このプログラムデータ13aを読み出して、同プログラムデータ13aに基づいた処理を、RAM12をワークエリアとして利用しながら実行する。USBI/F14にはプリンタ20とデジタルスチルカメラ30が接続されており、入力機器インターフェイス15にはマウス40およびキーボード50が接続されている。さらに、ビデオI/F16にはディスプレイ60が接続されている。
図1は、本発明のオブジェクト検出装置を具体的に実現するコンピュータの概略構成を示している。同図において、コンピュータ10には、内部バス18によって接続されたCPU11とRAM12とHDD13とUSBインターフェイス(I/F)14と入力機器インターフェイス(I/F)15とビデオインターフェイス(I/F)16とが備えられており、HDD13には各種プログラムデータ13aと複数の画像データ13b,13b,13b・・・が記憶されている。CPU11は、このプログラムデータ13aを読み出して、同プログラムデータ13aに基づいた処理を、RAM12をワークエリアとして利用しながら実行する。USBI/F14にはプリンタ20とデジタルスチルカメラ30が接続されており、入力機器インターフェイス15にはマウス40およびキーボード50が接続されている。さらに、ビデオI/F16にはディスプレイ60が接続されている。
図2は、コンピュータ10にて実行されるプログラムのソフトウェア構成を示している。コンピュータ10においては図示しないオペレーティングシステム(O/S)が実行されており、同O/S上にてプリンタドライバPが実行されている。プリンタドライバPは、概略、オブジェクト検出部P1と画像処理部P2と印刷実行部P3とから構成されている。オブジェクト検出部P1は、判定条件設定部P1aと検出窓設定部P1bと類似度算出部P1cと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fとから構成されている。オブジェクト検出部P1は第1オブジェクトとしての人の顔と、第2オブジェクトとしての不審顔および動物の顔等を検出する。なお、不審顔とは、主としてデジタルスチルカメラ等によって撮影された本来は写るべきではない不審な顔であり、例えば被写体の周囲にある反射物によって反射されることにより意図せず写り込んだ顔や、撮影時における光学的/電気的な残像によって写り込んだ顔等が挙げられる。また、人の顔に起因せず、例えば木の葉や石などの偶然の配置によって顔のように見える場合も不審顔の範疇に含まれる。なお、不審顔および動物の顔は、第2オブジェクトとして検出されるものの一例であり、他のものが第2オブジェクトとして検出することも考えられる。
判定条件設定部P1aは、後述する検出窓設定部P1bと類似度算出部P1cと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fに種々の判定パラメータを指定するものであり、検出対象が第1オブジェクトであるか第2オブジェクトであるかによって異なる判定パラメータを指定する。検出窓設定部P1bは、対象の画像データ13bからサイズ変換したQVGA(320×240)サイズの検出用画像データを生成し、当該検出用画像データに検出窓(検出領域)SWを設定する。この検出窓SWの大きさと位置と角度を順次シフトさせることにより、検出用画像データにおいてあらゆる大きさや位置や角度で存在する第1オブジェクトと第2オブジェクトを検出することができる。第1オブジェクトと第2オブジェクトを検出する際の検出窓SWの大きさの範囲が判定条件設定部P1aによって指定されており、当該指定に沿った範囲で検出窓SWの大きさをシフトさせる。なお、本実施形態において画像データ13bは、Exifフォーマットの画像データであり、処理時にデコードすることにより、各画素がRGB値の色情報を有するものとされる。同様に、検出用画像データの各画素もRGB値の色情報を有する。
類似度算出部P1cは、順次シフトされる検出窓SWに含まれる画像を取得し、当該画像から複数の特徴量(検出窓SW内の種々の領域における色や輝度やコントラスト等)を取得する。そして、複数の特徴量をHDD13に記憶された類似度評価関数13cに入力し、その結果として類似度を算出する。本実施形態の類似度評価関数13cは、顔を含んだ多数のサンプル(テンプレート)から得られた複数の特徴量を学習データとして公知の学習方法によって学習を行ったニューラルネットワークであり、当該ニューラルネットワークの出力値が類似度を示している。この類似度は0〜1000の値となるように正規化されており、値が大きいほど顔を含んだサンプルとの類似性が高いと判断することができる。すなわち、類似度が1000に近い場合に検出窓SWに顔が含まれていると判定することができる。閾値判定部P1dは、判定条件設定部P1aから指定された閾値と、類似度とを比較し、その結果に応じて当該検出窓SWに第1オブジェクトと第2オブジェクトが存在するか否かを判定する。
色判定部P1eは、検出窓SWに第1オブジェクトとしての顔が存在すると仮定したときに、顔の一部を構成する評価画素が妥当な肌色を示しているか否かを判定する。具体的には、評価画素のRGB値を公知の変換式によってHSB値に変換し、このHSB値が判定条件設定部P1aによって指定された所定の色域に属しているか否かによって当該検出窓SWに第1オブジェクト(人の顔)と第2オブジェクト(動物の顔と不審顔等)が存在するか否かを判定する。コントラスト判定部P1fは、検出窓SWにおけるコントラスト値を算出し、当該コントラスト値が判定条件設定部P1aによって指定された所定の閾値を満足するか否かによって当該検出窓SWに第1オブジェクト(人の顔)と第2オブジェクト(動物の顔と不審顔等)が存在するか否かを判定する。
一方、画像処理部P2はUI部P2aと第1画像処理部P2bと第2画像処理部P2cとから構成されている。UI部P2aは対象の画像データ13bをディスプレイ60に表示するとともに、当該画像データ13bの表示において第2オブジェクトが検出された領域を指し示す枠を表示させる。そして、当該枠が表示された領域に対する画像処理の種類の指定をマウス40およびキーボード50によって受け付ける。本実施形態では、強調処理とぼかし処理と何もしない、のいずれかを各枠について指定することができる。第1画像処理部P2bは、画像データ13bから検出された第1オブジェクトとしての顔が示す色や明るさを解析し、当該画像データ13bの全体に対する色や明るさの補正処理を第1画像処理として実行する。第2画像処理部P2cは、UI部P2aが受け付けた種類の画像処理を画像データ13bにおいて第2オブジェクトが検出された部分のみに実行する。
印刷実行部P3は、サイズ変換部P3aと色変換部P3bとハーフトーン処理部P3cとラスタライズ部P3dとから構成されている。サイズ変換部P3aは、上述した画像処理後の画像データ13bを印刷サイズに対応するようにサイズ変換する。色変換部P3bは、各画素の色がRGB値で表現された画像データ13bをプリンタ20が使用するインクの色で表現された画像データ13bに色変換する。例えば、プリンタ20がCMYKインクを吐出可能なインクジェットプリンタである場合には、各画素の色がCMYK値で表現された画像データ13bに変換される。ハーフトーン処理部P3cは、色変換後の画像データ13bに対して誤差拡散法やディザ法等のハーフトーン処理を行うことにより、各画素についてインクを吐出させるかさせないかを特定するハーフトーンデータに変換する。次に、ラスタライズ部P3dがハーフトーンデータを印刷順に並べ替え、印刷用紙や印刷解像度を指定するヘッダを添付することにより、プリンタ20にて出力可能な印刷データを生成する。印刷データはUSBI/F14を介してプリンタ20に出力され、同プリンタ20にて同印刷データに基づく印刷が行われる。
(2)オブジェクト検出処理
図3はオブジェクト検出処理の流れを示している。ステップS100では、判定条件設定部P1aは、画像データ13bにおける被写体の実サイズが特定可能かを判定する。具体的には、HDD13から取得した対象の画像データ13bをデコードし、画像データ13bにおいてタグ情報として添付されている撮影情報を取得する。そして、撮影情報として、カメラ機種と被写体距離A[m]とレンズ焦点距離B[mm]とデジタルズーム倍率Dがすべて添付されている場合には、画像データ13bにおける被写体の実サイズが特定可能であると判定する。ここで、以上の情報に基づいて、画像データ13bにおける被写体の実サイズが特定できる理由を説明する。
図3はオブジェクト検出処理の流れを示している。ステップS100では、判定条件設定部P1aは、画像データ13bにおける被写体の実サイズが特定可能かを判定する。具体的には、HDD13から取得した対象の画像データ13bをデコードし、画像データ13bにおいてタグ情報として添付されている撮影情報を取得する。そして、撮影情報として、カメラ機種と被写体距離A[m]とレンズ焦点距離B[mm]とデジタルズーム倍率Dがすべて添付されている場合には、画像データ13bにおける被写体の実サイズが特定可能であると判定する。ここで、以上の情報に基づいて、画像データ13bにおける被写体の実サイズが特定できる理由を説明する。
図4は、画像データ13bにおける被写体の実サイズを算出する様子を模式的に示している。同図において、ある被写体をデジタルスチルカメラによって撮影したときの光路断面を模式的に示しており、デジタルスチルカメラが備える画像センサ上に被写体の像がレンズを介して結像されている。まず、カメラ機種が特定可能であるため、画像センサの有効サイズS[mm]および撮像画素数P[ピクセル]を特定することができる。本実施形態では、撮像画素数Pと同じ画素数の画像データ13bが生成されるものとする。また、デジタルズームを行った場合には、最初の段階で撮像画素数Pの一部(P/D)の画素数の画像データが生成されることとなるが、その後、D倍の画素補間を行うことにより、最終的に撮像画素数Pと同じ画素数の画像データ13bが生成されるものとして以下説明する。
まず、画像センサ上における各撮像画素の大きさはS/P[mm]によって表すことができ、画像データ13bにおいて画素数C[ピクセル]の被写体が画像センサ上に結像された大きさはC×S/P[mm]によって表すことができる。デジタルズームを行った場合には、像データ13bにおいて画素数C[ピクセル]の被写体が画像センサ上に結像された大きさはC×S/(P×D)[mm]によって表すことができる。以上のように画像センサの上被写体の大きさが特定できると、図4に示す被写体と画像センサとレンズの位置関係から実際の被写体の大きさX[mm]は、下記の(1)式によって表すことができる。
X=(A×1000)×C×S/(P×D×B) ・・・(1)
これにより、画像データ13b上の任意の画素数Cの被写体が検出された場合に、当該被写体の実際の大きさを特定することができる。ステップS100にて、被写体の実際の大きさを特定可能であると判定された場合には、ステップS110にて判定条件設定部P1aが検出窓設定部P1bと類似度算出部P1cと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fに各種の判定パラメータを指定する。そして、ステップS120において判定処理(第1判定手段)を実行する。
X=(A×1000)×C×S/(P×D×B) ・・・(1)
これにより、画像データ13b上の任意の画素数Cの被写体が検出された場合に、当該被写体の実際の大きさを特定することができる。ステップS100にて、被写体の実際の大きさを特定可能であると判定された場合には、ステップS110にて判定条件設定部P1aが検出窓設定部P1bと類似度算出部P1cと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fに各種の判定パラメータを指定する。そして、ステップS120において判定処理(第1判定手段)を実行する。
図5は、検出窓設定部P1bと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fが実行する一連の第1判定処理(ステップS120)のフローを模式的に示している。なお、本実施形態では、第1判定処理(ステップS120)と第1判定処理(ステップS150)と第3判定処理(ステップS180)が実行されるが、それぞれについて判定条件設定部P1aが異なる判定パラメータを指定することにより、性格の異なる判定結果を得ることができる。ここでは、まず第1判定処理(ステップS120)について説明する。ステップS110において、判定条件設定部P1は、検出窓設定部P1bに対してシフトさせる検出窓SWの大きさの範囲を10〜40cmに指定する。
これにより、人の顔として妥当な大きさの範囲に検出窓SWを設定することができる。なお、検出窓SWの大きさを10〜40cmと設定するためには、上述した(1)式の関係を利用する。前記の(1)式の被写体の大きさX[mm]に10〜40cm(100〜400mm)を代入することにより、当該大きさに対応する画像データ13bの画素数Cを特定することができる。さらに、画素数CをQVGAサイズに換算することにより、検出用画像データにおいて設定すべき検出窓SWの大きさを特定することができる。
検出窓設定部P1bは、指定された範囲内で検出窓SWの大きさをシフトさせつつ、検出窓SWの位置や角度を順次シフトすることにより、画像データ13bを縮小した検出用画像データにおいて漏れのない顔の検出を行わせる。検出窓設定部P1bが検出窓SWをシフトさせるごとに、類似度算出部P1cが検出窓SWに属する画像を取得し、当該画像から類似度評価関数13cに入力する複数の特徴量を取得する。そして、類似度評価関数13cに特徴量を入力することにより、ニューラルネットワークの出力値としての類似度(0〜1000)を算出する。この類似度は、現在の検出窓SWに属する画像が人の顔とどれだけ類似しているかを示す指標値である。
ステップS110において、判定条件設定部P1は、閾値判定部P1dに対して類似度の閾値を300と指定する。閾値判定部P1dは類似度評価関数13cから類似度を取得し、当該類似度が閾値以上であれば、さらに色判定部P1eとコントラスト判定部P1fによって人の顔として妥当な色およびコントラストを有しているか否かが判定される。一方、類似度が閾値より小さければ、当該検出窓SWについての色およびコントラストの判定をスキップさせ、検出窓設定部P1bが次の検出窓SWを設定する。ステップS120において、色判定部P1eは、検出窓SWに属する画素のRGB値を取得し、当該RGB値が肌色として妥当なものであるか否かを判定する。具体的には、RGB値をHSV値に変換し、当該HSV値がHSV空間における所定の色域に含まれるか否かを判定する。この色域は、予め判定条件設定部P1によって指定される。
図6は、色判定部P1eが判定を行う色域を示している。同図においては、HSV空間が示されており、HSV空間において所定の色相・彩度の範囲(色相面での楕円領域)を設定することにより、人の顔の肌色として妥当な色域を指定している。ステップS110においては判定条件設定部P1が肌色に対応した色域を指定しており、ステップS120の第1判定処理では検出窓SWに属する画素が厳密な肌色であるか否かが判定される。ここで、肌色と判定された場合には、当該検出窓SWについてコントラスト判定部P1fが引き続き判定を行う。一方、肌色と判定されなかった場合には、顔に類似しているが、顔色が正常でないとして、当該検出窓SWに第2オブジェクトとしての動物の顔または不審顔等が含まれると判定し、検出窓設定部P1bが次の検出窓SWを設定し、次の検出窓SWについての判定処理を行う。
コントラスト判定部P1fは、検出窓SWに属する画素のRGB値を取得し、当該RGB値に基づいて各画素の輝度Y値を算出する。そして、検出窓SWに属する全画素のRGBY値の最大値RmaxGmaxBmaxYmaxを検出し、全画素のRGBY値の最小値RminGminBminYminを検出する。そして、Rmax/Rmin,Gmax/Gmin,Bmax/Bmin,Ymax/Yminのうち最大のものをコントラスト値とする。ステップS110において、判定条件設定部P1は予め色判定部P1eに対してコントラスト値の閾値を設定する。
そのため、ステップS120では、検出窓SWに属する画像が高いコントラスト値を有しているか否かが判定される。そして、検出窓SWに属する画像が高いコントラスト値を有している場合には、当該検出窓SWに第1オブジェクトとしての顔が含まれると判定し、検出窓設定部P1bが次の検出窓SWを設定し、次の検出窓SWについての判定処理を行う。一方、検出窓SWに属する画像が高いコントラスト値を有していない場合には、当該検出窓SWに第2オブジェクトとしての動物の顔または不審顔等が含まれると判定し、検出窓設定部P1bが次の検出窓SWを設定し、次の検出窓SWについての判定処理を行う。すべての指定された大きさの範囲で、すべての位置および角度の検出窓SWについての設定/判定が完了すると、第1判定処理が完了する。
以上の第1判定処理により、検出窓設定部P1bが検出窓SWを順次シフトさせるごとに、各検出窓SWについての一連の判定処理が実行され、各検出窓SWについて、第1オブジェクトとしての人の顔が存在するか、第2オブジェクトとしての動物の顔または不審顔等が存在するか、いずれも存在しないかが判定される。ここで、第1オブジェクトとしての人の顔が存在すると判定されるための条件として、人の顔との類似度が高く、かつ、色が肌色を示し、かつ、コントラストが大きい要求されることとなる。また、第2オブジェクトとしての動物の顔または不審顔等が存在すると判定されるための条件として、人の顔との類似度が高いが色が肌色ではない、または、人の顔との類似度が高いがコントラストが小さいことが要求されることとなる。例えば、犬や猫などの場合、顔器官の配置がある程度類似するが、肌色でないことが多い。また、残像や反射による不審顔の場合、顔の形状はある程度類似するが、コントラストが得られないことが多い。
以上の第1判定処理が完了すると、ステップS120で第1または第2オブジェクトが検出されたすべての検出窓SWについての判定結果を取得し、当該判定結果を記述したテーブルを検出データ13dとしてHDD13に記憶する(ステップS130)。ステップS140においては、ステップS110と同様に判定条件設定部P1aが検出窓設定部P1bと類似度算出部P1cと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fに各種の判定パラメータを指定する。そして、ステップS150において第2判定処理(第2判定手段)を実行する。第2判定処理は、上述した第1判定処理と似た処理であるが、判定条件設定部P1aがステップS110とは異なる判定パラメータを設定するため、性質の異なる判定結果が得られることとなる。以下、ステップS150における第2判定処理について説明する。
図7は、検出窓設定部P1bと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fが実行する一連の第2判定処理(ステップS150)のフローを模式的に示している。判定条件設定部P1aは、検出窓設定部P1bに設定すべき検出窓SWの範囲を10cmより小さい、または、40cmより大きい範囲と指定する。すなわち、ステップS120の判定処理では検出を行わなかった大きさの検出窓SWを設定する。閾値判定部P1dに対しては、類似度の閾値を100と指定する。このようにすることにより、ステップS120よりも人の顔らしくないオブジェクトについても閾値判定部P1dを検出することができる。また、色判定部P1eとコントラスト判定部P1fに指定される色域の広さとコントラスト値の閾値は変わらないが、色判定部P1eとコントラスト判定部P1fの判定のいずれも否定的である場合に第2オブジェクトとしての動物の顔または不審顔等が存在すると判定する。
すなわち、人の顔と明らかに大きさが異なっているものの人の顔と画像的に類似している場合において、コントラストが低く、かつ、肌色を示さない場合には、動物の顔または不審顔等であると判定する。動物の顔や不審顔等は人間の顔に大きくは類似しないものの若干類似すると考えることができるため、類似度の閾値を100に緩和することにより、動物の顔や不審顔等を検出することができる。さらに、コントラストが高いものや、肌色を示すものを動物の顔や不審顔等として検出しないことにより、背景やポスターや衣服等に存在する人の顔の絵や写真を動物の顔や不審顔等として検出することが防止できる。なお、ここにおける肌色の判定は第1オブジェクトとしての人間の顔を検出することを目的としていないため、肌色の色域をステップS120の場合よりも大きくするようにしてもよい。
また、同様にコントラスト値の閾値をステップS120の場合よりも緩和するようにしてもよい。すべての位置および角度の検出窓SWの設定が完了すると第2判定処理(ステップS150)を完了させる。以上の第2判定処理が完了すると、ステップS150で第2オブジェクトが検出されたすべての検出窓SWについての判定結果を取得し、検出データ13dに判定結果を追記する(ステップS160)。
以上においては、被写体の実サイズに基づいて第1判定処理および第2判定処理を順次実行することにより、第1オブジェクトと第2オブジェクトを検出するようにしたが、ステップS100において被写体の実サイズが特定不可能であると判定された場合には、判定条件設定部P1aがステップS170において判定パラメータを設定し、第3判定処理(ステップS180)を実行する。第3判定処理は、上述した第1および第2判定処理と似た処理であるが、判定条件設定部P1aがステップS110,S140とは異なる判定パラメータを設定するため、性質の異なる判定結果が得られることとなる。以下、ステップS180における第3判定処理について説明する。
図8は、検出窓設定部P1bと閾値判定部P1dと色判定部P1eとコントラスト判定部P1fが実行する一連の第3判定処理(ステップS180)のフローを模式的に示している。判定条件設定部P1aは、検出窓設定部P1bに設定すべき検出窓SWの範囲を全範囲と指定する。閾値判定部P1dに対しては、類似度の閾値を500と指定する。このように、最も大きい閾値を設定することにより、厳密に人の顔のみを検出することができる。また、類似度が閾値を満足した場合に、コントラスト判定部P1fによる判定を行わせず、色判定部P1eによる判定のみを行わせるようにする。そして、検出窓SWに属する画像は、500以上の類似度を有し、かつ、色が肌色を示す場合には、当該検出窓SWに第1オブジェクトとしての人の顔が存在すると判定する。これ以外の場合には、いずれのオブジェクトも存在しないと判定する。すべての位置および角度の検出窓SWの設定が完了すると第3判定処理(ステップS180)を完了させる。以上の第3判定処理が完了すると、ステップS180で第1オブジェクトが検出されたすべての検出窓SWについての判定結果を取得し、当該判定結果を記述したテーブルを検出データ13dとしてHDD13に記憶する(ステップS190)。
以上説明したように、本実施形態では、第1判定処理(ステップS120)と第2判定処理(ステップS150)と第3判定処理(ステップS180)において、類似度に対してそれぞれ異なる閾値を300,100,500に設定する。最も高い類似度を要求する第3判定処理においては、第1オブジェクトとしての人の顔のみを正確に検出することができる。次に高い類似度を要求する第1判定処理においては、第1オブジェクトとしての人の顔および第2オブジェクトとしての動物の顔と不審顔等を検出する。最も類似度が緩和される第2判定処理は、第2オブジェクトとしての動物の顔と不審顔等を検出するために利用される。このように、複数の閾値(300,100,500)を使い分けることにより、人の顔のサンプルを用いて学習させた類似度評価関数13cのみを使用して、人の顔のみならず動物の顔や不審顔等も検出することができる。従って、動物の顔や不審顔等を検出するための類似度評価関数13cの準備をしなくても済む。
(3)画像処理・印刷処理
図9は、画像処理の流れを示している。まずステップS200において、UI部P2aがステップS130,S160,S190において記憶された検出データ13dを取得する。そして、ステップS210において、UI部P2aは、検出データ13dにおいて第2オブジェクトとしての動物の顔または不審顔等が存在すると判定されたと記述されている検出窓SWの位置と大きさと角度を検索する。そして、ステップS230では、プレビュー画面をディスプレイ60に表示させる。このプレビュー画面において、オブジェクト検出処理を行った画像データ13bが示す画像が所定の解像度で表示されるとともに、検索された検出窓SWの外縁を示す矩形枠を表示させる。
図9は、画像処理の流れを示している。まずステップS200において、UI部P2aがステップS130,S160,S190において記憶された検出データ13dを取得する。そして、ステップS210において、UI部P2aは、検出データ13dにおいて第2オブジェクトとしての動物の顔または不審顔等が存在すると判定されたと記述されている検出窓SWの位置と大きさと角度を検索する。そして、ステップS230では、プレビュー画面をディスプレイ60に表示させる。このプレビュー画面において、オブジェクト検出処理を行った画像データ13bが示す画像が所定の解像度で表示されるとともに、検索された検出窓SWの外縁を示す矩形枠を表示させる。
図10は、プレビュー画面の一例を示している。同図において、画像データ13bが示す画像として人と犬が撮影された画像が表示されている。撮影された人の顔と比較すると、犬の顔は10〜40cmの範囲内に入っているが、肌色を示さないため、第1判定処理の結果、第2オブジェクトと判定されている。そのため、犬の顔を含むように枠が表示されている。プレビュー画面の下方においては、枠で表示された領域に対する画像処理(第2画像処理)の指示を受け付けるチェックボックスが設けられており、マウス40によって、そのまま印刷と、強調処理と、ぼかし処理のいずれかを選択することが可能となっている。なお、第2オブジェクトとしての動物の顔または不審顔等が一つも検出されなかった場合には、これらのチェックボックスを無効化する。全体の領域に対する画像処理の指示を受け付けるチェックボックスも設けられており、そのまま印刷と、自動補正処理のいずれかを選択することが可能となっている。そして、いずれかにチェックが入れられた状態で、印刷実行ボタンをクリックすることが可能となっている。
ステップS230では、UI部P2aが印刷実行ボタンのクリックを受け付け、各チェックボックスの選択状況を取得する。自動補正処理がチェックされているか否か判定し(ステップS240)、チェックされている場合には、第1画像処理部P2bがステップS250にて検出データ13dを参照して第1オブジェクトが検出されたか否かを判定する。第1オブジェクトとしての人の顔が検出されていない場合、第1画像処理部P2bは、画像データ13bが示す画像全体の画素から偏りなくサンプリングを行い、サンプリングした画素が示す色や明るさに基づいて全体の補正パラメータを設定する(ステップS260)。具体的には、全体に的に暗い/明るい場合には、全体的に輝度を上方/下方修正するような補正パラメータを設定するようにしてもよい。
また、RGB値の分布バランスが悪い場合に、カラーバランスを補正(色かぶり補正)するような補正パラメータを設定する。一方、第1オブジェクトとしての人の顔が検出されている場合、第1画像処理部P2bは、当該顔が検出された検出窓SWに属する画素からサンプリングを行い、サンプリングした画素が示す色や明るさに基づいて全体の補正パラメータを設定する(ステップS270)。ここでも、明るさやカラーバランスの補正パラメータが設定される。ただし、検出された顔の領域に注目して補正パラメータが設定されるため、例えば逆光撮影時のように全体に明るく人の顔が暗いような場合にも、適正な補正パラメータを設定することができる。以上のように、補正パラメータが設定できると、ステップS280において、第1画像処理部(第1画像処理手段)P2bが画像データ13bの各画素を取得し、各画素のRGB値を順次補正していく。なお、自動補正処理がチェックされていない場合には、ステップS260〜280はスキップされる。
例えば明るく補正すべき旨の補正パラメータが設定された場合、所定階調(例えば、64階調)の補正後のRGB値をもとのRGB値よりも大きくなるような補正値を設定し、スプライン曲線によって全体(最大値と最小値と当該補正値)を結ぶ補正曲線を生成する。このような補正前後の関係を記述した補正用のLUT(ルックアップテーブル)を作成し、当該LUTを参照して補正後のRGB値に変換することにより自動補正処理を行うことができる。人の顔が検出されている場合、ステップS270において顔の明るさに基づいて補正曲線が設定されるため、顔の明るさが適切な補正結果を得ることができる。ステップS280では、画像データ13bを構成するすべての画素を順次選択し、上述した補正曲線を適用する。それにより、画像データ13bが示す画像全体が補正される。
次のステップS290においては、枠で表示された領域について、そのまま印刷と、強調処理と、ぼかし処理のいずれが選択されているかを第2画像処理部P2cが判定する。そのまま印刷が選択されている場合(またはチェックボックスを無効化した場合)には、画像処理は終了する。一方、強調処理とぼかし処理のいずれかが選択された場合には、ステップS300,310において、第2オブジェクトとしての動物の顔または不審顔等について指定された画像処理(第2画像処理手段)を実行する。例えば、アンシャープマスクを用いて、強調処理とぼかし処理を行ってもよい。ステップS300,310では、画像データ13bを構成する画素のうち第2オブジェクトとしての動物の顔または不審顔等が検出された検出窓SWに属する画素のみを順次補正する。これにより、画像のうち動物の顔または不審顔等が存在する部分のみを補正することができる。第2画像処理が完了すると、次の印刷処理へ移行する。
上述したように第2オブジェクトは、人の顔にはある程度類似しているが、大きさや色やコントラストが通常の人の顔とは異なるものであり、代表的な例として動物の顔または不審顔等が当てはまる。しかしながら、第2オブジェクトとして検出されたものが、具体的に何を示しているかは上述した第1および第2判定処理によって特定することができない。例えば、第2オブジェクトとして検出されたものがペット等の動物の顔である場合にはユーザーは強調することを望むと予想されるが、第2オブジェクトとして検出されたものが不審顔等の一見して得体の知れないものである場合には心霊写真等と誤解されるのを防止するためにユーザーはぼかすことを望むと予想される。むろん、何も補正をすることなく印刷することを望むことも考えられる。本実施形態のように、第2オブジェクトが存在すると判定された領域に枠を表示させつつ画像処理の指示をユーザーから受け付けることにより、実際の第2オブジェクトに適した第2画像処理を実行させることができる。
図11は、印刷処理の流れを示している。ステップS400では、サイズ変換部P3aが画像処理後の画像データ13bを印刷サイズに対応するようにサイズ変換する。ステップS410において、色変換部P3bは、各画素の色がRGB値で表現された画像データ13bをプリンタ20が使用するCMYKインクのインク量の画像データ13bに色変換する。例えば、RGB色空間とCMYK色空間との対応関係を規定した色変換LUTを参照して色変換を行う。ステップS420では、ハーフトーン処理部P3cが画像データ13bに対して誤差拡散法やディザ法等のハーフトーン処理を行うことにより、各画素についてインクを吐出させるか否かを特定するハーフトーンデータに変換する。
また、プリンタ20が複数の大きさのインク滴を吐出する場合には、その大きさも特定するようなハーフトーンデータに変換してもよい。ステップS430においては、ラスタライズ部P3dがハーフトーンデータを各主走査パスとインクを吐出するノズルに割り振るラスタライズ処理を行うことにより印刷データを生成する。さらに、印刷用紙や印刷解像度を指定するヘッダを印刷データに添付することにより、プリンタ20を制御可能な印刷データを生成する。ステップS440では、印刷データがUSBI/F14を介してプリンタ20に出力され、同プリンタ20にて同印刷データに基づく印刷が実際に行われる。
(4)変形例
以上においては、コンピュータ10が本発明にかかるオブジェクト検出や画像処理を実行するものを例示したが、コンピュータ10の機能をプリンタ20が備えるハードウェア・ソフトウェア資源によって実行させるようにしてもよい。むろん、画像データ13bに対するオブジェクト検出や画像処理は画像入力した段階で行ってもよく、例えばデジタルスチルカメラやスキャナ等において上述した処理を実行するようにしてもよい。上述した実施形態では、被写体の大きさが特定可能であるか否かによって、第1判定処理,第2判定処理を実行させるか、第3判定処理を実行させるかを切り換えるようにしたが、ユーザーの選択によって切り換えるようにしてもよい。
以上においては、コンピュータ10が本発明にかかるオブジェクト検出や画像処理を実行するものを例示したが、コンピュータ10の機能をプリンタ20が備えるハードウェア・ソフトウェア資源によって実行させるようにしてもよい。むろん、画像データ13bに対するオブジェクト検出や画像処理は画像入力した段階で行ってもよく、例えばデジタルスチルカメラやスキャナ等において上述した処理を実行するようにしてもよい。上述した実施形態では、被写体の大きさが特定可能であるか否かによって、第1判定処理,第2判定処理を実行させるか、第3判定処理を実行させるかを切り換えるようにしたが、ユーザーの選択によって切り換えるようにしてもよい。
10…コンピュータ,18…バス,11…CPU,12…RAM,13…HDD,13a…プログラムデータ,13b…画像データ,14…USBI/F,15…入力機器I/F,16…ビデオI/F,20…プリンタ,30…デジタルスチルカメラ,40…マウス,50…キーボード,60…ディスプレイ,P…プリンタドライバ,P1…オブジェクト検出部,P1a…判定条件設定部,P1b…検出窓設定部,P1c…類似度算出部,P1d…閾値判定部,P1e…色判定部,P1f…コントラスト判定部,P2…画像処理部,P2a…UI部,P2b…第1画像処理部,P2c…第2画像処理部,P3…印刷実行部,P3a…サイズ変換部,P3b…色変換部,P3c…ハーフトーン処理部,P3d…ラスタライズ部
Claims (8)
- 画像データが示す画像からオブジェクトを検出するオブジェクト検出方法であって、
前記画像における複数の検出領域について所定の第1オブジェクトとの類似度を取得し、
少なくとも前記類似度が第1閾値以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定し、
少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値以上である場合、前記検出領域に前記第2オブジェクトが存在すると判定することを特徴とするオブジェクト検出方法。 - 前記類似度が前記第1閾値以上であり、かつ、前記検出領域の大きさが前記第1オブジェクトの大きさとして妥当である場合には、前記検出領域に前記第1オブジェクトが存在すると判定することを特徴とする請求項1に記載のオブジェクト検出方法。
- 前記類似度が前記第1閾値以上であり、かつ、前記検出領域における色またはコントラストが前記第1オブジェクトの色またはコントラストとして妥当である場合には、前記検出領域に前記第1オブジェクトが存在すると判定することを特徴とする請求項1または請求項2に記載のオブジェクト検出方法。
- 前記類似度が前記第2閾値以上であり、さらに、前記検出領域における色またはコントラストが前記第1オブジェクトの色またはコントラストとして妥当でない場合には、前記検出領域に前記第2オブジェクトが存在すると判定することを特徴とする請求項1から請求項3のいずれか一項に記載のオブジェクト検出方法。
- 前記第1オブジェクトは人の顔であり、前記第2オブジェクトは人の顔に類似するオブジェクトであることを特徴とする請求項1から請求項4のいずれか一項に記載のオブジェクト検出方法。
- 画像データが示す画像からオブジェクトを検出するオブジェクト検出装置であって、
前記画像における複数の検出領域について所定の第1オブジェクトとの類似度を取得する類似度取得手段と、
少なくとも前記類似度が第1閾値以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定する第1判定手段と、
少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値以上である場合、前記検出領域に前記第2オブジェクトが存在すると判定する第2判定手段とを具備することを特徴とするオブジェクト検出装置。 - 画像データが示す画像からオブジェクトを検出する機能をコンピュータに実行させるためのコンピュータ読み取り可能なオブジェクト検出プログラムであって、
前記画像における複数の検出領域について所定の第1オブジェクトとの類似度を取得する類似度取得機能と、
少なくとも前記類似度が第1閾値以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定する第1判定機能と、
少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値以上である場合、前記検出領域に前記第2オブジェクトが存在すると判定する第2判定機能とをコンピュータに実行させることを特徴とするコンピュータ読み取り可能なオブジェクト検出プログラム。 - 画像データが示す画像を印刷する印刷装置であって、
前記画像における複数の検出領域について所定の第1オブジェクトとの類似度を取得する類似度取得手段と、
少なくとも前記類似度が第1閾値以上である場合、前記検出領域に前記第1オブジェクトが存在すると判定する第1判定手段と、
少なくとも前記類似度が前記第1閾値よりも小さい所定の第2閾値以上である場合、前記検出領域に前記第2オブジェクトが存在すると判定する第2判定手段と、
検出された前記第1オブジェクトまたは前記第2オブジェクトに基づいて前記画像データに対する画像処理を実行する画像処理手段と、
前記画像データの印刷を実行する印刷実行手段とを具備することを特徴とする印刷装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008161004A JP2010003091A (ja) | 2008-06-19 | 2008-06-19 | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008161004A JP2010003091A (ja) | 2008-06-19 | 2008-06-19 | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010003091A true JP2010003091A (ja) | 2010-01-07 |
Family
ID=41584764
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008161004A Pending JP2010003091A (ja) | 2008-06-19 | 2008-06-19 | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010003091A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012090068A (ja) * | 2010-10-19 | 2012-05-10 | Canon Marketing Japan Inc | 撮像装置、制御方法及びプログラム |
| CN110651300A (zh) * | 2017-07-14 | 2020-01-03 | 欧姆龙株式会社 | 物体检测装置、物体检测方法、以及程序 |
| US20220012505A1 (en) * | 2019-03-28 | 2022-01-13 | Denso Corporation | Object detection device |
-
2008
- 2008-06-19 JP JP2008161004A patent/JP2010003091A/ja active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012090068A (ja) * | 2010-10-19 | 2012-05-10 | Canon Marketing Japan Inc | 撮像装置、制御方法及びプログラム |
| CN110651300A (zh) * | 2017-07-14 | 2020-01-03 | 欧姆龙株式会社 | 物体检测装置、物体检测方法、以及程序 |
| CN110651300B (zh) * | 2017-07-14 | 2023-09-12 | 欧姆龙株式会社 | 物体检测装置、物体检测方法、以及程序 |
| US20220012505A1 (en) * | 2019-03-28 | 2022-01-13 | Denso Corporation | Object detection device |
| US11961306B2 (en) * | 2019-03-28 | 2024-04-16 | Denso Corporation | Object detection device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4978378B2 (ja) | 画像処理装置 | |
| US20090027732A1 (en) | Image processing apparatus, image processing method, and computer program | |
| JP2005293555A (ja) | 画像における肌領域の特定 | |
| JP2005310068A (ja) | 白目補正方法及びこの方法を実施する装置 | |
| KR102311367B1 (ko) | 화상 처리 장치, 화상 처리 방법, 및 프로그램 | |
| US20090316168A1 (en) | Image processing apparatus, image processing method, and image processing program | |
| CN105960658A (zh) | 图像处理装置、摄像装置、图像处理方法以及可通过计算机处理的非暂时性的存储介质 | |
| JP2008113446A (ja) | 画像処理装置、画像処理プログラムおよび記録媒体 | |
| JP2018056873A (ja) | 画像処理装置、および、コンピュータプログラム | |
| EP1345413A2 (en) | Image processor, host unit for image processing, image processing method, and computer products | |
| JP5411433B2 (ja) | 映像の属性に基づいた映像分類方法、システムおよび保存媒体 | |
| JP4529888B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
| JP2009070099A (ja) | 画像処理装置、画像処理方法、プログラムおよび記録媒体 | |
| JP3925476B2 (ja) | 撮影場面の判定および撮影場面に応じた画像処理 | |
| JP2010003091A (ja) | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 | |
| JP3950551B2 (ja) | 画像処理方法、装置および記録媒体 | |
| JP4492706B2 (ja) | 撮影場面の判定および撮影場面に応じた画像処理 | |
| JP5067224B2 (ja) | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 | |
| JP2010004300A (ja) | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 | |
| JP2009037625A (ja) | 被写体情報を用いた画像処理 | |
| JP2021106056A (ja) | 画像処理装置及び画像処理方法 | |
| JP5975945B2 (ja) | 画像処理装置 | |
| JP4219577B2 (ja) | 画像処理装置と画像出力装置と画像処理方法及び記憶媒体 | |
| JP2003219180A (ja) | 画像処理方法、画像処理装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
| JP4320225B2 (ja) | 画像データに対する画像処理 |