JP2018137642A - Image processing system, image processing method - Google Patents
Image processing system, image processing method Download PDFInfo
- Publication number
- JP2018137642A JP2018137642A JP2017031378A JP2017031378A JP2018137642A JP 2018137642 A JP2018137642 A JP 2018137642A JP 2017031378 A JP2017031378 A JP 2017031378A JP 2017031378 A JP2017031378 A JP 2017031378A JP 2018137642 A JP2018137642 A JP 2018137642A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- color gamut
- input
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、色域マッピング技術に関するものである。 The present invention relates to a color gamut mapping technique.
従来、コンピュータやコンピュータネットワークに接続されたデジタルカメラ、スキャナ、モニタ、プリンタといった入出力デバイス間の色情報を管理する技術として、色管理システム(カラーマネージメントシステム)が知られている。色管理システムでは、デバイス用のプロファイルを利用して、入出力デバイス間のカラーマッチング、色域外警告、出力プレビュー(ソフトプルーフ)といった色管理が行われている。デバイス用のプロファイルには、デバイスの各種デバイス特性が格納されている。ここで、各種デバイス特性には、デバイス依存色とデバイス非依存色との関係、デバイス固有の色域情報、デバイス非依存色をデバイス固有の色域内のデバイス非依存色へマッピングするための色域マッピングなどが含まれている。 2. Description of the Related Art Conventionally, a color management system (color management system) is known as a technique for managing color information between input / output devices such as a digital camera, scanner, monitor, and printer connected to a computer or a computer network. In the color management system, color management such as color matching between input / output devices, out-of-gamut warning, and output preview (soft proof) is performed using a device profile. The device profile stores various device characteristics of the device. Here, various device characteristics include the relationship between device-dependent colors and device-independent colors, device-specific color gamut information, and the color gamut for mapping device-independent colors to device-independent colors within the device-specific color gamut. Mapping etc. are included.
入出力デバイス間のカラーマッチングを行うためには、入力側デバイスにおける色の見えと出力側デバイスにおける色の見えとを一致させる必要がある。図1は、カラーアピアランスモデルにおける人間の視野の定義を示す図である。 In order to perform color matching between input / output devices, it is necessary to match the color appearance on the input side device with the color appearance on the output side device. FIG. 1 is a diagram showing the definition of the human visual field in the color appearance model.
カラーアピアランスモデルは、視野角2°の色票が与えられた場合に、人間の色の見えを正しく予測するように設計されている。一般に、CIE1931測色標準観察者は、1°から4°の視野角の範囲で適用可能であり、この視野角領域を2°以内の刺激領域61、4°以内の隣接領域62に区別する。そして、隣接領域62の外側の視野角4°から10°までの領域を背景領域63と呼び、背景領域63の周囲の領域を周囲領域64と呼ぶ。さらに、刺激領域61、隣接領域62、背景領域63および周囲領域64をすべて含む視界領域を順応領域と呼ぶ。代表的なカラーアピアランスモデルにCIECAM02があり、このモデルは、以下の観察条件パラメータを設定することができる。 The color appearance model is designed to correctly predict human color appearance when given a color chart with a viewing angle of 2 °. In general, the CIE 1931 colorimetric standard observer is applicable in the range of 1 ° to 4 ° viewing angles, and distinguishes this viewing angle region into stimulation regions 61 within 2 ° and adjacent regions 62 within 4 °. An area outside the adjacent area 62 with a viewing angle of 4 ° to 10 ° is called a background area 63, and an area around the background area 63 is called a surrounding area 64. Furthermore, a visual field area that includes all of the stimulation area 61, the adjacent area 62, the background area 63, and the surrounding area 64 is referred to as an adaptation area. A typical color appearance model is CIECAM02, and this model can set the following observation condition parameters.
LA:順応領域の絶対輝度[cd/m2](通常、順応領域における白色点の絶対輝度Lwの20%)
XYZ:色票の相対XYZ値、
XwYwZw:白色点の相対XYZ値、
Yb:背景領域の相対輝度、
周囲条件:平均的(Average Surround)、ほの暗い(Dim Surround)、暗い(Dark Surround)
なお、周囲条件は、周囲領域における相対輝度が、順応領域における白色点の20%以上ならばAverage、20%未満ならばDim、殆ど0%ならばDarkになる。カラーアピアランスモデルが単色の色票を利用した実験結果から導出されたことから、複数の色が混在する画像に対して、どのような観察条件パラメータを適用すればよいかは確立されていない。ニュートラルなグレーが白色点の輝度の20%であることから、順応領域における白色点の絶対輝度Lwの20%を背景領域の相対輝度Ybとして設定するのが一般的である。
L A : absolute luminance [cd / m 2 ] of the adaptation region (usually 20% of the absolute luminance L w of the white point in the adaptation region)
XYZ: relative XYZ value of the color chart,
X w Y w Z w: relative XYZ values of a white point,
Y b : relative luminance of the background area,
Ambient conditions: Average Surround, Dim Surround, Dark Surround
The ambient condition is Average if the relative luminance in the surrounding region is 20% or more of the white point in the adaptation region, Dim if it is less than 20%, and Dark if it is almost 0%. Since the color appearance model is derived from the experimental results using a single color chart, it has not been established what observation condition parameters should be applied to an image in which a plurality of colors are mixed. Since neutral gray is 20% of the brightness of the white point, 20% of the absolute brightness L w of the white point in the adaptation area is generally set as the relative brightness Y b of the background area.
また、画像にカラーアピアランスモデルを適用する場合、全画素に一つの観察条件パラメータを適用するのが一般的である。しかし、全画素に一つの観察条件パラメータを適用すれば、ラスタライズ後の画像上で表現される単色と背景の視覚効果をカラーマッチング結果に反映させることができないという課題も残されている。 In addition, when a color appearance model is applied to an image, one observation condition parameter is generally applied to all pixels. However, if one observation condition parameter is applied to all the pixels, there remains a problem that the visual effect of the single color and the background expressed on the rasterized image cannot be reflected in the color matching result.
言い換えれば、従来では、入力側の画像解像度および観察距離と出力側の画像解像度および観察距離とを考慮した空間的カラーマッチングを行っていたとは言えない。このような課題に対して、入力画像の解像度および観察距離と出力画像の解像度および観察距離とを考慮した空間的カラーマッチングが提案されている(特許文献1)。 In other words, conventionally, it cannot be said that spatial color matching is performed in consideration of the image resolution and observation distance on the input side and the image resolution and observation distance on the output side. For such a problem, spatial color matching in which the resolution and observation distance of the input image and the resolution and observation distance of the output image are considered has been proposed (Patent Document 1).
一方で、ネットワーク上の複数デバイスを用いて共通の色再現を行うためには、複数デバイスの共通色域が一般的に利用されている。共通色域は、共通な色再現の対象となるデバイス数が増えるほど狭くなる傾向がある。このため、狭い色域に対してもオリジナル画像と同等な色再現を実現できるような色域マッピングが必要となってくる。狭い色域ではオリジナル画像と同じ色を全て再現できないため、何らかの情報を犠牲にする必要がある。ICC(International Color Consortium)プロファイルでは、「知覚的(Perceptual)」、「彩度(Saturation)」、「相対的な色域を維持(Relative Colorimetric)」、「絶対的な色域を維持(Absolute Colorimetric)」のような複数のレンダリング・インテントに基づいた色域マッピングを格納し、ユーザが用途に応じて選択された色域マッピングが利用できるようになっている。色域マッピングの方法としては、色相を固定し、明度を優先(彩度を犠牲)してマッピングする技術や、彩度を優先(明度を犠牲)してマッピングするような技術が知られている。 On the other hand, in order to perform common color reproduction using a plurality of devices on the network, a common color gamut of the plurality of devices is generally used. The common color gamut tends to become narrower as the number of devices subject to common color reproduction increases. For this reason, a color gamut mapping that can realize a color reproduction equivalent to that of the original image even in a narrow color gamut is required. In a narrow color gamut, it is not possible to reproduce all the same colors as the original image, so some information must be sacrificed. In the ICC (International Color Consortium) profile, “Perceptual”, “Saturation”, “Relative Colorimetric”, “Absolute Colorimetric” The color gamut mapping based on a plurality of rendering intents such as “)” is stored, and the color gamut mapping selected by the user according to the application can be used. Known gamut mapping methods include a technique for fixing hue and mapping with priority on brightness (sacrificing saturation) and a technique for mapping with priority on saturation (sacrificing brightness). .
また、狭い色域に対しては、忠実性と階調性とを両立した色再現が困難なため、色域外の入力画像の色分布に応じてマッピング境界を動的に制御するような技術も知られている(特許文献2)。 In addition, for narrow color gamuts, it is difficult to reproduce colors that achieve both fidelity and gradation, so there is also a technology that dynamically controls the mapping boundary according to the color distribution of the input image outside the color gamut. Known (Patent Document 2).
更に、空間周波数特性を考慮した色域マッピングとして、「変換前後の差分画像に対して明度成分、色味成分で異なるフィルタリング処理を施した画像全体の2乗ノルム」と「変換前後の色差による色域内外判定結果」の和によって定義された評価関数を最小化するように色域マッピングを最適化する技術も知られている(特許文献3)。 Furthermore, as color gamut mapping considering spatial frequency characteristics, “the square norm of the whole image obtained by applying different filtering processing to the difference image before and after the conversion with the brightness component and the color component” and “the color due to the color difference before and after the conversion” There is also known a technique for optimizing color gamut mapping so as to minimize an evaluation function defined by the sum of “inside / outside determination results” (Patent Document 3).
しかしながら、従来技術に基づいた色域マッピングでは、空間周波数特性(周辺画素の影響)を考慮していないものが多く、注目画素の目立つ度合(近傍に比べて目立つ度合)が色域マッピング前後の画像で異なるという課題があった。 However, color gamut mapping based on the prior art often does not consider spatial frequency characteristics (influence of surrounding pixels), and the degree of noticeable pixel noticeability (degree of noticeability compared to the vicinity) is an image before and after color gamut mapping. There was a problem of being different.
また、空間周波数特性が考慮されていたとしても、入力側の観察条件と出力側の観察条件は考慮されていないという課題があった。また、差分画像に対して空間フィルタを2回かけ、しかも最終的な色域マッピング画像を得るために多くの繰り返し演算を必要とするという課題もあった。 Moreover, even if the spatial frequency characteristics are taken into account, there is a problem that the observation conditions on the input side and the observation conditions on the output side are not considered. There is also a problem that a spatial filter is applied to the difference image twice and many repetitive operations are required to obtain a final color gamut mapping image.
本発明は、このような問題に鑑みてなされたものであり、入力側の観察条件と出力側の観察条件とを考慮し、画像中の全ての位置において視覚的に目立つ度合の差が小さくなるように、且つ高速で実用的な色域マッピングを実現するための技術を提供する。 The present invention has been made in view of such problems, and takes into consideration the observation conditions on the input side and the observation conditions on the output side, and the difference in the degree of visually conspicuousness is reduced at all positions in the image. Thus, a technique for realizing a practical color gamut mapping at high speed is provided.
本発明の一様態は、入力側の色域を出力側の色域に色域マッピングする画像処理装置であって、入力画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第1の顕著性マップを、前記入力側の観察条件に基づいて生成する第1の生成手段と、複数の色域マッピングのそれぞれを前記入力画像に対して行うことで得られる複数の画像のそれぞれについて、該画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第2の顕著性マップを、前記出力側の観察条件に基づいて生成する第2の生成手段と、前記第1の顕著性マップと前記第2の顕著性マップとの差分値と、前記複数の画像と、に基づいて、前記入力画像に対する色域マッピング後の画像を生成する第3の生成手段とを備えることを特徴とする。 One aspect of the present invention is an image processing apparatus that performs color gamut mapping from an input-side color gamut to an output-side color gamut, and is a first that maps the degree to which a pixel of interest in an input image is conspicuous compared to neighboring pixels. For each of a plurality of images obtained by performing each of a plurality of color gamut mappings on the input image, and a first generation unit that generates a saliency map of the input side based on the observation condition on the input side, Second generation means for generating a second saliency map in which the degree of noticeable pixels in the image is conspicuous compared to neighboring pixels is generated based on the output-side observation conditions; and the first saliency And a third generation unit configured to generate an image after color gamut mapping for the input image based on a difference value between the map and the second saliency map and the plurality of images. To do.
本発明の構成によれば、入力側の観察条件と出力側の観察条件とを考慮し、画像中の全ての位置において視覚的に目立つ度合の差が小さくなるように、且つ高速で実用的な色域マッピングを実現することができる。 According to the configuration of the present invention, in consideration of the observation conditions on the input side and the observation conditions on the output side, the difference in the degree of visually conspicuousness at all positions in the image is reduced, and it is practical at high speed. Color gamut mapping can be realized.
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
先ず、本実施形態に係る画像処理装置のハードウェア構成例及びその周辺機器について、図2のブロック図を用いて説明する。なお、図2に示した構成は、以下に説明する色管理処理を実現可能な構成の一例として示したものであって、画像処理装置のハードウェア構成例は、図2に示した構成に限らない。画像処理装置は、例えば、一般のPC(パーソナルコンピュータ)やタブレット端末装置である。
[First Embodiment]
First, a hardware configuration example of the image processing apparatus according to the present embodiment and its peripheral devices will be described with reference to the block diagram of FIG. The configuration shown in FIG. 2 is shown as an example of a configuration capable of realizing the color management processing described below, and the hardware configuration example of the image processing apparatus is limited to the configuration shown in FIG. Absent. The image processing device is, for example, a general PC (personal computer) or a tablet terminal device.
CPU101は、メインメモリ102に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU101は、画像処理装置全体の動作制御を行うと共に、以下に説明する色管理処理を含む各処理を実行若しくは制御する。CPU101は、PCI (peripheral component interconnect)バスなどのシステムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD(ハードディスクドライブ)105にアクセスする。また、CPU101は、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク115にアクセスする。また、CPU101は、シリアルバスインタフェイス(I/F)108とUSBやIEEE1394などのシリアルバス110に接続された各種のデバイスと通信を行う。これによりCPU101は、例えば、色管理処理対象の画像データを、カードリーダを含む画像入力デバイス113から取得したり、画像データをプリンタ109に出力したりして、例えばユーザが指示する画像を印刷する。なお、色管理処理対象の画像データの取得元は特定の取得元に限らず、HDD105やネットワーク115上のサーバから読み出してもよい。 The CPU 101 executes processing using computer programs and data stored in the main memory 102. Thus, the CPU 101 controls the operation of the entire image processing apparatus and executes or controls each process including a color management process described below. The CPU 101 accesses an HDD (hard disk drive) 105 via a system bus 114 such as a PCI (peripheral component interconnect) bus and a serial ATA interface (SATA I / F) 103. The CPU 101 accesses a network 115 such as a local area network (LAN) via the network I / F 104. The CPU 101 communicates with various devices connected to a serial bus interface (I / F) 108 and a serial bus 110 such as USB or IEEE1394. As a result, the CPU 101 acquires, for example, image data subject to color management processing from the image input device 113 including a card reader or outputs the image data to the printer 109 to print an image instructed by the user, for example. . Note that the acquisition source of the image data subject to color management processing is not limited to a specific acquisition source, but may be read from a server on the HDD 105 or the network 115.
また、CPU101は、様々な処理結果を、グラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をシリアルバス110に接続されたキーボード111、マウス112を介して入力する。 In addition, the CPU 101 displays various processing results on the monitor 107 via the graphic accelerator 106 and inputs user instructions via the keyboard 111 and the mouse 112 connected to the serial bus 110.
メインメモリ102は、RAMやROMなどのメモリ装置により構成されており、コンピュータプログラムやデータを一時的に格納するためのエリア、CPU101が各種の処理を実行する際に用いるワークエリア、等を提供することができる。 The main memory 102 includes a memory device such as a RAM or a ROM, and provides an area for temporarily storing computer programs and data, a work area used when the CPU 101 executes various processes, and the like. be able to.
HDD105には、OS(オペレーティングシステム)や、以下に説明する色管理処理を含む各処理をCPU101に実行させるためのコンピュータプログラムやデータが保存されている。HDD105に保存されているデータには、以下の説明において既知のデータとして説明するものや、色管理処理の対象となる画像データなどが含まれている。HDD105に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜メインメモリ102内のRAMにロードされ、CPU101による処理対象となる。 The HDD 105 stores an OS (Operating System) and computer programs and data for causing the CPU 101 to execute each process including a color management process described below. The data stored in the HDD 105 includes data described as known data in the following description, image data to be subjected to color management processing, and the like. Computer programs and data stored in the HDD 105 are appropriately loaded into the RAM in the main memory 102 under the control of the CPU 101 and are processed by the CPU 101.
モニタ107はCRTや液晶画面などにより構成されており、CPU101による処理結果を画像や文字などでもって表示することができる。プリンタ109は、画像や文字を印刷可能な画像出力デバイスの一例である。然るに、プリンタ109の代わりに、例えば、複合機などの画像出力デバイスをシリアルバス110に接続するようにしても良い。 The monitor 107 is composed of a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 101 with an image or text. The printer 109 is an example of an image output device capable of printing images and characters. However, instead of the printer 109, for example, an image output device such as a multifunction peripheral may be connected to the serial bus 110.
画像入力デバイス113は、画像処理装置に画像データを入力するためのもので、上記のカードリーダであっても良いし、例えば、画像を撮像する撮像装置であっても良い。 The image input device 113 is for inputting image data to the image processing apparatus, and may be the above-described card reader, or may be an imaging apparatus that captures an image, for example.
キーボード111、マウス112は、ユーザインターフェースの一例である。なお、ユーザが操作することで各種の指示をCPU101に対して入力することができるユーザインターフェースであれば、キーボード111、マウス112に加えて若しくは代えて他のユーザインターフェースを採用しても良い。 The keyboard 111 and the mouse 112 are examples of user interfaces. Note that other user interfaces may be employed in addition to or instead of the keyboard 111 and the mouse 112 as long as the user interface allows the user to input various instructions to the CPU 101.
[ネットワーク環境におけるカラーマッチング処理の構成]
複数のデバイスが接続されたネットワーク環境におけるカラーマッチング処理の構成について、図3を用いて説明する。デバイス用のプロファイルには、変換ベースのICC(International Color Consortium)プロファイルや測色値ベースのWCS(Windows Color System)プロファイルなどが存在する。以下では簡単化のためにICCプロファイルを例として説明する。
[Color matching configuration in network environment]
A configuration of color matching processing in a network environment in which a plurality of devices are connected will be described with reference to FIG. Device profiles include conversion-based ICC (International Color Consortium) profiles and colorimetric-value-based WCS (Windows Color System) profiles. Hereinafter, an ICC profile will be described as an example for simplification.
図3(a)は、各デバイスに対して個別に最適化されたプロファイルを適用した例である。デジタルカメラ201、デジタルビデオカメラ202、スキャナ203といった入力デバイスによって取得された画像はそれぞれ、対応する入力デバイス用のプロファイル204〜206によってCIE XYZやCIE Labといったデバイス非依存の色空間へ変換される。次に、デバイス非依存の色空間へ変換された画像は、作業色空間用のプロファイル207を用いて作業色空間色域内へマッピングされ、作業色空間へ変換される。そして、ユーザは作業色空間上の画像に対して画像編集を行ったり、編集済みの画像を保存したりする。更に、作業色空間上の画像は、作業色空間用のプロファイル207と各モニタデバイス用のプロファイル212〜215を用いて各モニタ色域内へマッピングされ、各ユーザのモニタ208〜211へ表示される。同様に、作業色空間上の画像は、作業用色空間用のプロファイル207とプロジェクタデバイス用のプロファイル220を用いてプロジェクタ色域内へマッピングされ、プロジェクタ216へ出力される。同様に、作業色空間上の画像は、作業用色空間用のプロファイル207と大判印刷デバイス用のプロファイル221を用いて大判印刷デバイス色域内へマッピングされ、大判印刷デバイス217へ出力される。同様に、作業色空間上の画像は、作業用色空間用のプロファイル207と電子写真デバイス用のプロファイル222を用いて電子写真デバイス色域内へマッピングされ、電子写真デバイス218へ出力される。同様に、作業色空間上の画像は、作業用色空間用のプロファイル207とインクジェットデバイス用のプロファイル223を用いてインクジェットデバイス色域内へマッピングされ、インクジェットデバイス219へ出力される。 FIG. 3A shows an example in which a profile optimized individually for each device is applied. Images acquired by input devices such as the digital camera 201, the digital video camera 202, and the scanner 203 are converted into device-independent color spaces such as CIE XYZ and CIE Lab, respectively, by corresponding profiles 204 to 206 for the input device. Next, the image converted into the device-independent color space is mapped into the work color space color gamut using the work color space profile 207 and converted into the work color space. Then, the user edits the image on the work color space or saves the edited image. Further, the image on the work color space is mapped into each monitor color gamut using the profile 207 for the work color space and the profiles 212 to 215 for each monitor device, and is displayed on the monitors 208 to 211 of each user. Similarly, the image on the working color space is mapped into the projector color gamut using the working color space profile 207 and the projector device profile 220, and is output to the projector 216. Similarly, the image on the working color space is mapped into the large format printing device color gamut using the profile 207 for the working color space and the profile 221 for the large format printing device, and is output to the large format printing device 217. Similarly, the image on the working color space is mapped into the electrophotographic device color gamut using the working color space profile 207 and the electrophotographic device profile 222, and is output to the electrophotographic device 218. Similarly, the image on the working color space is mapped into the ink jet device color gamut using the working color space profile 207 and the ink jet device profile 223, and is output to the ink jet device 219.
ここで、上記の各デバイス(モニタ208〜211、プロジェクタ216、大判印刷デバイス217、電子写真デバイス218、インクジェットデバイス219)における色再現は、プロファイル212〜215、220〜223が対応するデバイスに対して個別に最適化されているため、各デバイスにとって最適な色再現となる。しかし、各デバイスには色域の違いや色域マッピングの違い等があるため、全て異なった色再現となる。 Here, color reproduction in each of the above devices (the monitors 208 to 211, the projector 216, the large format printing device 217, the electrophotographic device 218, and the ink jet device 219) is performed on the devices corresponding to the profiles 212 to 215 and 220 to 223. Since it is optimized individually, the color reproduction is optimal for each device. However, since each device has a difference in color gamut, a difference in color gamut mapping, and the like, all color reproduction is different.
図3(b)は、個別に最適化されたプロファイルを適用する前に表示デバイス、投影デバイス、印刷デバイスといった同種のデバイスに対して共通表示色域マッピング224、共通投影色域マッピング225、共通印刷色域マッピング226を適用した例である。 FIG. 3B shows a common display color gamut mapping 224, a common projection color gamut mapping 225, and a common print for the same type of device such as a display device, a projection device, and a printing device before applying individually optimized profiles. This is an example in which the color gamut mapping 226 is applied.
入力デバイスによって取得された画像を作業色空間上の画像へ変換する方法は図3(a)と同じであるため、説明は省略する。作業色空間上の画像は、作業色空間用のプロファイル207によってデバイス非依存な色空間へ変換され、特開平10-79865号公報に示されるような公知の技術によって作成された共通表示色域マッピング224を用いてモニタ208〜211の共通表示色域内へマッピングされる。更に、共通表示色域内へマッピングされた画像は各モニタデバイス用のプロファイル212〜215を用いてマッピングされ、各ユーザのモニタ208〜211へ表示される。同様に、作業色空間上の画像は、作業色空間用のプロファイル207、共通投影色域マッピング225、プロジェクタデバイス用のプロファイル220を用いてマッピングされて、プロジェクタ216へ出力される。同様に、作業色空間上の画像は、作業色空間用のプロファイル207、共通印刷色域マッピング226、大判印刷デバイス用のプロファイル221を用いてマッピングされて、大判印刷デバイス217へ出力される。同様に、作業色空間上の画像は、作業色空間用のプロファイル207、共通印刷色域マッピング226、電子写真デバイス用のプロファイル222を用いてマッピングされて、電子写真デバイス218へ出力される。同様に、作業色空間上の画像は、作業色空間用のプロファイル207、共通印刷色域マッピング226、インクジェットデバイス用のプロファイル223を用いてマッピングされて、インクジェットデバイス219へ出力される。 The method for converting the image acquired by the input device into an image on the work color space is the same as that shown in FIG. An image on the working color space is converted into a device-independent color space by the working color space profile 207, and a common display color gamut mapping created by a known technique as disclosed in JP-A-10-79865 224 is used to map into the common display color gamut of the monitors 208-211. Furthermore, the image mapped into the common display color gamut is mapped using the profiles 212 to 215 for each monitor device and displayed on the monitors 208 to 211 of each user. Similarly, the image on the working color space is mapped using the working color space profile 207, the common projection color gamut mapping 225, and the projector device profile 220, and is output to the projector 216. Similarly, the image on the working color space is mapped using the working color space profile 207, the common printing color gamut mapping 226, and the large printing device profile 221, and is output to the large printing device 217. Similarly, the image on the work color space is mapped using the work color space profile 207, the common print color gamut mapping 226, and the electrophotographic device profile 222, and is output to the electrophotographic device 218. Similarly, the image on the work color space is mapped using the work color space profile 207, the common print color gamut mapping 226, and the ink jet device profile 223, and is output to the ink jet device 219.
ここで、各ユーザのモニタ208〜211における色再現は、複数のデバイスに共通な共通表示色域、及び共通表示色域マッピング224を用いているため、同一色再現となる。また、印刷デバイス(大判印刷デバイス217、電子写真デバイス218、インクジェットデバイス219)における色再現も複数のデバイスに共通な共通印刷色域、及び共通印刷色域マッピング226を用いているため、同一色再現となる。但し、各ユーザのモニタ208〜211における色再現、プロジェクタ216における色再現、印刷デバイス(216〜219)における色再現は、共通表示色域、共通投影色域、共通印刷色域の違いがあるため、モニタ、プロジェクタ、印刷デバイス間では異なった色再現となる。複数のモニタ間の色再現を共通化できるため、共同作業に適している。また、複数の印刷デバイス間の色再現を共通化することによって、同一コンテンツを複数の印刷デバイスで同時に印刷することが可能となり、印刷時間を短縮することができる。 Here, the color reproduction on the monitors 208 to 211 of each user is the same color reproduction because the common display color gamut common to a plurality of devices and the common display color gamut mapping 224 are used. In addition, since the color reproduction in the printing device (large format printing device 217, electrophotographic device 218, ink jet device 219) also uses the common printing color gamut common to a plurality of devices and the common printing color gamut mapping 226, the same color reproduction is achieved. It becomes. However, the color reproduction on the monitors 208 to 211 of each user, the color reproduction on the projector 216, and the color reproduction on the printing device (216 to 219) have different common display color gamut, common projection color gamut, and common print color gamut. Different colors are reproduced among monitors, projectors, and printing devices. Since color reproduction between multiple monitors can be shared, it is suitable for collaborative work. Further, by sharing the color reproduction between the plurality of printing devices, the same content can be simultaneously printed by the plurality of printing devices, and the printing time can be shortened.
図3(c)は、個別に最適化されたプロファイルを適用する前に、全てのデバイスに共通な全共通色域マッピング227を適用した例である。入力デバイスによって取得された画像を作業色空間上の画像へ変換する方法は図3(a)と同じであるため、説明は省略する。作業色空間上の画像は、作業色空間用のプロファイル207によってデバイス非依存な色空間へ変換され、図3(b)と同様な技術によって作成された全共通色域マッピング227を用いて全てのデバイス(モニタ208〜211、プロジェクタ216、大判印刷デバイス217、電子写真デバイス218、インクジェットデバイス219)の全共通色域内へマッピングされる。更に、全共通色域内へマッピングされた画像は各デバイス用のプロファイル212〜215、220〜223を用いて変換され、対応するデバイスへ出力される。ここで、各デバイス(モニタ208〜211、プロジェクタ216、大判印刷デバイス217、電子写真デバイス218、インクジェットデバイス219)における色再現は、全デバイスに共通な全共通色域、及び全共通色域マッピング227を用いているため、同一色再現となる。全てのデバイスが同一色再現となるため、共同作業に適しているだけでなく、色校正の手間を省くことができる。 FIG. 3C shows an example in which an all common color gamut mapping 227 common to all devices is applied before applying individually optimized profiles. The method for converting the image acquired by the input device into an image on the work color space is the same as that shown in FIG. The image on the work color space is converted into a device-independent color space by the work color space profile 207, and all the color gamut mappings 227 created by the same technique as in FIG. Mapping is performed within all common color gamuts of the devices (monitors 208 to 211, projector 216, large format printing device 217, electrophotographic device 218, and inkjet device 219). Furthermore, the image mapped into all the common color gamuts is converted using the profiles 212 to 215 and 220 to 223 for each device, and is output to the corresponding device. Here, the color reproduction in each device (the monitors 208 to 211, the projector 216, the large format printing device 217, the electrophotographic device 218, and the ink jet device 219) is an all common color gamut common to all devices and an all common color gamut mapping 227. Because of using the same color reproduction. All devices have the same color reproduction, which is not only suitable for collaborative work, but also saves labor for color calibration.
なお、デバイス非依存な色空間はCIE XYZやCIE LABに限定されず、CIE LUV、CIECAM97sやCIECAM02で利用されているJCh(またはJCH)やQMh(またはQMH)などの他のデバイス非依存な色空間/観察条件非依存な色空間であっても構わない。また、共通表示色域、共通投影色域、共通印刷色域、全共通色域を決定する際に用いられる複数のデバイスは、対象となる全てのデバイスである必要はなく、一部のデバイスを対象としても構わない。 Device-independent color space is not limited to CIE XYZ and CIE LAB, but other device-independent colors such as JCh (or JCH) and QMh (or QMH) used in CIE LUV, CIECAM97s and CIECAM02 It may be a color space independent of space / observation conditions. In addition, the plurality of devices used when determining the common display color gamut, common projection color gamut, common print color gamut, and all common color gamuts do not need to be all target devices, and some devices may be used. It does not matter as the target.
各種デバイスに採用されている典型的な標準色空間の色域の違いを示したCIE 1931色度図の一例を図4に示す。なお、実際の色域は明度方向を含む3次元形状となるが、本色度図上では各色域の最大彩度の領域が示されている。 FIG. 4 shows an example of a CIE 1931 chromaticity diagram showing the difference in color gamut of typical standard color spaces employed in various devices. The actual color gamut has a three-dimensional shape including the brightness direction, but the maximum chroma region of each color gamut is shown in this chromaticity diagram.
モニタ用としては、PC上でのWeb制作・閲覧、一般ユーザ向けデジタルカメラの画像表示に最適なsRGB色空間(RGB系)、RGB系印刷用途やプロ向けデジタルカメラの画像表示に最適なAdobe RGB色空間(RGB系)などがある。プロジェクタ用としては、デジタルシネマ制作に最適なDCI P3色空間(RGB系)などがある。また、印刷用としてSWOP色空間(CMYK系)などがある。 For monitors, sRGB color space (RGB system) ideal for Web production / viewing on PC, digital camera image display for general users, Adobe RGB optimal for RGB printing applications and professional digital camera image display There are color spaces (RGB). For projectors, there is a DCI P3 color space (RGB system) that is ideal for digital cinema production. There is also a SWOP color space (CMYK system) for printing.
作業色空間としては、一般的にsRGB色空間が用いられるが、業種や用途によって利用する色空間が異なる。例えば、印刷業界で利用されるSWOP色域にはsRGB色域より広い部分が存在するため、作業色空間としてSWOP色空間をそのまま利用してCMYK編集する場合や、sRGB空間より広いAdobe RGB色空間を利用してRGB編集する場合がある。また、デジタルシネマ制作の場合には、作業色空間としてDCI P3が選択される。その他、放送用としてRec.709色空間(RGB系)、印刷用としてJapan Color色空間(CMYK系)、JMPA Color色空間(CMYK系)、Euroscale色空間(CMYK系)などがある。 As the work color space, the sRGB color space is generally used, but the color space to be used differs depending on the type of business and application. For example, the SWOP color gamut used in the printing industry has a part wider than the sRGB color gamut, so when using the SWOP color space as a working color space for CMYK editing, or the Adobe RGB color space wider than the sRGB space In some cases, RGB editing is used. In the case of digital cinema production, DCI P3 is selected as the work color space. In addition, there are Rec.709 color space (RGB system) for broadcasting, Japan Color color space (CMYK system), JMPA Color color space (CMYK system), Euroscale color space (CMYK system), etc. for printing.
作業色空間を利用する利点は、画像編集する色空間を実際の入力デバイスや表示デバイスの色域と独立に設定できる点にある。作業色空間を利用せず、入力画像を入力デバイス色空間上で画像編集すると、作業色空間への変換誤差や色空間の量子化誤差が発生しないという利点があるが、コンテンツの色域が入力デバイスの色域に制限されるという問題が発生する。また、作業色空間を利用せず、入力画像を表示デバイス色空間へ変換して画像編集する場合には、表示する際にカラーマッチングを実行する必要がなく、高速表示できるという利点があるが、同様に、コンテンツの色域が表示デバイスの色域に制限されるという問題が発生する。一方、作業色空間を利用すれば、実際の入力デバイスや表示デバイスの色域より広い色域でコンテンツの画像編集が可能となる。 The advantage of using the working color space is that the color space for image editing can be set independently of the color gamut of the actual input device or display device. Editing the input image on the input device color space without using the work color space has the advantage that conversion errors to the work color space and quantization errors in the color space do not occur, but the content color gamut is input. The problem is that the device color gamut is limited. In addition, when editing the image by converting the input image to the display device color space without using the work color space, there is an advantage that it is not necessary to perform color matching when displaying, and high-speed display is possible. Similarly, there arises a problem that the color gamut of the content is limited to the color gamut of the display device. On the other hand, if the work color space is used, it is possible to edit content images in a color gamut wider than the color gamut of actual input devices and display devices.
例えば、図3(a)のようなsRGB相当やAdobe RGB相当のモニタしか存在しない作業環境でデジタルシネマ制作を行いたい場合でも、作業色空間としてDCI P3色空間を設定すれば、デジタルシネマ向けの画像編集を行うことができる。図4からわかるように、DCI P3色空間はAdobe RGB色空間と比べて、赤色や緑色の領域が広くなっている。 For example, even if you want to create a digital cinema in a work environment where only a monitor equivalent to sRGB or Adobe RGB exists as shown in Fig. 3 (a), if you set the DCI P3 color space as the work color space, Image editing can be performed. As can be seen from FIG. 4, the DCI P3 color space has a wider red and green region than the Adobe RGB color space.
しかしユーザが編集中の画像の色を確認する際、実際の表示デバイスで表現可能な「色域内の色」については作業色空間上の色と同じ色で確認できるが、実際の表示デバイスで表現できない「色域外の色」については色域マッピング後の色で確認することになる。色域マッピング後の色は色域マッピング前の色と異なるため、作業色空間上の色と同じ色で確認できないという問題が発生する。この傾向は表示デバイスの色域が狭くなるほど顕著であり、例えば、図3(b)、図3(c)のように表示デバイスの色域が複数のデバイスの中で最も狭い色域に制限されてしまう場合、共通表示色域はsRGB相当、全共通色域はSWOP相当になる。このように、共通色域は、共通な色再現の対象となるデバイス数が増えるほど色域が狭くなる傾向があるため、狭い色域に対してもオリジナル画像と同等な色再現を実現できるような色域マッピングが必要となる。 However, when checking the color of the image being edited by the user, the “color in the color gamut” that can be expressed on the actual display device can be confirmed with the same color as the color in the work color space, but it can be expressed on the actual display device. The “color outside the color gamut” that cannot be confirmed is confirmed by the color after the color gamut mapping. Since the color after the color gamut mapping is different from the color before the color gamut mapping, there arises a problem that it cannot be confirmed with the same color as the color in the work color space. This tendency becomes more conspicuous as the color gamut of the display device becomes narrower. For example, as shown in FIGS. 3B and 3C, the color gamut of the display device is limited to the narrowest color gamut among a plurality of devices. In this case, the common display color gamut is equivalent to sRGB, and the entire common color gamut is equivalent to SWOP. In this way, the common color gamut tends to become narrower as the number of devices subject to common color reproduction increases, so that even in a narrow color gamut, color reproduction equivalent to the original image can be realized. Color gamut mapping is required.
[異なる観察条件を考慮したカラーマッチング]
空間周波数特性(周辺画素の影響)を考慮していない色域マッピングでは、入力色が同じであれば色域マッピング後も同じ色にマッピングされる。このため、色域マッピングの自由度が低くなり、階調性が失われたり、注目画素と周辺画素とのコントラスト比が維持できなくなったりするという問題があった。また、注目画素と周辺画素とのコントラスト比が崩れると、注目画素の目立つ度合(近傍に比べて目立つ度合)の分布も色域マッピング前後の画像で異なってしまうという問題があった。
[Color matching considering different viewing conditions]
In color gamut mapping that does not consider the spatial frequency characteristics (influence of surrounding pixels), if the input color is the same, the color is mapped to the same color after color gamut mapping. For this reason, the degree of freedom of color gamut mapping is lowered, and there is a problem that the gradation is lost or the contrast ratio between the target pixel and the peripheral pixels cannot be maintained. Further, when the contrast ratio between the target pixel and the surrounding pixels is lost, there is a problem that the distribution of the degree of attention of the target pixel (the degree of attention compared to the vicinity) is different between the images before and after the color gamut mapping.
また、空間周波数特性を考慮したとしても、各画素の色差を最小とするような色域マッピングの最適化方法では、色域マッピング前後の画像において注目画素の目立つ度合が最適化できないという問題や、繰り返し演算によって最適化を行うため処理時間がかかるという問題があった。 In addition, even if the spatial frequency characteristics are taken into account, the gamut mapping optimization method that minimizes the color difference between the pixels cannot solve the problem that the noticeable pixel is noticeable in the images before and after the gamut mapping, There is a problem that processing time is required because optimization is performed by iterative calculation.
この問題を解決するために、本実施形態では、空間周波数特性を考慮して各画素の色差を最小とするような最適化方法ではなく、色域マッピング前後の「顕著性マップ(saliency map)」の差分値が最小となるような最適化を行う。「顕著性マップ(saliency map)」とは、画像中の全ての位置において視覚的に目立つ度合(近傍に比べて目立つ度合)を表現したマップであり、顕著性マップを利用することにより画像上で人間が視覚的注意を向けやすい領域を推定することができる。視線計測に基づいた研究では、画像上において「視線が向いている領域」と「視覚的注意を向けやすい領域」の間に高い相関があることが知られている。色域マッピング前後の顕著性マップの差分値が最小となるような最適化を行うことにより、色域マッピング前後における画像上の「視覚的注意を向けやすい領域」の分布の変化を最小限に抑え、人間の知覚と合った色域マッピングを行うことが可能となる。ここで、顕著性マップは、注目画素が近傍の画素と比べて目立つ度合をマップ化したものであるため、顕著性マップ生成の段階で明度成分、色成分、エッジ方向に対する空間周波数特性も考慮される。 In order to solve this problem, in this embodiment, a “saliency map” before and after color gamut mapping is used instead of an optimization method that minimizes the color difference of each pixel in consideration of spatial frequency characteristics. The optimization is performed so that the difference value of is minimized. A “saliency map” is a map that expresses the degree of visual conspicuousness (degree of conspicuousness compared to the vicinity) at all positions in the image. By using the saliency map, It is possible to estimate an area in which humans are likely to direct visual attention. In research based on gaze measurement, it is known that there is a high correlation between “region where the gaze is directed” and “region where visual attention is easily directed” on the image. By performing optimization that minimizes the difference between the saliency maps before and after gamut mapping, changes in the distribution of “regions that are easy to draw visual attention” on the image before and after gamut mapping are minimized. Color gamut mapping that matches human perception is possible. Here, the saliency map is a map of the degree that the target pixel is conspicuous compared to neighboring pixels, so the lightness component, color component, and spatial frequency characteristics with respect to the edge direction are also considered at the stage of saliency map generation. The
また、本実施形態では、繰り返し演算ではなく、「複数の色域マッピング後の画像に対する顕著性マップ」と「色域マッピング前の画像に対する顕著性マップ」との差分値が小さくなるように重み付けを行い、複数の色域マッピング後の画像を加重平均によって融合させる。これにより、繰り返し演算が必要なくなるため、高速で実用的な色域マッピングが可能となる。ここで、複数の色域マッピング後の画像は対象デバイスの色域内の色であることが保証されているため、加重平均後の「顕著性を考慮した色域マッピング」を適用した画像も対象デバイスの色域内の色となる。 Also, in this embodiment, weighting is performed so that the difference value between “a saliency map for an image after multiple gamut mapping” and “a saliency map for an image before gamut mapping” is small rather than an iterative calculation. And merging multiple gamut mapped images by weighted average. This eliminates the need for repetitive calculations, and enables fast and practical color gamut mapping. Here, since images after multiple color gamut mapping are guaranteed to be in the color gamut of the target device, the image to which “gamut mapping considering saliency” after weighted averaging is applied is also the target device In the color gamut.
また、「複数の色域マッピング後の画像に対する顕著性マップ」と「色域マッピング前の画像に対する顕著性マップ」との差分値を求める際に観察条件を考慮する必要がある。入力側と出力側とで画像サイズ(または画像の解像度)や観察条件が同じならば、同一の観察条件パラメータを利用して、「複数の色域マッピング後の画像に対する顕著性マップ」と「色域マッピング前の画像に対する顕著性マップ」を生成すればよい。しかし、入力側と出力側とで画像サイズ(または画像の解像度)や観察条件が異なる場合、「複数の色域マッピング後の画像に対する顕著性マップ」を生成するためには出力側の観察条件パラメータを利用し、「色域マッピング前の画像に対する顕著性マップ」を生成するためには入力側の観察条件パラメータを利用する必要がある。 In addition, it is necessary to consider an observation condition when obtaining a difference value between “a saliency map for an image after color gamut mapping” and “a saliency map for an image before color gamut mapping”. If the image size (or image resolution) and viewing conditions are the same on the input and output sides, use the same viewing condition parameters and use the “saliency map for images after multiple gamut mapping” and “color” What is necessary is just to produce | generate the saliency map with respect to the image before area | region mapping. However, when the image size (or image resolution) and viewing conditions are different between the input side and the output side, in order to generate a “saliency map for an image after multiple color gamut mapping”, the viewing condition parameter on the output side In order to generate “a saliency map for an image before color gamut mapping”, it is necessary to use observation condition parameters on the input side.
異なる観察条件を考慮したカラーマッチングの概念図の例を図5に示す。まず、作業色空間上の画像(または入力側デバイス空間上の画像)500は、作業色空間用のプロファイル(または入力側プロファイル)207によって入力側のデバイス非依存なXYZデータである画像501へ変換される。 FIG. 5 shows an example of a conceptual diagram of color matching considering different observation conditions. First, an image on the work color space (or an image on the input side device space) 500 is converted into an image 501 that is device-independent XYZ data on the input side by a work color space profile (or input side profile) 207. Is done.
次に、入力側のデバイス非依存な画像501は、空間的カラーアピアランスモデル(以下、空間的CAM)の順変換504によって、入力側のJCH空間上の画像505へ変換される(詳細は後述する)。ここで、JはLightness、CはChroma、HはHue quadratureである。空間的CAMの順変換504によって算出可能な色相には、色相角(Hue angle)hとHue quadrature Hがある。図10に色相角(Hue angle)hとHue quadrature Hの違いを示す。R, Y, G, Bは、unique red, unique yellow, unique green, unique blueという4つのユニーク色であり、人間が混色のない純色として知覚する色を示している。色相角(Hue angle)h(図10(a))は0°から360°で表現される色相でマンセル表色系の色相に近い値を示す。一方、Hue quadrature H(図10(b))は0°から400°で表現される色相(Red:0°または400°、Yellow:100°、Green:200°、Blue:300°)でNCS表色系の色相に近い値を示す。一般的な画像処理ではCIE Lab表色系やマンセル表色系の色相に近い色相角(Hue angle)hが用いられている。本実施形態では、Redness-Greenness成分とYellowness-Blueness成分という人間の視覚特性における反対色の関係を利用するため、Hue quadrature Hを用いる。なお、空間的CAMの順変換504では、以下の入力側の観察条件パラメータ502及び503を設定することができる。 Next, the device-independent image 501 on the input side is converted into an image 505 on the JCH space on the input side by a forward conversion 504 of a spatial color appearance model (hereinafter referred to as spatial CAM) (details will be described later). ). Here, J is Lightness, C is Chroma, and H is Hue quadrature. Hues that can be calculated by the forward conversion 504 of the spatial CAM include a hue angle h and a hue quadrature H. FIG. 10 shows the difference between hue angle h and hue quadrature H. R, Y, G, and B are four unique colors of unique red, unique yellow, unique green, and unique blue, and indicate colors that humans perceive as pure colors with no color mixture. A hue angle h (FIG. 10A) is a hue expressed from 0 ° to 360 ° and shows a value close to the hue of the Munsell color system. On the other hand, Hue quadrature H (FIG. 10 (b)) is an NCS table with hues expressed from 0 ° to 400 ° (Red: 0 ° or 400 °, Yellow: 100 °, Green: 200 °, Blue: 300 °). Indicates a value close to the hue of the color system. In general image processing, a hue angle h near the hue of the CIE Lab color system or the Munsell color system is used. In the present embodiment, Hue quadrature H is used in order to use the relationship between the opposite colors in the human visual characteristics of the Redness-Greenness component and the Yellowness-Blueness component. Note that in the spatial CAM forward conversion 504, the following input-side observation condition parameters 502 and 503 can be set.
XwYwZw:入力側の白色点の相対XYZ値
Surround:入力側の周囲条件(平均的(Average Surround)、ほの暗い(Dim Surround)、暗い(Dark Surround))
Lw:入力側の順応領域における白色点の絶対輝度[cd/m2]、
R:入力側の画像解像度[ppi]
D:入力側の観察距離[m]
次に、入力側のJCH空間上の画像505は、空間的GMA(Gamut Mapping Algorithm)508によって出力側の色域内へ色域マッピングされ、出力側のJCH空間上の画像509へ変換される(詳細は後述する)。ここで、空間的GMA508は、出力側の色域を示す情報である出力側GBD(Gamut Boundary Description)507だけでなく、入力側の色域を示す情報である入力側GBD(Gamut Boundary Description)506も考慮して色域マッピングを行うことができる。また、入力側GBD506として、入力側のJCH空間上の画像505の色域、または入力側デバイスの色域を利用することができる。
XwYwZw: Relative XYZ value of the white point on the input side
Surround: Ambient conditions on the input side (Average Surround, Dim Surround, Dark Surround)
Lw: Absolute luminance [cd / m 2 ] of the white point in the adaptation area on the input side,
R: Image resolution on the input side [ppi]
D: Observation distance on the input side [m]
Next, the image 505 on the input-side JCH space is color-gamut mapped into the output-side color gamut by a spatial GMA (Gamut Mapping Algorithm) 508 and converted into an image 509 on the output-side JCH space (details). Will be described later). Here, the spatial GMA 508 includes not only the output side GBD (Gamut Boundary Description) 507 that is information indicating the color gamut on the output side, but also the input side GBD (Gamut Boundary Description) 506 that is information indicating the color gamut on the input side. Color gamut mapping can be performed in consideration of the above. Further, as the input side GBD 506, the color gamut of the image 505 on the input side JCH space or the color gamut of the input side device can be used.
入力側のJCH空間上の画像505の色域に対する入力側GBD506は、入力側のJCH空間上の画像505の全画素のJCH値に対する三次元凸包(convex hull)を求めることによって作成できる。入力側デバイスの色域に対する入力側GBD506は、例えば、次の手順で作成できる。まず、入力側デバイスのデバイス空間(RGBやCMYKなど)を均等にサンプリングしたサンプリング画像を生成する。次に、デバイス空間のサンプリング画像に対して、プロファイル207と、入力側観察条件を考慮したCIECAM02等のカラーアピアランスモデルの順変換を適用し、JCH空間のサンプリング画像を取得する。次に、取得されたJCH空間のサンプリング画像に対して三次元凸包を求めれば、入力側GBD506を作成することができる。 The input side GBD 506 for the color gamut of the image 505 on the input side JCH space can be created by obtaining a three-dimensional convex hull for the JCH values of all the pixels of the image 505 on the input side JCH space. The input side GBD 506 for the color gamut of the input side device can be created, for example, by the following procedure. First, a sampled image is generated by uniformly sampling the device space (RGB, CMYK, etc.) of the input side device. Next, forward conversion of a color appearance model such as CIECAM02 in consideration of the input-side observation conditions is applied to the sampling image in the device space to obtain a sampling image in the JCH space. Next, if a three-dimensional convex hull is obtained for the acquired sampling image of the JCH space, the input side GBD 506 can be created.
同様に、出力側デバイスの色域に対する出力側GBD507も、次の手順で作成できる。まず、出力側デバイスのデバイス空間(RGBやCMYKなど)を均等にサンプリングしたサンプリング画像を生成する。次に、デバイス空間のサンプリング画像に対して、プロファイル221と、出力側観察条件を考慮したCIECAM02等のカラーアピアランスモデルの順変換を適用し、JCH空間のサンプリング画像を取得する。次に、取得されたJCH空間のサンプリング画像に対して三次元凸包を求めれば、出力側GBD507を作成することができる。 Similarly, the output side GBD 507 for the color gamut of the output side device can also be created by the following procedure. First, a sampling image is generated in which the device space (RGB, CMYK, etc.) of the output device is evenly sampled. Next, forward conversion of a color appearance model such as CIECAM02 in consideration of the output-side observation condition is applied to the sampling image in the device space, and the sampling image in the JCH space is acquired. Next, if a three-dimensional convex hull is obtained for the acquired sampling image of the JCH space, the output side GBD 507 can be created.
なお、サンプリング画像は、デバイス空間を均等に分割した色から構成されるとは限らず、デバイス空間を非均等に分割した色や、デバイス空間の境界を表す色を用いても構わない。また、色域の求め方は、三次元凸包に限られるわけではなく、凹部分を考慮した方法であっても構わない。また、カラーアピアランスモデルはCIECAM02に限定されず、CIECAM97s、納谷モデル、Huntモデル、RLABモデルなどの他のカラーアピアランスモデルであっても構わない。本実施形態では、簡単化のためCIECAM02を例として説明する。 Note that the sampling image is not necessarily composed of colors obtained by dividing the device space evenly, and colors obtained by dividing the device space non-uniformly or colors representing the boundaries of the device space may be used. Further, the method for obtaining the color gamut is not limited to the three-dimensional convex hull, and may be a method that takes into account the concave portion. The color appearance model is not limited to CIECAM02, and may be other color appearance models such as CIECAM97s, Naya model, Hunt model, and RLAB model. In the present embodiment, CIECAM02 will be described as an example for simplification.
更に、空間的GMA508では、色域マッピング前後の「顕著性マップ(saliency map)」の差分値が最小となるような最適化が行われるため、入力側の観察条件パラメータ503と出力側の観察条件パラメータ510が必要となる。 Further, in the spatial GMA 508, optimization is performed so that the difference value of the “saliency map” before and after the color gamut mapping is minimized, so that the observation condition parameter 503 on the input side and the observation condition on the output side Parameter 510 is required.
空間的GMA508における入力側の観察条件パラメータ503は以下の情報を含む。 The observation condition parameter 503 on the input side in the spatial GMA 508 includes the following information.
Lw:入力側の順応領域における白色点の絶対輝度[cd/m2]、
R:入力側の画像解像度[ppi]
D:入力側の観察距離[m]
同様に、空間的GMA508における出力側の観察条件パラメータ510は以下の情報を含む。
Lw: Absolute luminance [cd / m 2 ] of the white point in the adaptation area on the input side,
R: Image resolution on the input side [ppi]
D: Observation distance on the input side [m]
Similarly, the observation condition parameter 510 on the output side in the spatial GMA 508 includes the following information.
Lw:出力側の順応領域における白色点の絶対輝度[cd/m2]、
R:出力側の画像解像度[ppi]
D:出力側の観察距離[m]
次に、出力側のJCH空間上の画像509は、空間的CAMの逆変換512によって出力側のデバイス非依存なXYZデータである画像513へ変換される(詳細は後述する)。ここで、空間的CAMの逆変換512では、以下の出力側の観察条件パラメータ510及び511を設定することができる。
Lw: absolute luminance [cd / m 2 ] of the white point in the adaptation area on the output side,
R: Image resolution on the output side [ppi]
D: Observation distance on the output side [m]
Next, the image 509 in the JCH space on the output side is converted into an image 513 that is device-independent XYZ data on the output side by inverse transformation 512 of the spatial CAM (details will be described later). Here, in the inverse transformation 512 of the spatial CAM, the following viewing-side observation condition parameters 510 and 511 can be set.
XwYwZw:出力側の白色点の相対XYZ値、
Surround:出力側の周囲条件(平均的(Average Surround)、ほの暗い(Dim Surround)、暗い(Dark Surround))
Lw:出力側の順応領域における白色点の絶対輝度[cd/m2]、
R:出力側の画像解像度[ppi]
D:出力側の観察距離[m]
最後に、出力側のデバイス非依存な画像513は、大判印刷用のプロファイル(または出力側プロファイル)221によって大判印刷デバイス上の画像(または出力側デバイス空間上の画像)514へ変換される。
XwYwZw: Relative XYZ value of the white point on the output side,
Surround: Output side ambient conditions (Average Surround, Dim Surround, Dark Surround)
Lw: absolute luminance [cd / m 2 ] of the white point in the adaptation area on the output side,
R: Image resolution on the output side [ppi]
D: Observation distance on the output side [m]
Finally, the device-independent image 513 on the output side is converted into an image on the large format printing device (or an image on the output side device space) 514 by the profile (or output side profile) 221 for large format printing.
なお、図5では、大判印刷デバイス217の色域への色域マッピングを例にとっているが、他のデバイスの色域への色域マッピングを行う場合においても図5の構成は同様に適用できる。 In FIG. 5, the color gamut mapping to the color gamut of the large format printing device 217 is taken as an example, but the configuration of FIG. 5 can be similarly applied to the case where the color gamut mapping to the color gamut of another device is performed.
[空間的CAMの順変換504]
空間的CAMの順変換504を実現する画像処理装置の機能構成例を図6のブロック図に示す。図6に示す各機能部はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。以下の説明では、機能部を処理の主体として説明するが、図6に示す各機能部をコンピュータプログラムで実装する場合、CPU101が該機能部に対応するコンピュータプログラムを実行することで対応する処理が実行されることになる。また、入力側の観察条件パラメータ503は上記の通り、視野角に基づいて入力画像上の領域サイズを決定するためのパラメータ(解像度R、観察距離D)を含んでいる。
[Spatial CAM forward conversion 504]
A functional configuration example of an image processing apparatus that realizes the spatial CAM forward conversion 504 is shown in the block diagram of FIG. Each functional unit shown in FIG. 6 may be implemented by hardware or a computer program. In the following description, the functional unit is described as a main subject of processing. However, when each functional unit shown in FIG. 6 is implemented by a computer program, the CPU 101 executes the computer program corresponding to the functional unit, and the corresponding processing is performed. Will be executed. Further, as described above, the observation condition parameter 503 on the input side includes parameters (resolution R, observation distance D) for determining the region size on the input image based on the viewing angle.
ローパスフィルタ(Y LOW-PASS)607は、入力側の観察条件パラメータ503から決定されるローパスフィルタであり、XYZデータとしての画像501(輝度画像データ)に対してローパスフィルタ処理を実行する。 A low-pass filter (Y LOW-PASS) 607 is a low-pass filter determined from the observation condition parameter 503 on the input side, and performs a low-pass filter process on the image 501 (luminance image data) as XYZ data.
空間的CAMの順変換504では、画像501にローパスフィルタ607が出力する輝度画像データ(入力側ローパス画像)と入力側の観察条件パラメータ502及び503を適用して、画像501をJCH空間の画像データ(JCHデータ)である画像505に変換する。 In the forward conversion 504 of the spatial CAM, luminance image data (input-side low-pass image) output from the low-pass filter 607 and input-side observation condition parameters 502 and 503 are applied to the image 501 to convert the image 501 into image data in the JCH space. The image is converted into an image 505 (JCH data).
算出部608は、画像501の注目画素と同位置の、ローパスフィルタ607が出力する入力側ローパス画像における画素の画素値Yから、入力側背景領域の相対輝度Ybを算出する。 The calculation unit 608 calculates the relative luminance Yb of the input-side background region from the pixel value Y of the pixel in the input-side low-pass image output by the low-pass filter 607 at the same position as the target pixel of the image 501.
算出部609は、入力側の観察条件パラメータ503に含まれている白色点の輝度Lwと、入力側背景領域の相対輝度Ybと、から以下の式1により入力側順応領域の絶対輝度LAを算出する。 The calculation unit 609 calculates the absolute luminance L A of the input-side adaptation area from the luminance Lw of the white point included in the input-side observation condition parameter 503 and the relative luminance Yb of the input-side background area by the following equation 1. calculate.
算出部604は、算出部609が求めた絶対輝度LAと、下表に示す入力側の観察条件パラメータ502の周囲条件Surroundに対応する順応度合のファクタFと、を用いて、以下の式2により色順応度合ファクタDを算出する。 The calculation unit 604 uses the absolute luminance L A obtained by the calculation unit 609 and the adaptation degree factor F corresponding to the ambient condition Surround of the observation condition parameter 502 on the input side shown in the table below, and the following equation 2 To calculate the color adaptation degree factor D.
算出部605は、入力側順応領域の絶対輝度LAから、以下の式3により輝度レベル順応ファクタFLを算出する。 Calculator 605, the absolute luminance L A of the input-side adaptation region, by Equation 3 below to calculate the luminance level adaptation factor F L.
算出部606は、入力側背景領域の相対輝度Ybから、以下の式4により背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性zを算出する。 The calculation unit 606 calculates the background induction factor n, the induction factors N bb and N cb , and the basic exponent nonlinearity z from the relative luminance Yb of the input-side background region according to the following Equation 4.
また、算出部606は、入力側の観察条件パラメータ502の周囲条件Surroundから、下表に示すように周囲効果c、色誘導Ncを決定する。 Further, the calculation unit 606 determines the ambient effect c and the color induction Nc as shown in the table below from the ambient condition Surround of the observation condition parameter 502 on the input side.
色順応変換部601は、画像501に対して色順応度合ファクタDを使用して、視覚ホワイトバランスに相当するCIECAM02色順応変換の順変換を行う。 The chromatic adaptation conversion unit 601 uses the chromatic adaptation degree factor D for the image 501 to perform forward conversion of CIECAM02 chromatic adaptation conversion corresponding to visual white balance.
錐体応答変換部602は、色順応変換部601により変換された画像に対して輝度レベル順応ファクタFLを使用して、視覚受容体に相当するCIECAM02錐体応答変換の順変換を行う。 Cone response conversion unit 602 uses the luminance level adaptation factor F L for the converted image by the color adaptation transform unit 601 performs forward conversion of the corresponding CIECAM02 cone response converted into visual receptors.
知覚属性変換部603は、錐体応答変換部602により変換された画像に対して背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性z、周囲効果c、色誘導Ncを使用して、視覚神経に相当するCIECAM02知覚属性変換の順変換を行う。 The perceptual attribute conversion unit 603 uses the background induction factor n, the induction factors N bb and N cb , the basic exponent nonlinearity z, the ambient effect c, and the color induction Nc for the image converted by the cone response conversion unit 602. Then, forward conversion of CIECAM02 perceptual attribute conversion corresponding to the visual nerve is performed.
つまり、画像501中の画素位置(X, Y, Z)における注目画素および入力側の観察条件パラメータ502の白色点(Xw, Yw, Zw)は、色順応変換部601と錐体応答変換部602の順変換を経由して、注目画素の錐体応答(Ra’, Ga’, Ba’)および白色点の錐体応答(Raw’ Gaw’, Baw’)へ変換され、知覚属性変換部603へ入力される。そして、知覚属性変換部603による順変換結果として、注目画素に対するJCHデータである画像505が出力される。 That is, the target pixel at the pixel position (X, Y, Z) in the image 501 and the white point (Xw, Yw, Zw) of the observation condition parameter 502 on the input side are converted into the chromatic adaptation conversion unit 601 and the cone response conversion unit 602. Are converted into a cone response (Ra ′, Ga ′, Ba ′) of the pixel of interest and a cone response (Raw ′ Gaw ′, Baw ′) of the white point through the forward transformation of the pixel of interest, and the perceptual attribute conversion unit 603 Entered. Then, an image 505 that is JCH data for the pixel of interest is output as a result of forward conversion by the perceptual attribute conversion unit 603.
なお、入力側の観察条件パラメータ502の白色点(Xw, Yw, Zw)から算出される順変換の中間結果は色順応変換部601でも用いられる。また、中間の観察条件パラメータとして利用される入力側背景領域の相対輝度Ybと、入力側順応領域の絶対輝度LAは、画像501の全画素に対して固定ではなく、周辺画素の値に応じて変化する。 Note that the intermediate result of the forward conversion calculated from the white point (Xw, Yw, Zw) of the observation condition parameter 502 on the input side is also used by the chromatic adaptation conversion unit 601. In addition, the relative luminance Yb of the input-side background region and the absolute luminance L A of the input-side adaptation region that are used as intermediate observation condition parameters are not fixed with respect to all the pixels of the image 501, but depend on the values of surrounding pixels. Change.
[異なる観察条件を考慮した空間的GMA508]
異なる観察条件を考慮した空間的GMA508を実現する画像処理装置の機能構成例を図7のブロック図に示す。図7に示す各機能部はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。以下の説明では、機能部を処理の主体として説明するが、図7に示す各機能部をコンピュータプログラムで実装する場合、CPU101が該機能部に対応するコンピュータプログラムを実行することで対応する処理が実行されることになる。
[Spatial GMA508 considering different observation conditions]
A functional configuration example of an image processing apparatus that realizes the spatial GMA 508 in consideration of different observation conditions is shown in the block diagram of FIG. Each functional unit shown in FIG. 7 may be implemented by hardware or a computer program. In the following description, the functional unit is described as the main subject of processing. However, when each functional unit shown in FIG. 7 is implemented by a computer program, the CPU 101 executes the computer program corresponding to the functional unit to perform the corresponding processing. Will be executed.
まず、JCHデータとしての画像505は、出力側デバイスに対する複数の色域マッピング701〜703(それぞれGMA0、GMA1、GMA2)によって、色域マッピング後のJCHデータである画像711〜713(それぞれG0、G1、G2)へ変換される。ここで、出力側デバイスに対する複数の色域マッピング701〜703は、入力側GBD506と出力側GBD507を考慮したJCH空間上の色域マッピングであり、例えば、ICCプロファイルのレンダリング・インテントに基づいた「知覚的(Perceptual)」(GMA0)、「相対的な色域を維持(Relative Colorimetric)」(GMA1)、「彩度(Saturation)」(GMA2)のように異なった色域マッピングアルゴリズムを利用する。なお、複数の色域マッピングの数は3つに限定される必要はなく、2つ以上であれば適用することができる。複数の色域マッピングとして、明度優先から彩度優先に至る複数段階の色域マッピング(色相固定)を利用しても構わない。 First, an image 505 as JCH data is obtained by a plurality of color gamut mappings 701 to 703 (GMA0, GMA1, and GMA2 respectively) for output side devices, and images 711 to 713 (G0, G1 respectively) that are JCH data after color gamut mapping. , G2). Here, the plurality of color gamut mappings 701 to 703 for the output side device are color gamut mappings on the JCH space in consideration of the input side GBD 506 and the output side GBD 507, for example, based on the rendering intent of the ICC profile. Different color gamut mapping algorithms are used, such as “Perceptual” (GMA0), “Relative Colorimetric” (GMA1), “Saturation” (GMA2). Note that the number of the plurality of color gamut mappings is not limited to three, and two or more color gamut mappings can be applied. As a plurality of color gamut mappings, a plurality of stages of color gamut mapping (hue fixation) from lightness priority to saturation priority may be used.
次に、色域マッピング前の画像505は、入力側の観察条件パラメータ503を考慮した顕著性マップ生成部720(詳細は後述する)へ入力され、顕著性マップ730(S)へと変換される。また、色域マッピング後の画像711〜713は、出力側の観察条件パラメータ510を考慮した顕著性マップ生成部720(詳細は後述する)へ入力され、顕著性マップ731〜733(それぞれS0、S1、S2)へ変換される。 Next, the image 505 before color gamut mapping is input to a saliency map generation unit 720 (details will be described later) in consideration of the observation condition parameter 503 on the input side, and converted into a saliency map 730 (S). . Further, the images 711 to 713 after color gamut mapping are input to a saliency map generation unit 720 (details will be described later) in consideration of the viewing condition parameter 510 on the output side, and saliency maps 731 to 733 (S0 and S1 respectively). , S2).
次に、顕著性マップ差分算出部799によって、色域マッピング後の画像711〜713に対する顕著性マップ731〜733(S0、S1、S2)から色域マッピング前の画像505に対する顕著性マップ730(S)の差分画像(それぞれD0、D1、D2)を算出する。 Next, the saliency map difference calculation unit 799 performs the saliency map 730 (S) for the image 505 before gamut mapping from the saliency maps 731 to 733 (S0, S1, S2) for the images 711 to 713 after gamut mapping. ) Difference images (D0, D1, D2 respectively).
次に、最適化部740によって、色域マッピング前後の顕著性マップの差分値が最小となるような色域マッピングの最適化を行う。複数の色域マッピング後の画像711〜713(G0、G1、G2)から顕著性を考慮した色域マッピング後のJCHデータとしての画像509(Gx)を求めるための一般式は、以下のようになる。 Next, the optimization unit 740 optimizes the color gamut mapping so that the difference value between the saliency maps before and after the color gamut mapping is minimized. A general formula for obtaining an image 509 (Gx) as JCH data after color gamut mapping considering saliency from a plurality of images 711 to 713 (G0, G1, G2) after color gamut mapping is as follows: Become.
なおA(x、y)は、画像A中の画素位置(x、y)における画素値を表す。ここで、差分画像(D0、D1、D2)の画素値がゼロの場合、顕著性を考慮した色域マッピング後の画像509(Gx)は、以下のようになる。 A (x, y) represents the pixel value at the pixel position (x, y) in the image A. Here, when the pixel values of the difference images (D0, D1, and D2) are zero, an image 509 (Gx) after color gamut mapping considering saliency is as follows.
同様に、上記の「複数の色域マッピング」の数が2つの場合には、顕著性を考慮した色域マッピング後の画像509(Gx)は以下の式によって求めることができる。 Similarly, when the number of the “plurality of color gamut mappings” is two, the image 509 (Gx) after color gamut mapping considering saliency can be obtained by the following equation.
ここで、差分画像(D0、D1)の画素値がゼロの場合、顕著性を考慮した色域マッピング後の画像509(Gx)は、以下のようになる。 Here, when the pixel value of the difference image (D0, D1) is zero, the image 509 (Gx) after the color gamut mapping considering the saliency is as follows.
本実施形態では、複数の色域マッピング後の画像を全て利用して、顕著性マップの差分値の絶対値の逆数による加重平均で融合を行っている。しかし、複数の色域マッピングの中から顕著性マップの差分値が規定値よりも小さくなるような色域マッピングを複数選択し、選択された色域マッピング後の画像と重み付けによって加重平均による融合を行っても構わない。 In the present embodiment, all the images after the plurality of color gamut mapping are used, and the fusion is performed by the weighted average based on the inverse of the absolute value of the difference value of the saliency map. However, multiple color gamut mappings are selected from among the multiple color gamut mappings so that the difference value of the saliency map is smaller than the specified value. You can go.
[空間的CAMの逆変換]
空間的CAMの逆変換512を実現する画像処理装置の機能構成例を図8のブロック図に示す。図8に示す各機能部はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。以下の説明では、機能部を処理の主体として説明するが、図8に示す各機能部をコンピュータプログラムで実装する場合、CPU101が該機能部に対応するコンピュータプログラムを実行することで対応する処理が実行されることになる。なお、出力側の観察条件パラメータ510は、視野角に基づいて出力画像上の領域サイズを決定するためのパラメータ(解像度R、観察距離D)を含んでいる。
[Inverse transform of spatial CAM]
FIG. 8 is a block diagram illustrating an example of the functional configuration of an image processing apparatus that implements the spatial CAM inverse transform 512. Each functional unit shown in FIG. 8 may be implemented by hardware or a computer program. In the following description, the functional unit is described as the main subject of processing. However, when each functional unit shown in FIG. 8 is implemented by a computer program, the CPU 101 executes the computer program corresponding to the functional unit to perform the corresponding processing. Will be executed. Note that the viewing condition parameter 510 on the output side includes parameters (resolution R, viewing distance D) for determining the region size on the output image based on the viewing angle.
解像度変換部806は、入力側の観察条件パラメータ503と出力側の観察条件パラメータ510が示す解像度に基づき、画像501(輝度画像データ)を、XYZデータである画像513の解像度(出力側解像度)の輝度画像データに変換する。 The resolution conversion unit 806 converts the image 501 (luminance image data) to the resolution (output side resolution) of the image 513 that is XYZ data based on the resolutions indicated by the input viewing condition parameter 503 and the output viewing condition parameter 510. Convert to luminance image data.
ローパスフィルタ(Y LOW-PASS)607は、出力側の観察条件パラメータ510から決定されるローパスフィルタであり、解像度変換部806によって出力側解像度に変換された輝度画像データに対してローパスフィルタ処理を実行する。 A low-pass filter (Y LOW-PASS) 607 is a low-pass filter determined from the observation condition parameter 510 on the output side, and performs a low-pass filter process on the luminance image data converted into the output-side resolution by the resolution conversion unit 806. To do.
解像度変換部801は、解像度変換部806と同等の解像度変換によって、JCHデータである画像509を拡大または縮小処理して出力側解像度に合わせたJCHデータである画像802を生成する。空間的CAMの逆変換512では、画像509にローパスフィルタ607が出力する輝度画像データと出力側の観察条件パラメータ510および511を適用して、画像509を画像513に変換する。 The resolution conversion unit 801 generates an image 802 that is JCH data that matches the output-side resolution by enlarging or reducing the image 509 that is JCH data by resolution conversion equivalent to the resolution conversion unit 806. In the spatial CAM inverse transform 512, the image 509 is converted into an image 513 by applying the luminance image data output from the low-pass filter 607 and the output-side observation condition parameters 510 and 511 to the image 509.
算出部608は、解像度変換部801が出力するJCHデータとしての画像802の注目画素と同位置の、ローパスフィルタ607が出力する出力側解像度の輝度画像データ(出力側ローパス画像)の画素値から、出力側背景領域の相対輝度Ybを算出する。 The calculation unit 608 calculates the pixel value of the luminance image data (output-side low-pass image) of the output-side resolution output from the low-pass filter 607 at the same position as the target pixel of the image 802 as JCH data output from the resolution conversion unit 801. The relative luminance Yb of the output side background area is calculated.
算出部609は、出力側の観察条件パラメータ510の白色点の輝度Lwと、出力側背景領域の相対輝度Ybから、上記の式(1)により出力側順応領域の絶対輝度LAを算出する。 The calculation unit 609 calculates the absolute luminance L A of the output-side adaptation region from the above-described equation (1) from the white point luminance Lw of the output-side observation condition parameter 510 and the relative luminance Yb of the output-side background region.
算出部606は、出力側背景領域の相対輝度Ybから、上記の式(4)により背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性zを算出する。さらに算出部606は、上記の表2を用いて、出力側の観察条件パラメータ511の周囲条件Surroundから周囲効果c、色誘導Ncを決定する。 The calculation unit 606 calculates the background induction factor n, the induction factors N bb and N cb , and the basic exponent nonlinearity z from the relative luminance Yb of the output-side background region by the above equation (4). Further, the calculation unit 606 determines the ambient effect c and the color induction Nc from the ambient condition Surround of the output-side observation condition parameter 511 using Table 2 above.
算出部605は、出力側順応領域の絶対輝度LAから、上記の式(3)により輝度レベル順応ファクタFLを算出する。 Calculator 605, the absolute luminance L A of the output side adapting field, calculates a luminance level adaptation factor F L by the above equation (3).
算出部604は、上記の表1に示す出力側の観察条件パラメータ511の周囲条件Surroundに対応する順応度合のファクタFを用いて、上記の式(2)により色順応度合ファクタDを算出する。 The calculation unit 604 calculates the chromatic adaptation degree factor D by the above equation (2) using the adaptation degree factor F corresponding to the ambient condition Surround of the output-side observation condition parameter 511 shown in Table 1 above.
知覚属性変換部803は、画像802に対して、背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性z、周囲効果c、色誘導Ncを使用して、視覚神経に相当するCIECAM02知覚属性変換の逆変換を行う。 The perceptual attribute conversion unit 803 uses the background induction factor n, the induction factors N bb and N cb , the basic exponential nonlinearity z, the ambient effect c, and the color induction Nc for the image 802 to correspond to the visual nerve CIECAM02 Inverse perceptual attribute conversion.
錐体応答変換部804は、知覚属性変換部803により逆変換された画像に対して輝度レベル順応ファクタFLを使用して、視覚受容体に相当するCIECAM02錐体応答変換の逆変換を行う。 Cone response conversion unit 804 uses the luminance level adaptation factor F L with respect to the inverse transformed image by perceptual attribute converting unit 803 performs inverse transform of the corresponding CIECAM02 cone response converted into visual receptors.
色順応変換部805は、錐体応答変換部804により逆変換された画像に対して色順応度合ファクタDを使用して、視覚ホワイトバランスに相当するCIECAM02色順応変換の逆変換を行う。 The chromatic adaptation conversion unit 805 performs inverse conversion of CIECAM02 chromatic adaptation conversion corresponding to visual white balance using the chromatic adaptation degree factor D for the image inversely converted by the cone response conversion unit 804.
つまり、空間的CAMの順変換504と空間的GMA508とによって得られた画像509は、解像度変換部801によって出力側の画像802へ変換される。そして、画像802の注目画素(J, C, H)は、知覚属性変換部803と錐体応答変換部804の逆変換を経由して、注目画素の錐体逆応答(X’, Y’, Z’)へ変換され、色順応変換部805へ入力される。この際、出力側の観察条件パラメータ511の白色点(Xw, Yw, Zw)から色順応変換部601の順変換によって得られた錐体逆応答(Xw’, Yw’, Zw’)も入力される。そして、色順応変換部805の逆変換結果として注目画素に対する出力側デバイス非依存データであるXYZデータとしての画像513が出力される。 That is, the image 509 obtained by the spatial CAM forward conversion 504 and the spatial GMA 508 is converted into an output image 802 by the resolution conversion unit 801. Then, the target pixel (J, C, H) of the image 802 passes through the inverse transformation of the perceptual attribute conversion unit 803 and the cone response conversion unit 804, and the cone inverse response (X ′, Y ′, Z ′) and input to the chromatic adaptation conversion unit 805. At this time, the inverse cone response (Xw ′, Yw ′, Zw ′) obtained by the forward conversion of the chromatic adaptation conversion unit 601 from the white point (Xw, Yw, Zw) of the observation condition parameter 511 on the output side is also input. The Then, an image 513 as XYZ data that is output-side device-independent data for the pixel of interest is output as an inverse conversion result of the chromatic adaptation conversion unit 805.
なお、出力側の観察条件パラメータ510の白色点(Xw, Yw, Zw)から算出される順変換の中間結果は知覚属性変換部803でも用いられる。また、中間の観察条件パラメータとして利用される出力側背景領域の相対輝度Ybと、出力側順応領域の絶対輝度LAは、出力側の画像802の全画素に対して固定ではなく、周辺画素の値に応じて変化する。 Note that the intermediate result of the forward conversion calculated from the white point (Xw, Yw, Zw) of the observation condition parameter 510 on the output side is also used by the perceptual attribute conversion unit 803. Further, the relative luminance Yb of the output-side background region and the absolute luminance L A of the output-side adaptation region that are used as intermediate observation condition parameters are not fixed with respect to all the pixels of the output-side image 802, and It changes according to the value.
[観察条件を考慮した顕著性マップの生成]
以下では、観察条件を考慮した顕著性マップの生成について説明する。入力画像から顕著性マップを生成する例は、以下に示す文献1や文献2などが知られている。しかし、従来の顕著マップ生成はRGB画像の入力を前提としているため、デバイス非依存な画像(XYZデータ)501や観察条件を考慮した画像(JCHデータ、JCH画像)505には対応できない。
[Generation of saliency map considering observation conditions]
Hereinafter, generation of the saliency map in consideration of the observation conditions will be described. As examples of generating a saliency map from an input image, Document 1 and Document 2 shown below are known. However, since the conventional saliency map generation is based on the input of an RGB image, it cannot cope with a device-independent image (XYZ data) 501 and an image (JCH data, JCH image) 505 in consideration of observation conditions.
文献1…Itti, Koch & Niebur, “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”, IEEE PAMI, Vol.20, No.11, pp.1254-1259 (1998)
文献2…J. Harel, C. Koch, and P. Perona, "Graph-Based Visual Saliency", NIPS, Vol.19, pp.545-552 (2006)
ここで、上記の文献1は、網膜神経節細胞の受容野の構造であるcenter-surround構造に基づいたモデルに係るものであり、文献2は、視覚的特徴上にマルコフ連鎖を定義したグラフベースモデルに係るものである。
Reference 1… Itti, Koch & Niebur, “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”, IEEE PAMI, Vol.20, No.11, pp.1254-1259 (1998)
Reference 2: J. Harel, C. Koch, and P. Perona, "Graph-Based Visual Saliency", NIPS, Vol.19, pp.545-552 (2006)
Here, the above-mentioned document 1 relates to a model based on a center-surround structure which is a structure of a receptive field of a retinal ganglion cell, and document 2 is a graph base in which a Markov chain is defined on a visual feature. It concerns the model.
観察条件を考慮した顕著性マップ生成部720の処理の概念図の例を図9に示す。まず、空間的CAMの順変換504によって変換された画像505は、以下のように明度成分(Lightness)と色成分(Redness-Greenness、Yellowness-Blueness)へ分解される。 FIG. 9 shows an example of a conceptual diagram of processing of the saliency map generation unit 720 in consideration of observation conditions. First, the image 505 transformed by the spatial CAM forward transformation 504 is decomposed into lightness components (Lightness) and color components (Redness-Greenness, Yellowness-Blueness) as follows.
次に、視覚的特徴の抽出を行うために、画像505に対して空間フィルタリング910を行って多重解像度画像920を生成し、特徴量マップ930を生成する。人間の視覚の空間特性として、明度成分(Lightness)に対してはバンドパスの特性、色成分(Redness-Greenness、Yellowness-Blueness)に対してはローパスの特性を示すことが知られている。 Next, in order to extract visual features, spatial filtering 910 is performed on the image 505 to generate a multi-resolution image 920, and a feature amount map 930 is generated. As spatial characteristics of human vision, it is known that bandpass characteristics are exhibited for lightness components, and lowpass characteristics are exhibited for color components (Redness-Greenness, Yellowness-Blueness).
明度成分と色成分に対する人間の視覚のコントラスト感度関数(Contrast Sensitivity Functions)の例を図11に示す。図11(a)は、Lightness成分に対するコントラスト感度関数を示しており、バンドパスの特性を示している。ここで、横軸は空間周波数[cycles per degree]、縦軸はコントラスト感度を示している。各空間周波数において、コントラスト感度関数よりコントラスト感度が高い領域は明るさの空間的変化を視覚が区別できない領域を示し、コントラスト感度よりコントラスト感度が低い領域は明るさの空間的変化を視覚が区別できることを示している。同様に、図11(b)はRedness-Greenness成分に対するコントラスト感度関数、図11(c)はYellowness-Blueness成分に対するコントラスト感度関数、をそれぞれ示しており、それぞれローパスの特性を示している。人間の視覚のコントラスト感度関数は、Lightness成分、Redness-Greenness成分、Yellowness-Blueness成分に対して異なっているだけでなく、順応輝度や観察距離などに対しても特性が変化することが知られている。例えば、Lightness成分に対するコントラスト感度を様々なパラメータで表現したDalyのモデルは、放射状空間周波数をρ[cycles per degree]、方向をθ[degrees]、順応輝度をl[cd/m2]、画像サイズをi2[visual degrees]、観察距離をd[m]、離心率をeとすれば、以下の式によって示される。 An example of human visual contrast sensitivity function (Contrast Sensitivity Functions) for the lightness component and the color component is shown in FIG. FIG. 11A shows the contrast sensitivity function for the Lightness component, and shows the characteristics of the bandpass. Here, the horizontal axis represents the spatial frequency [cycles per degree], and the vertical axis represents the contrast sensitivity. At each spatial frequency, areas with higher contrast sensitivity than the contrast sensitivity function indicate areas where the spatial change in brightness cannot be distinguished, and areas with lower contrast sensitivity than the contrast sensitivity can visually distinguish between spatial changes in brightness. Is shown. Similarly, FIG. 11B shows a contrast sensitivity function with respect to the Redness-Greenness component, and FIG. 11C shows a contrast sensitivity function with respect to the Yellowness-Blueness component. The contrast sensitivity function of human vision is known not only to be different for the Lightness component, Redness-Greenness component, and Yellowness-Blueness component, but also to change characteristics with respect to adaptation brightness and observation distance. Yes. For example, Daly's model that expresses the contrast sensitivity for the Lightness component with various parameters, the radial spatial frequency is ρ [cycles per degree], the direction is θ [degrees], the adaptation luminance is l [cd / m 2 ], and the image size Where i 2 [visual degrees], the observation distance is d [m], and the eccentricity is e.
ここで、Pはコントラスト感度関数の絶対的なピーク感度である。ra、re、rθは遠近調節、離心率、方向に起因する変化であり、以下の式によって示される。 Here, P is the absolute peak sensitivity of the contrast sensitivity function. ra, re, and rθ are changes caused by accommodation, eccentricity, and direction, and are expressed by the following equations.
関数S1は画像サイズと順応輝度の効果であり、以下の式によって示される。 The function S 1 is an effect of the image size and the adaptation luminance, and is expressed by the following equation.
式(14)を適用し、2次元周波数平面上のコントラスト感度関数を示した例を図12に示す。図12(b)は、図12(a)の2次元周波数平面の垂直軸を反転させた図である。2次元周波数平面上のコントラスト感度関数は、水平方向と垂直方向でコントラスト感度が高くなる異方性バンドパス特性を示していることがわかる。 An example in which Expression (14) is applied and the contrast sensitivity function on the two-dimensional frequency plane is shown in FIG. FIG. 12B is a diagram obtained by inverting the vertical axis of the two-dimensional frequency plane of FIG. It can be seen that the contrast sensitivity function on the two-dimensional frequency plane shows an anisotropic bandpass characteristic that increases the contrast sensitivity in the horizontal and vertical directions.
式(14)を適用し、順応輝度に応じたコントラスト感度関数の変化を示した例を図13(a)に示す。順応輝度が大きくなるほどコントラスト感度が高くなることがわかる。同様に、式(14)を適用し、観察距離に起因する遠近調節に応じたコントラスト感度関数の変化を示した例を図13(b)に示す。観察距離が大きくなると僅かにコントラスト感度が高くなることがわかる。 FIG. 13A shows an example in which the expression (14) is applied and changes in the contrast sensitivity function according to the adaptation luminance are shown. It can be seen that the contrast sensitivity increases as the adaptation luminance increases. Similarly, FIG. 13B shows an example in which Expression (14) is applied and changes in the contrast sensitivity function according to the perspective adjustment caused by the observation distance are shown. It can be seen that the contrast sensitivity slightly increases as the observation distance increases.
以下、明度、色、エッジ方向の特徴に対する特徴量マップの生成について説明する。人間の視覚の空間特性から、明度に対する特徴量マップ931にはバンドパスの特性を有するDoG(Difference of Gaussians)フィルタが有効であり、色に対する特徴量マップ932にはローパスの特性を有するGaussianフィルタが有効であることがわかる。また、エッジ方向に対する特徴量マップ933には、Gaborフィルタとcenter-surround構造を考慮したDifference of Gaborsフィルタが有効であることがわかる。ここで、Gaborフィルタは、正弦波とGaussian関数の積によって定義される。 Hereinafter, generation of a feature amount map for features of brightness, color, and edge direction will be described. From the spatial characteristics of human vision, a DoG (Difference of Gaussians) filter having a bandpass characteristic is effective for the feature quantity map 931 for lightness, and a Gaussian filter having a lowpass characteristic for the feature quantity map 932 for color. It turns out that it is effective. It can also be seen that the feature map 933 with respect to the edge direction is effective using a Gabor filter and a Difference of Gabors filter in consideration of a center-surround structure. Here, the Gabor filter is defined by the product of a sine wave and a Gaussian function.
明度に対する特徴量マップ931を生成するためには、次のような処理を行う。即ち、Lightness成分に対してスケールの異なるGaussianフィルタ911を適用して明度に対する多重解像度画像921を生成し、スケールの異なる多重解像度画像921の差分からDoG(Difference of Gaussians)フィルタを適用した特徴量マップ931を生成する。 In order to generate the feature amount map 931 for lightness, the following processing is performed. In other words, a Gaussian filter 911 having a different scale is applied to the Lightness component to generate a multiresolution image 921 for the lightness, and a feature map in which a DoG (Difference of Gaussians) filter is applied from the difference between the multiresolution images 921 having different scales. 931 is generated.
色に対する特徴量マップ932を生成するためには、次のような処理を行う。即ち、Redness-Greenness成分とYellowness-Blueness成分に対してスケールの異なるGaussianフィルタ912を適用して、Redness-Greennessに対する多重解像度画像922、Yellowness-Bluenessに対する多重解像度画像922をそれぞれ生成する。色に対する特徴量マップ932はローパス特性であることから、Redness-Greennessに対する多重解像度画像922、Yellowness-Bluenessに対する多重解像度画像922をそれぞれ、Redness-Greennessに対する特徴量マップ932、Yellowness-Bluenessに対する特徴量マップ932としてそのまま利用する。 In order to generate the feature map 932 for the color, the following processing is performed. That is, the Gaussian filter 912 having a different scale is applied to the Redness-Greenness component and the Yellowness-Blueness component to generate a multiresolution image 922 for Redness-Greenness and a multiresolution image 922 for Yellowness-Blueness, respectively. Since the feature map 932 for color has low-pass characteristics, the multi-resolution image 922 for Redness-Greenness and the multi-resolution image 922 for Yellowness-Blueness are respectively represented by the feature map 932 for Redness-Greenness and the feature map for Yellowness-Blueness. It is used as it is as 932.
エッジ方向に対する特徴量マップ933を生成するためには、次のような処理を行う。即ち、Lightness成分に対してスケールの異なるGaborフィルタ913(θ∈{0°,45°,90°,135°})を適用してエッジ方向に対する多重解像度画像923を生成し、スケールの異なる多重解像度画像923の差分からDifference of Gaborsフィルタを適用した各方向の特徴量マップ933を生成する。 In order to generate the feature amount map 933 for the edge direction, the following processing is performed. That is, a Gabor filter 913 (θ∈ {0 °, 45 °, 90 °, 135 °}) having a different scale is applied to the Lightness component to generate a multi-resolution image 923 for the edge direction, and a multi-resolution having a different scale. A feature amount map 933 in each direction to which the Difference of Gabors filter is applied is generated from the difference between the images 923.
ここで、人間の視覚特性に基づいた特徴量マップを生成するために、Lightness成分に対するDoGフィルタ、Redness-Greenness成分とYellowness-Blueness成分に対するGaussianフィルタ、Lightness成分に対するGaborフィルタといった各空間フィルタは、空間周波数領域においてLightness成分、Redness-Greenness成分、およびYellowness-Blueness成分に対するコントラスト感度関数を上限とする空間フィルタ特性となるように各パラメータを設定する。各特徴量マップを生成するためのフィルタは1つに限定されることはなく、複数のフィルタから構成されていても構わない。つまり、Lightness成分に対するDoGフィルタは、Lightness成分に対するコントラスト感度関数を上限とするという条件を満たしていれば、パラメータの異なる複数のDoGフィルタを利用しても構わない。同様に、Redness-Greenness成分とYellowness-Blueness成分に対するGaussianフィルタ、Lightness成分に対するGaborフィルタについても、パラメータの異なる複数のフィルタを利用することができる。 Here, in order to generate a feature map based on human visual characteristics, each spatial filter such as DoG filter for Lightness component, Gaussian filter for Redness-Greenness component and Yellowness-Blueness component, Gabor filter for Lightness component, In the frequency domain, each parameter is set so as to have a spatial filter characteristic whose upper limit is a contrast sensitivity function for the Lightness component, the Redness-Greenness component, and the Yellowness-Blueness component. The number of filters for generating each feature map is not limited to one, and may be composed of a plurality of filters. That is, the DoG filter for the Lightness component may use a plurality of DoG filters having different parameters as long as the condition that the contrast sensitivity function for the Lightness component is set as the upper limit is satisfied. Similarly, a plurality of filters having different parameters can be used for the Gaussian filter for the Redness-Greenness component and the Yellowness-Blueness component and the Gabor filter for the Lightness component.
次に、スケールの異なる特徴量マップ930から特徴別マップ940を生成する。明度に対する特徴量マップ931はスケールの異なるDoGフィルタを適用した複数のマップから構成されるため、各マップを正規化し、画素毎に算術平均を求めることにより、明度に対する特徴別マップ941を生成することができる。 Next, a feature-specific map 940 is generated from the feature amount map 930 having a different scale. Since the feature map 931 for brightness is composed of a plurality of maps to which DoG filters of different scales are applied, each map is normalized, and an arithmetic average is obtained for each pixel, thereby generating a feature-specific map 941 for brightness. Can do.
色に対する特徴量マップ932(Redness-Greenness、およびYellowness-Blueness)はスケールの異なるGaussianフィルタを適用した複数のマップから構成されるため、各マップを正規化し、画素毎に算術平均を求めることにより、色に対する特徴別マップ942を生成することができる。 Since the feature amount map 932 (Redness-Greenness and Yellowness-Blueness) for colors is composed of a plurality of maps to which Gaussian filters with different scales are applied, each map is normalized, and an arithmetic average is obtained for each pixel. A feature-specific map 942 for colors can be generated.
同様に、エッジ方向に対する特徴量マップ933(θ∈{0°,45°,90°,135°})はスケールの異なるDifference of Gaborsフィルタを適用した複数のマップから構成されるため、各マップを正規化し、画素毎に算術平均を求めることにより、エッジ方向に対する特徴別マップ943を生成することができる。 Similarly, the feature amount map 933 (θ∈ {0 °, 45 °, 90 °, 135 °}) with respect to the edge direction is composed of a plurality of maps to which the Difference of Gabors filters having different scales are applied. By normalizing and calculating an arithmetic average for each pixel, a feature-specific map 943 for the edge direction can be generated.
次に、特徴別マップ940から顕著性マップ730を生成する。明度に対する特徴別マップ941、色に対する特徴別マップ942、エッジ方向に対する特徴別マップ943は特徴毎に1つのマップになっているため、画素毎に算術平均を求めることにより、顕著性マップ730を生成することができる。ここで、顕著性マップ730は、特徴別マップの算術平均によって生成することに限らず、他の方法を採用しても良い。例えば、特徴別マップに異なる重み付けを行って加重平均を求めることで顕著性マップ730を生成するようにしても良い。 Next, a saliency map 730 is generated from the feature-specific map 940. Since the feature-specific map 941 for brightness, the feature-specific map 942 for color, and the feature-specific map 943 for edge direction are one map for each feature, a saliency map 730 is generated by calculating the arithmetic average for each pixel. can do. Here, the saliency map 730 is not limited to being generated by the arithmetic average of the feature-specific map, and other methods may be employed. For example, the saliency map 730 may be generated by performing different weighting on the feature-specific map and obtaining a weighted average.
なお、本実施形態では、明度、色、エッジ方向の3つの特徴から顕著性マップを生成する例を示したが、特徴の種類は明度、色、エッジ方向に限定されるものではなく、運動方向、フリッカなどを含んでいても構わない。また、色に対する特徴量マップ932については、Redness-Greenness成分とYellowness-Blueness成分に分解して各特徴量マップを求めたが、空間フィルタを適用した際に各色成分が無彩色を超えて反対色成分になる可能性がある場合には、Redness-Greenness成分をRedness成分とGreenness成分、Yellowness-Blueness成分をYellowness成分とBlueness成分へ分解して空間フィルタを適用しても構わない。 In this embodiment, an example in which a saliency map is generated from three features of brightness, color, and edge direction has been shown. However, the type of feature is not limited to brightness, color, and edge direction, and the direction of motion , Flicker and the like may be included. Also, regarding the feature map 932 for the color, each feature map was obtained by decomposing the feature into a redness-greenness component and a yellowness-blueness component. However, when a spatial filter is applied, each color component exceeds the achromatic color and is the opposite color. If there is a possibility of becoming a component, the spatial filter may be applied by decomposing the Redness-Greenness component into a Redness component and a Greenness component, and the Yellowness-Blueness component into a Yellowness component and a Blueness component.
[異なる観察条件を考慮したカラーマッチングの処理の流れ]
異なる観察条件を考慮したカラーマッチングの処理について、該処理のフローチャートを示す図14を用いて説明する。
[Flow of color matching processing considering different viewing conditions]
A color matching process considering different observation conditions will be described with reference to FIG. 14 showing a flowchart of the process.
ステップS201では、CPU101は、色変換の対象となる画像500をメインメモリ102に取得する。以下では画像500を含め、データの取得元については特定の取得元に限らず、HDD105から取得しても良いし、画像入力デバイス113から取得しても良いし、ネットワークI/F104を介して外部の装置から取得しても良い。 In step S <b> 201, the CPU 101 acquires an image 500 that is a target of color conversion in the main memory 102. In the following, the data acquisition source including the image 500 is not limited to a specific acquisition source, but may be acquired from the HDD 105, acquired from the image input device 113, or externally via the network I / F 104. You may acquire from the apparatus of.
ステップS202では、CPU101は、画像500に関連付けられたプロファイル(ソースプロファイル)207、出力する対象デバイスに関連付けられたプロファイル(デスティネーションプロファイル)を取得する。ここで、ソースプロファイルにはデバイス用のプロファイル、標準色空間が使用される作業色空間用のプロファイルなどが指定される。 In step S202, the CPU 101 acquires a profile (source profile) 207 associated with the image 500 and a profile (destination profile) associated with the target device to be output. Here, a device profile, a working color space profile in which a standard color space is used, and the like are designated as the source profile.
次に、ステップS203では、CPU101は、入力側の観察条件パラメータ502及び503、出力側の観察条件パラメータ510及び511を取得する。ステップS204では、CPU101は、画像500をステップS202で取得したプロファイル207によってデバイス非依存な画像501へ変換する。 Next, in step S203, the CPU 101 acquires the observation condition parameters 502 and 503 on the input side and the observation condition parameters 510 and 511 on the output side. In step S204, the CPU 101 converts the image 500 into a device-independent image 501 using the profile 207 acquired in step S202.
ステップS205では、CPU101は、入力側の観察条件パラメータ502及び503を考慮して、デバイス非依存な画像501を観察条件非依存な画像505へ変換(空間的CAMの順変換504)する。 In step S205, the CPU 101 converts the device-independent image 501 into the observation condition-independent image 505 (spatial CAM forward conversion 504) in consideration of the input-side observation condition parameters 502 and 503.
ステップS206では、CPU101は、入力側の観察条件パラメータ503を考慮して、画像505から顕著性マップ730(S)を生成する(詳細は後述する)。ステップS207では、CPU101は、対象となるデバイスに対する複数の色域マッピング701〜703を取得する。ここで、対象となるデバイスに対する複数の色域マッピング701〜703は、対象となるデバイスの色域に対して適用される異なった色域マッピングである。複数の色域マッピングの数は2つ以上であれば幾つであっても構わない。例えば、対象となるデバイスのICCプロファイルのレンダリング・インテントに基づいて格納されている「知覚的(Perceptual)」(GMA0)、「相対的な色域を維持(Relative Colorimetric)」(GMA1)、「彩度(Saturation)」(GMA2)などに相当するJCH空間上での色域マッピングアルゴリズムが利用される。 In step S206, the CPU 101 generates a saliency map 730 (S) from the image 505 in consideration of the observation condition parameter 503 on the input side (details will be described later). In step S207, the CPU 101 acquires a plurality of color gamut mappings 701 to 703 for the target device. Here, the plurality of color gamut mappings 701 to 703 for the target device are different color gamut mapping applied to the color gamut of the target device. The number of the plurality of color gamut mappings may be any number as long as it is two or more. For example, “Perceptual” (GMA0), “Relative Colorimetric” (GMA1), “GMA1”, “Relative Colorimetric” stored based on the rendering intent of the ICC profile of the target device A gamut mapping algorithm on the JCH space corresponding to “Saturation” (GMA2) or the like is used.
ステップS208では、CPU101は、ステップS207で取得した複数の色域マッピング(GMA0、GMA1、GMA2)のうち未選択のうちの1つを選択する。そしてCPU101は、選択した色域マッピングを画像505に対して適用することで、色域マッピング後の画像を生成する。 In step S208, the CPU 101 selects one of unselected color gamut mappings (GMA0, GMA1, and GMA2) acquired in step S207. The CPU 101 applies the selected color gamut mapping to the image 505 to generate an image after the color gamut mapping.
ステップS209では、CPU101は、出力側の観察条件パラメータ510を考慮して、ステップS208で生成した色域マッピング後の画像から顕著性マップを生成する(ステップS206と同じ処理であり、詳細は後述する)。 In step S209, the CPU 101 generates a saliency map from the image after the color gamut mapping generated in step S208 in consideration of the observation condition parameter 510 on the output side (this is the same processing as step S206, and details will be described later). ).
ステップS210では、CPU101は、色域マッピング後の画像に対する顕著性マップと、色域マッピング前の画像505に対する顕著性マップ730と、の差分画像を算出する。 In step S210, the CPU 101 calculates a difference image between the saliency map for the image after color gamut mapping and the saliency map 730 for the image 505 before color gamut mapping.
ステップS211では、CPU101は、ステップS207で取得した複数の色域マッピングの全てをステップS208で選択したか否かを判断する。この判断の結果、ステップS207で取得した複数の色域マッピングの全てをステップS208で選択した場合には、処理はステップS212に進み、未選択の色域マッピングが残っている場合には、処理はステップS208に戻る。ステップS212に処理が進んだ時点で、色域マッピング後の画像711〜713(G0、G1、G2)、画像711〜713(G0、G1、G2)に対応する顕著性マップ731〜733(S0、S1、S2)、画像711〜713に対する顕著性マップ731〜733と画像505に対する顕著性マップ730との差分画像(D0、D1、D2)が得られている。 In step S211, the CPU 101 determines whether all of the plurality of color gamut mappings acquired in step S207 have been selected in step S208. As a result of this determination, if all of the plurality of color gamut mappings acquired in step S207 are selected in step S208, the process proceeds to step S212. If an unselected color gamut mapping remains, the process proceeds to step S212. The process returns to step S208. When the process proceeds to step S212, the saliency maps 731 to 733 (S0, G2) and the images 711 to 713 (G0, G1, G2) after the color gamut mapping and the images 711 to 713 (G0, G1, G2) are processed. S1, S2), difference images (D0, D1, D2) between the saliency maps 731 to 733 for the images 711 to 713 and the saliency map 730 for the image 505 are obtained.
ステップS212でCPU101は、画像711〜713(G0、G1、G2)と差分画像(D0、D1、D2)とを用いて上記の式(5)〜(7)(または式(8)〜(10))を計算することで、異なる観察条件を考慮した空間的GMA適用後の画像509(Gx)を算出する。 In step S212, the CPU 101 uses the images 711 to 713 (G0, G1, G2) and the difference images (D0, D1, D2) and the above equations (5) to (7) (or equations (8) to (10). )), The image 509 (Gx) after applying the spatial GMA in consideration of different observation conditions is calculated.
ステップS213では、CPU101は、出力側の観察条件パラメータ510及び511を考慮して、異なる観察条件を考慮した空間的GMA適用後の画像509をデバイス非依存な画像513へ変換する。ステップS214では、CPU101は、対象となるデバイスのプロファイルを適用し、デバイス非依存な画像513を対象デバイスに依存した画像514へ変換する。 In step S213, the CPU 101 converts the image 509 after applying the spatial GMA considering different observation conditions into a device-independent image 513 in consideration of the output-side observation condition parameters 510 and 511. In step S214, the CPU 101 applies the profile of the target device, and converts the device-independent image 513 into an image 514 depending on the target device.
[空間的CAM順変換の処理の流れ]
上記のステップS205における処理の詳細について、図15のフローチャートを用いて説明する。ステップS101では、入力画像と、入力側の観察条件パラメータ503から観察者の距離Dと、を入力する。例えば、図18に示すように、モニタ画面や印刷物と観察者との距離は0.4から0.7mであるが、ユーザは、任意の距離Dを入力することができる。ここでは、D=0.5mを用いる。また、後述するように、画像と観察者との距離は、入力側と出力側とで異なる値を設定することができる。
[Processing flow of spatial CAM order conversion]
Details of the processing in step S205 will be described with reference to the flowchart of FIG. In step S101, the input image and the distance D of the observer are input from the observation condition parameter 503 on the input side. For example, as shown in FIG. 18, the distance between the monitor screen or printed matter and the observer is 0.4 to 0.7 m, but the user can input an arbitrary distance D. Here, D = 0.5 m is used. Further, as will be described later, the distance between the image and the observer can be set to different values on the input side and the output side.
ステップS102では、CPU101は、視野角に基づき入力側領域を算出する。つまり、入力画像と観察者との距離Dから刺激領域61、隣接領域62、背景領域63の直径を計算する。図19に示すように、視線は画像の表面にほぼ垂直に交わると考えることができる。従って、刺激領域61、隣接領域62、背景領域63の直径を以下の式によって計算する。なお、D=0.5[m]の場合、Da=17[mm]、Dp=35[mm]、Db=87[mm]である。 In step S102, the CPU 101 calculates an input side region based on the viewing angle. That is, the diameters of the stimulation area 61, the adjacent area 62, and the background area 63 are calculated from the distance D between the input image and the observer. As shown in FIG. 19, it can be considered that the line of sight intersects the surface of the image substantially perpendicularly. Accordingly, the diameters of the stimulation region 61, the adjacent region 62, and the background region 63 are calculated by the following formula. When D = 0.5 [m], Da = 17 [mm], Dp = 35 [mm], and Db = 87 [mm].
ステップS103では、CPU101は、入力側の観察条件パラメータ503から入力画像の解像度R[ppi]を入力する。入力画像が、例えば、モニタに表示された画像(以下、モニタ画像)であればR=72ppi、印刷画像であればプリンタの解像度R=400ppiなどである。実際には、アプリケーションやデバイスドライバが指定する解像度、または、ズーム比率に依存する。 In step S103, the CPU 101 inputs the resolution R [ppi] of the input image from the observation condition parameter 503 on the input side. For example, if the input image is an image displayed on a monitor (hereinafter referred to as a monitor image), R = 72 ppi, and if the input image is a print image, the printer resolution R = 400 ppi. Actually, it depends on the resolution or zoom ratio specified by the application or device driver.
ステップS104では、CPU101は、以下の式により、刺激領域61、隣接領域62、背景領域63の直径に相当する画像上の画素数を算出して、入力側のローパスフィルタ(Y LOW-PASS)607を設定する。つまり、入力側のローパスフィルタ607の通過範囲に関する画素数を計算する。 In step S <b> 104, the CPU 101 calculates the number of pixels on the image corresponding to the diameters of the stimulation area 61, the adjacent area 62, and the background area 63 by the following formula, and inputs the low-pass filter (Y LOW-PASS) 607. Set. That is, the number of pixels related to the passing range of the input-side low-pass filter 607 is calculated.
D=0.5m、R=72ppiの場合、Dap=48.2pixels、Dpp=99.0pixels、Dbp=246.6pixelsになるが、ここでは、簡略化のため、背景領域63の直径画素数Dbpが以下の式の2σに等しくなるように入力側のローパスフィルタ607の関数f(x, y)を動的に決定する。なお、2σ=Dbpにするが、σは距離Dと解像度Rによって変化し、入力側と出力側で異なる値を設定することができる。 In the case of D = 0.5 m and R = 72 ppi, Dap = 48.2 pixels, Dpp = 99.0 pixels, and Dbp = 246.6 pixels. Here, for simplification, the diameter pixel number Dbp of the background region 63 is The function f (x, y) of the low-pass filter 607 on the input side is dynamically determined so as to be equal to 2σ in the following expression. Although 2σ = Dbp, σ varies depending on the distance D and the resolution R, and different values can be set on the input side and the output side.
ステップS105では、CPU101は、入力側の観察条件パラメータ502及び503を入力する。入力側の観察条件パラメータは、シリアルバスI/F108に接続された計測器(不図示)の指示値を入力してもよいし、ユーザがキーボード111やマウス112を用いて入力してもよい。 In step S105, the CPU 101 inputs observation condition parameters 502 and 503 on the input side. As the observation condition parameter on the input side, an instruction value of a measuring instrument (not shown) connected to the serial bus I / F 108 may be input, or the user may input using the keyboard 111 or the mouse 112.
入力する入力側の観察条件パラメータは、順応領域の白色点のXYZ値(Xw, Yw, Zw)、順応領域の白色点の絶対輝度Lw[cd/m2]、周囲領域64の絶対輝度Ls[cd/m2]である。順応領域の白色点は、モニタ画像の場合はモニタ白色点であり、印刷物の場合は印刷物の下地の白色のXYZ値と、(印刷物上の照度[lux]/π)によって計算する。 The input observation condition parameters are the XYZ values (Xw, Yw, Zw) of the white point of the adaptation area, the absolute brightness Lw [cd / m 2 ] of the white point of the adaptation area, and the absolute brightness Ls [ cd / m 2 ]. The white point of the adaptation area is a monitor white point in the case of a monitor image, and in the case of a printed material, the white point of the printed material is calculated by the white XYZ value of the printed material and (illuminance [lux] / π on the printed material).
一方、周囲領域64の絶対輝度Lsは、厳密に言えば、注目画素に対して視野角10度の外側の領域の絶対輝度であるが、簡単化のため、モニタ画像の場合はモニタ周囲の絶対輝度、印刷物の場合は印刷物周囲の絶対輝度にする。なお、絶対輝度は、入力側と出力側の観察条件に応じて異なる値を設定することができる。 On the other hand, strictly speaking, the absolute luminance Ls of the surrounding region 64 is the absolute luminance of the region outside the viewing angle of 10 degrees with respect to the target pixel, but for the sake of simplicity, in the case of a monitor image, the absolute luminance around the monitor For brightness and printed matter, use absolute brightness around the printed matter. The absolute luminance can be set to a different value depending on the observation conditions on the input side and the output side.
ステップS106では、CPU101は、入力側の周囲条件を決定する。周囲条件の決定は、例えば、以下に従う。 In step S106, the CPU 101 determines the ambient condition on the input side. The determination of the ambient conditions follows, for example:
if (0.2 ≦ Ls/Lw) Average Surround;
if (0.06 < Ls/Lw < 0.2) Dim Surround;
if (Ls/Lw ≦ 0.06) Dark Surround;
なお、LsとLwが入力側と出力側で異なる場合は、周囲条件を入力側と出力側で独立に決定する。また、周囲条件が既知の場合、ユーザのキーボード111やマウス112を用いたマニュアル入力によって、直接、周囲条件を指定することができる。
if (0.2 ≤ Ls / Lw) Average Surround;
if (0.06 <Ls / Lw <0.2) Dim Surround;
if (Ls / Lw ≤ 0.06) Dark Surround;
If Ls and Lw are different between the input side and the output side, the ambient conditions are determined independently on the input side and the output side. Further, when the ambient condition is known, the ambient condition can be directly designated by manual input using the user's keyboard 111 or mouse 112.
ステップS107では、CPU101は、画像500から、ソース側のICCプロファイルやWCSプロファイルから作成したデバイスモデルの順変換により入力側の画像501を生成する。ステップS108では、CPU101は、画像501のY成分(輝度成分)に、ローパスフィルタ607によるフィルタ処理を施して、入力側ローパス画像を生成する。 In step S107, the CPU 101 generates an input-side image 501 from the image 500 by forward conversion of a device model created from the source-side ICC profile or WCS profile. In step S <b> 108, the CPU 101 performs filter processing by the low-pass filter 607 on the Y component (luminance component) of the image 501 to generate an input-side low-pass image.
ステップS109では、CPU101は、画像501において未選択の画素を注目画素に設定する。画素の選択順については特定の選択順に限らないが、例えばラスタスキャン順に画素を選択するようにしても良い。 In step S109, the CPU 101 sets an unselected pixel in the image 501 as a target pixel. The pixel selection order is not limited to a specific selection order. For example, the pixels may be selected in a raster scan order.
ステップS110では、CPU101は、入力側ローパス画像における注目画素の輝度値Yを取得し、上記の式(1)により、注目画素に対する背景領域63の相対輝度Ybと、順応領域の絶対輝度Laを算出する。 In step S110, the CPU 101 acquires the luminance value Y of the pixel of interest in the input-side low-pass image, and calculates the relative luminance Yb of the background region 63 with respect to the pixel of interest and the absolute luminance La of the adaptation region using the above equation (1). To do.
ステップS111では、CPU101は、上記の算出部604、605、606が行うものとして説明した各処理を実行することで、空間的CAMの順変換504に用いるパラメータを算出する。ステップS112では、CPU101は、空間的CAMの順変換504で行うものとして説明した各処理を実行することで、画像501の注目画素のXYZ値をJCH値に順変換する。 In step S <b> 111, the CPU 101 calculates parameters used for the spatial CAM forward conversion 504 by executing the processes described as being performed by the calculation units 604, 605, and 606. In step S <b> 112, the CPU 101 forward-converts the XYZ value of the target pixel of the image 501 into a JCH value by executing each process described as being performed in the spatial CAM forward conversion 504.
ステップS113では、CPU101は、画像501における全ての画素を注目画素として設定したか否かを判断する。この判断の結果、画像501における全ての画素を注目画素として設定した場合には、図15のフローチャートに従った処理は完了する。一方、画像501における画素のうち注目画素として設定していない未選択の画素が残っている場合には、処理はステップS109に戻る。図15のフローチャートに従った処理が完了すると、JCHデータとしての画像505が完成する。なお、入力側観察距離、入力側解像度、入力側観察条件は、入力側プロファイルから取得してもよい。 In step S113, the CPU 101 determines whether or not all the pixels in the image 501 are set as the target pixel. As a result of this determination, when all the pixels in the image 501 are set as the target pixel, the processing according to the flowchart of FIG. 15 is completed. On the other hand, if there remains an unselected pixel that has not been set as the pixel of interest among the pixels in the image 501, the process returns to step S109. When the processing according to the flowchart of FIG. 15 is completed, an image 505 as JCH data is completed. The input side observation distance, the input side resolution, and the input side observation conditions may be acquired from the input side profile.
[空間的CAM逆変換の処理の流れ]
上記のステップS213における処理の詳細について、図16のフローチャートを用いて説明する。なお、図16のフローチャートは、入力側デバイスと同じ解像度のJCHデータを、解像度が異なる出力画像データに変換する処理を示している。
[Processing flow of spatial CAM inverse transform]
Details of the processing in step S213 will be described with reference to the flowchart of FIG. Note that the flowchart in FIG. 16 illustrates processing for converting JCH data having the same resolution as that of the input side device into output image data having a different resolution.
まず、ステップS101〜S106の処理と同様に、出力画像と観察者の距離Dを入力し(ステップS114)、視野角に基づき出力側領域を算出し(ステップS115)、出力画像の解像度R[ppi]を入力する(ステップS116)。そして、出力側のローパスフィルタ(Y LOW-PASS)607を設定し(ステップS117)、出力側の観察条件パラメータ510及び511を入力し(ステップS118)、出力側の周囲条件を決定する(ステップS119)。なお、距離D、解像度R、出力側順応領域の各パラメータは、入力側と出力側で異なる値を設定することができる。 First, similarly to the processing in steps S101 to S106, the distance D between the output image and the observer is input (step S114), the output side region is calculated based on the viewing angle (step S115), and the output image resolution R [ppi ] Is input (step S116). Then, an output-side low-pass filter (Y LOW-PASS) 607 is set (step S117), output-side observation condition parameters 510 and 511 are input (step S118), and output-side ambient conditions are determined (step S119). ). It should be noted that the distance D, resolution R, and output side adaptation area parameters can be set to different values on the input side and the output side.
ステップS120では、CPU101は上記の解像度変換部806として機能し、画像501の解像度を出力側解像度に変換する。CPU101は、画像501の注目画素のY値と入力側ローパス画像の注目画素のY値を比較して解像度の変換方法を変更する。例えば、画像501のY値と入力側ローパス画像のY値とが等しい場合はニアレストネイバ法を用い、それらY値が異なる場合はバイキュービック法を用いて、処理の高速化と、解像度変換後の画像の画質向上を図る。解像度変換方法の組み合わせは、ニアレストネイバ法とバイキュービック法に限らず、バイリニア法などの他の解像度変換方法を組み合わせても構わないし、上記のY値の比較を行わず、単一の解像度変換方法を用いても構わない。 In step S120, the CPU 101 functions as the resolution conversion unit 806 described above, and converts the resolution of the image 501 to the output-side resolution. The CPU 101 changes the resolution conversion method by comparing the Y value of the target pixel of the image 501 with the Y value of the target pixel of the input low-pass image. For example, when the Y value of the image 501 is equal to the Y value of the input low-pass image, the nearest neighbor method is used, and when these Y values are different, the bicubic method is used to increase the processing speed and the resolution conversion. To improve image quality. The combination of resolution conversion methods is not limited to the nearest neighbor method and the bicubic method, and other resolution conversion methods such as the bilinear method may be combined, and the above Y value comparison is not performed, and a single resolution conversion is performed. You may use the method.
ステップS121では、CPU101は、解像度変換部806が出力するものとして説明した画像のY成分(輝度成分)に、ローパスフィルタ607によるフィルタ処理を施して、出力側ローパス画像を生成する。 In step S <b> 121, the CPU 101 performs a filtering process using the low-pass filter 607 on the Y component (luminance component) of the image described as being output by the resolution conversion unit 806 to generate an output-side low-pass image.
ステップS122では、CPU101は解像度変換部801として機能し、解像度変換部806が使用した解像度変換方法と同じ解像度変換方法を用いて、画像509の解像度を出力側解像度に変換した画像802を生成する。 In step S122, the CPU 101 functions as the resolution conversion unit 801, and uses the same resolution conversion method as the resolution conversion method used by the resolution conversion unit 806 to generate an image 802 in which the resolution of the image 509 is converted to the output-side resolution.
ステップS123ではCPU101は、画像802において未選択の画素を注目画素に設定する。画素の選択順については特定の選択順に限らないが、例えばラスタスキャン順に画素を選択するようにしても良い。 In step S123, the CPU 101 sets an unselected pixel in the image 802 as a target pixel. The pixel selection order is not limited to a specific selection order. For example, the pixels may be selected in a raster scan order.
ステップS124ではCPU101は算出部608、609として機能し、出力側ローパス画像における注目画素の輝度値Yを取得して、式(1)により、注目画素に対する背景領域63の相対輝度Ybと、順応領域の絶対輝度Laを算出する。 In step S124, the CPU 101 functions as the calculation units 608 and 609, obtains the luminance value Y of the target pixel in the output-side low-pass image, and calculates the relative luminance Yb of the background region 63 with respect to the target pixel and the adaptation region using Equation (1). The absolute luminance La is calculated.
ステップS125ではCPU101は算出部604、605、606として機能し、逆変換に用いるパラメータを算出する。そしてステップS126ではCPU101は、空間的CAMの逆変換512で行うものとして説明した各処理を実行することで、画像802の注目画素のJCH値をXYZ値に逆変換する。 In step S125, the CPU 101 functions as the calculation units 604, 605, and 606, and calculates parameters used for inverse conversion. In step S126, the CPU 101 performs each process described as being performed by the spatial CAM inverse transform 512, thereby inversely transforming the JCH value of the target pixel of the image 802 into an XYZ value.
ステップS127では、CPU101は、画像802における全ての画素を注目画素として設定したか否かを判断する。この判断の結果、画像802における全ての画素を注目画素として設定した場合には、図16のフローチャートに従った処理は完了する。一方、画像802における画素のうち注目画素として設定していない未選択の画素が残っている場合には、処理はステップS123に戻る。図16のフローチャートに従った処理が完了すると、XYZデータとしての画像513が完成する。 In step S127, the CPU 101 determines whether all the pixels in the image 802 are set as the target pixel. As a result of this determination, when all the pixels in the image 802 are set as the target pixel, the processing according to the flowchart of FIG. 16 is completed. On the other hand, if there remains an unselected pixel that has not been set as the pixel of interest among the pixels in the image 802, the process returns to step S123. When the processing according to the flowchart of FIG. 16 is completed, an image 513 as XYZ data is completed.
[顕著性マップ生成の処理の流れ]
上記のステップS206(S209)における処理の詳細について、図17のフローチャートを用いて説明する。ステップS1301では、対象画像(入力側の場合は画像500、出力側の場合は画像514)に対する観察条件(順応輝度、白色点、背景輝度、周囲光レベル、解像度、観察距離)を取得する。ここで、対象画像に対する観察条件がプロファイルに予め格納されている場合には、プロファイルから観察条件を取得してもよい。
[Flow of saliency map generation processing]
Details of the processing in step S206 (S209) will be described with reference to the flowchart of FIG. In step S1301, observation conditions (adaptation luminance, white point, background luminance, ambient light level, resolution, observation distance) for the target image (image 500 on the input side, image 514 on the output side) are acquired. Here, when the observation conditions for the target image are stored in advance in the profile, the observation conditions may be acquired from the profile.
ステップS1302ではCPU101は、観察条件に基づいたコントラスト感度関数を決定する。ここで、コントラスト感度関数は順応輝度や観察距離に応じて変化するものとする。 In step S1302, the CPU 101 determines a contrast sensitivity function based on the observation conditions. Here, it is assumed that the contrast sensitivity function changes according to the adaptation brightness and the observation distance.
ステップS1303ではCPU101は、画像505において未選択の画素を選択画素として選択する。そしてCPU101は、選択画素のJCH値を上記の式(11)〜(13)に基づいてLightness成分、Redness-Greenness成分、Yellowness-Blueness成分へ分解する。 In step S1303, the CPU 101 selects an unselected pixel in the image 505 as a selected pixel. Then, the CPU 101 decomposes the JCH value of the selected pixel into a Lightness component, a Redness-Greenness component, and a Yellowness-Blueness component based on the above formulas (11) to (13).
ステップS1304ではCPU101は、画像505の全ての画素を選択画素として選択したか否かを判断する。この判断の結果、画像505の全ての画素を選択画素として選択した場合には、分解されたLightness成分、Redness-Greenness成分、Yellowness-Blueness成分から明度に対する特徴別マップ、色に対する特徴別マップ、エッジ方向に対する特徴別マップを生成するために、処理をステップS1308、S1312、S1316、S1322のそれぞれに進める。一方、選択画素として選択していない画素が残っている場合には、処理はステップS1303に戻る。 In step S1304, the CPU 101 determines whether all pixels of the image 505 have been selected as selected pixels. As a result of this determination, when all the pixels of the image 505 are selected as selected pixels, a feature-specific map for brightness, a feature-specific map for color, an edge from the decomposed Lightness component, Redness-Greenness component, Yellowness-Blueness component In order to generate the feature-specific map for the direction, the process proceeds to each of steps S1308, S1312, S1316, and S1322. On the other hand, if there remains a pixel that is not selected as the selected pixel, the process returns to step S1303.
明度に対する特徴別マップは、Lightness成分から生成される。ステップS1306ではCPU101は、Lightness成分に対してスケールの異なるDoG(Difference of Gaussians)フィルタを適用し、予め定められたスケール数の特徴量マップを生成する。ここで、DoGフィルタを適用した特徴量マップは、Gaussianフィルタの多重解像度画像を利用し、スケールの異なる多重解像度画像の差分から生成しても構わない。尚、DoGフィルタを適用した結果D(x,y,c,s)は、Gaussianフィルタの標準偏差をσ、GaussianフィルタをG(x, y, σ)、適用する画像をI(x, y)、適用する画像とGaussianフィルタの畳み込みをL(x, y, σ)、DoGフィルタのcenter-surround構造におけるcenter側の標準偏差をc、DoGフィルタのcenter-surround構造におけるsurround側の標準偏差をsとすれば、以下の式(21)〜(23)によって定義される。 A feature-specific map for lightness is generated from the Lightness component. In step S1306, the CPU 101 applies a DoG (Difference of Gaussians) filter having a different scale to the Lightness component, and generates a feature amount map having a predetermined number of scales. Here, the feature amount map to which the DoG filter is applied may be generated from a difference between multi-resolution images having different scales using a multi-resolution image of a Gaussian filter. Note that the result D (x, y, c, s) of applying the DoG filter is that the standard deviation of the Gaussian filter is σ, the Gaussian filter is G (x, y, σ), and the image to be applied is I (x, y) L (x, y, σ) for the convolution of the applied image and the Gaussian filter, c for the center side standard deviation in the center-surround structure of the DoG filter, and s for the standard deviation on the surround side in the center-surround structure of the DoG filter Then, it is defined by the following formulas (21) to (23).
スケールの異なるDoGフィルタは、空間周波数領域において上限が図11(a)(または図12、図13)のLightness成分に対するコントラスト感度関数を超えない1つまたは複数のDoGフィルタで構成されるものとする。ここで、コントラスト感度関数は空間周波数[cycles per degree]に対する特性として定義されることから、DoGフィルタのcenter-surround構造におけるcenter側の標準偏差c、DoGフィルタのcenter-surround構造におけるsurround側の標準偏差sは「対象画像(入力側の場合は画像500、出力側の場合は画像514)と観察者の間の距離(観察距離)」と「対象画像の解像度」に基づいて決定される。図11(a)のLightness成分に対するコントラスト感度関数は、空間周波数をf[cycles per degree]とすれば、例えば、以下の式によって定義される。 The DoG filters having different scales are composed of one or a plurality of DoG filters whose upper limit does not exceed the contrast sensitivity function for the lightness component in FIG. 11A (or FIGS. 12 and 13) in the spatial frequency domain. . Here, since the contrast sensitivity function is defined as a characteristic for the spatial frequency [cycles per degree], the standard deviation c on the center side in the center-surround structure of the DoG filter, the standard on the surround side in the center-surround structure of the DoG filter The deviation s is determined based on “the distance between the target image (the image 500 on the input side, the image 514 on the output side) and the observer (observation distance)” and “the resolution of the target image”. The contrast sensitivity function for the Lightness component in FIG. 11A is defined by the following equation, for example, where the spatial frequency is f [cycles per degree].
ここで、各パラメータは(a, b, c)=(75, 0.2, 0.8)である。次に、ステップS1307ではCPU101は、予め定められたスケール数に対してステップS1306の処理を実行したか否かを判断する。この判断の結果、予め定められたスケール数に対してステップS1306の処理を実行した場合には、処理はステップS1308に進む。一方、予め定められたスケール数に対してステップS1306の処理を実行していない場合には、処理はステップS1306に戻る。 Here, each parameter is (a, b, c) = (75, 0.2, 0.8). Next, in step S1307, the CPU 101 determines whether or not the process of step S1306 has been executed for a predetermined number of scales. As a result of the determination, when the process of step S1306 is executed for a predetermined number of scales, the process proceeds to step S1308. On the other hand, if the process of step S1306 has not been executed for a predetermined number of scales, the process returns to step S1306.
ステップS1308ではCPU101は、スケールの異なるDoGフィルタを適用した特徴量マップが生成されるため、各マップを正規化する。そしてステップS1309ではCPU101は、画素毎に算術平均を求めることにより、明度に対する特徴別マップを生成する。 In step S1308, the CPU 101 normalizes each map because a feature amount map to which a DoG filter having a different scale is applied is generated. In step S1309, the CPU 101 obtains an arithmetic average for each pixel to generate a feature-specific map for lightness.
色に対する特徴別マップは、Redness-Greenness成分とYellowness-Blueness成分から生成される。ステップS1312ではCPU101は、Redness-Greenness成分に対してスケールの異なるGaussianフィルタを適用し、予め定められたスケール数の特徴量マップを生成する。ここで、Gaussianフィルタを適用した結果は式(11)によって定義される。スケールの異なるGaussianフィルタは、空間周波数領域において上限が図11(b)のRedness-Greenness成分に対するコントラスト感度関数を超えない1つまたは複数のGaussianフィルタで構成されるものとする。ここで、コントラスト感度関数は空間周波数[cycles per degree]に対する特性として定義されることから、Gaussianフィルタの標準偏差σは「対象画像(入力側の場合は画像500、出力側の場合は画像514)と観察者の間の距離(観察距離)」と「対象画像の解像度」に基づいて決定される。図11(b)のRedness-Greenness成分に対するコントラスト感度特性は、空間周波数をf[cycles per degree]とすれば、例えば、以下の式によって定義される。 A feature-specific map for the color is generated from the Redness-Greenness component and the Yellowness-Blueness component. In step S1312, the CPU 101 applies a Gaussian filter having a different scale to the Redness-Greenness component, and generates a feature amount map having a predetermined number of scales. Here, the result of applying the Gaussian filter is defined by equation (11). The Gaussian filters having different scales are composed of one or a plurality of Gaussian filters whose upper limit does not exceed the contrast sensitivity function for the Redness-Greenness component in FIG. 11B in the spatial frequency domain. Here, since the contrast sensitivity function is defined as a characteristic with respect to the spatial frequency [cycles per degree], the standard deviation σ of the Gaussian filter is “target image (image 500 on the input side, image 514 on the output side)”. And the distance between the observer (observation distance) and the “resolution of the target image”. The contrast sensitivity characteristic for the Redness-Greenness component in FIG. 11B is defined by the following equation, for example, where the spatial frequency is f [cycles per degree].
ここで、各パラメータは(a1, b1, c1, a2, b2, c2)=(109.1413, 0.00038, 3.4244, 93.5971, 0.00367, 2.1677)である。次に、ステップS1313ではCPU101は、予め定められたスケール数に対してステップS1312の処理を実行したか否かを判断する。この判断の結果、予め定められたスケール数に対してステップS1312の処理を実行した場合には、処理はステップS1314に進む。一方、予め定められたスケール数に対してステップS1312の処理を実行していない場合には、処理はステップS1312に戻る。ステップS1314ではCPU101は、スケールの異なるGaussianフィルタを適用した特徴量マップが生成されるため、各マップを正規化する。 Here, each parameter is (a1, b1, c1, a2, b2, c2) = (109.1413, 0.00038, 3.4244, 93.5971, 0.00367, 2.1677). Next, in step S1313, the CPU 101 determines whether or not the process of step S1312 has been executed for a predetermined number of scales. As a result of this determination, when the process of step S1312 is executed for a predetermined number of scales, the process proceeds to step S1314. On the other hand, if the process of step S1312 has not been executed for a predetermined number of scales, the process returns to step S1312. In step S <b> 1314, the CPU 101 normalizes each map because a feature amount map to which a Gaussian filter with a different scale is applied is generated.
同様に、ステップS1316ではCPU101は、Yellowness-Blueness成分に対してスケールの異なるGaussianフィルタを適用し、予め定められたスケール数の特徴量マップを生成する。ここで、Gaussianフィルタを適用した結果は式(22)によって定義される。スケールの異なるGaussianフィルタは、空間周波数領域において上限が図11(c)のYellowness-Blueness成分に対するコントラスト感度関数を超えない1つまたは複数のGaussianフィルタで構成されるものとする。ここで、コントラスト感度関数は空間周波数[cycles per degree]に対する特性として定義されることから、Gaussianフィルタの標準偏差σは「対象画像(入力側の場合は画像500、出力側の場合は画像514)と観察者の間の距離(観察距離)」と「対象画像の解像度」に基づいて決定される。図11(c)のYellowness-Blueness成分に対するコントラスト感度関数は、式(25)によって定義される。ここで、各パラメータは(a1, b1, c1, a2, b2, c2)=(7.0328, 0.000004, 4.2582, 40.6910, 0.10391, 1.6487)である。 Similarly, in step S1316, the CPU 101 applies a Gaussian filter having a different scale to the Yellowness-Blueness component, and generates a feature amount map having a predetermined number of scales. Here, the result of applying the Gaussian filter is defined by equation (22). The Gaussian filters having different scales are composed of one or more Gaussian filters whose upper limit does not exceed the contrast sensitivity function for the Yellowness-Blueness component in FIG. 11C in the spatial frequency domain. Here, since the contrast sensitivity function is defined as a characteristic with respect to the spatial frequency [cycles per degree], the standard deviation σ of the Gaussian filter is “target image (image 500 on the input side, image 514 on the output side)”. And the distance between the observer (observation distance) and the “resolution of the target image”. The contrast sensitivity function for the Yellowness-Blueness component in FIG. 11C is defined by Expression (25). Here, each parameter is (a1, b1, c1, a2, b2, c2) = (7.0328, 0.000004, 4.2582, 40.6910, 0.10391, 1.6487).
ステップS1317ではCPU101は、予め定められたスケール数に対してステップS1316の処理を実行したか否かを判断する。この判断の結果、予め定められたスケール数に対してステップS1316の処理を実行した場合には、処理はステップS1318に進む。一方、予め定められたスケール数に対してステップS1316の処理を実行していない場合には、処理はステップS1316に戻る。ステップS1318ではCPU101は、スケールの異なるGaussianフィルタを適用した特徴量マップが生成されるため、各マップを正規化する。 In step S1317, the CPU 101 determines whether the process of step S1316 has been executed for a predetermined number of scales. As a result of this determination, if the process of step S1316 has been executed for a predetermined number of scales, the process proceeds to step S1318. On the other hand, if the process of step S1316 has not been executed for the predetermined scale number, the process returns to step S1316. In step S1318, the CPU 101 normalizes each map because a feature amount map to which a Gaussian filter having a different scale is applied is generated.
ステップS1319ではCPU101は、Redness-Greenness成分に対して得られた正規化特徴量マップとYellowness-Blueness成分に対して得られた正規化特徴量マップとに対して、画素毎に算術平均を求めることにより、色に対する特徴別マップを生成する。 In step S1319, the CPU 101 obtains an arithmetic average for each pixel with respect to the normalized feature amount map obtained for the Redness-Greenness component and the normalized feature amount map obtained for the Yellowness-Blueness component. Thus, a feature-specific map for the color is generated.
エッジ方向に対する特徴別マップは、Lightness成分から生成される。ステップS1322ではCPU101は、Lightness成分に対してスケールの異なるDifference of Gaborsフィルタを適用し、予め定められたスケール数の特徴量マップを生成する。ここで、Difference of Gaborsフィルタを適用した特徴量マップは、Gaborフィルタの多重解像度画像を利用し、スケールの異なる多重解像度画像の差分から生成しても構わない。尚、Difference of Gaborsフィルタを適用した結果O(x, y, λ, θ, ψ, c, s, γ) は、正弦関数ファクタの波長をλ、Gaborフィルタの縞模様の方向をθ、位相オフセットをψ、Gaussianフィルタの標準偏差をσ、空間アスペクト比をγ、適用する画像をI(x, y)、適用する画像とGaborフィルタの畳み込みをLa(x, y, λ, θ, ψ, σ, γ)、Difference-of-Gaborsフィルタのcenter-surround構造におけるcenter側の標準偏差c、 Difference-of-Gaborsフィルタのcenter-surround構造におけるsurround側の標準偏差をsとすれば、以下の式(26)〜(29)によって定義される。 A feature-specific map for the edge direction is generated from the Lightness component. In step S1322, the CPU 101 applies a Difference of Gabors filter having a different scale to the Lightness component, and generates a feature amount map having a predetermined number of scales. Here, the feature amount map to which the Difference of Gabors filter is applied may be generated from the difference between the multi-resolution images having different scales using the multi-resolution image of the Gabor filter. As a result of applying the Difference of Gabors filter, O (x, y, λ, θ, ψ, c, s, γ) is the wavelength of the sine function factor λ, the direction of the stripe pattern of the Gabor filter is θ, and the phase offset Ψ, Gaussian filter standard deviation σ, spatial aspect ratio γ, applied image I (x, y), applied image and Gabor filter convolution La (x, y, λ, θ, ψ, σ , γ), the standard deviation c on the center side in the center-surround structure of the Difference-of-Gabors filter, and the standard deviation on the surround side in the center-surround structure of the Difference-of-Gabors filter as s, the following equation ( 26) to (29).
ここで、Gaborフィルタの縞模様の方向θは簡単化のためθ∈{0°,45°,90°,135°}としているが4つに限定されるものではなく、中間値を含んでいても構わない。また、Gaussianフィルタの標準偏差σは「対象画像(入力側の場合は画像500、出力側の場合は画像514)と観察者の間の距離(観察距離)」と「対象画像の解像度」に基づいて決定される。 Here, the direction θ of the stripe pattern of the Gabor filter is set to θ∈ {0 °, 45 °, 90 °, 135 °} for simplification, but is not limited to four and includes an intermediate value. It doesn't matter. The standard deviation σ of the Gaussian filter is based on “the distance between the target image (the image 500 on the input side and the image 514 on the output side) and the observer (observation distance)” and “the resolution of the target image”. Determined.
ステップS1323ではCPU101は、予め定められたスケール数に対してステップS1322の処理を実行したか否かを判断する。この判断の結果、予め定められたスケール数に対してステップS1322の処理を実行した場合には、処理はステップS1324に進む。一方、予め定められたスケール数に対してステップS1322の処理を実行していない場合には、処理はステップS1322に戻る。ステップS1324ではCPU101は、スケールの異なるDifference of Gaborsフィルタを適用した特徴量マップが生成されるため、各マップを正規化する。そしてステップS1325ではCPU101は、画素毎に算術平均を求めることにより、エッジ方向に対する特徴別マップを生成する。 In step S1323, the CPU 101 determines whether the process of step S1322 has been executed for a predetermined number of scales. As a result of this determination, when the process of step S1322 is executed for a predetermined number of scales, the process proceeds to step S1324. On the other hand, if the process of step S1322 has not been executed for a predetermined number of scales, the process returns to step S1322. In step S1324, the CPU 101 normalizes each map because a feature amount map to which the Difference of Gabors filter having a different scale is applied is generated. In step S1325, the CPU 101 obtains an arithmetic average for each pixel to generate a feature-specific map for the edge direction.
ステップS1327ではCPU101は、明度に対する特徴別マップ、色に対する特徴別マップ、エッジ方向に対する特徴別マップを画素毎に算術平均することにより、顕著性マップを生成する。ここで、顕著性マップ生成は特徴別マップの算術平均だけに限定されるものではなく、特徴別マップに異なる重み付けを行って加重平均を求めても構わない。 In step S1327, the CPU 101 generates a saliency map by arithmetically averaging, for each pixel, the feature-specific map for brightness, the feature-specific map for color, and the feature-specific map for edge direction. Here, the saliency map generation is not limited to the arithmetic average of the feature-specific map, and the weighted average may be obtained by performing different weighting on the feature-specific map.
[第2の実施形態]
第1の実施形態では、画像処理装置は1つの装置により構成されているものとして説明したが、複数台の装置により構成されても良い。例えば、図5に示した色域マッピングの処理を複数の部分処理に分割し、該複数の部分処理を複数台の装置によって実行するようにしても良い。
[Second Embodiment]
In the first embodiment, the image processing apparatus has been described as being configured by one apparatus, but may be configured by a plurality of apparatuses. For example, the color gamut mapping process shown in FIG. 5 may be divided into a plurality of partial processes, and the plurality of partial processes may be executed by a plurality of devices.
以上説明した構成によれば、異なる観察条件(画像の解像度および観察距離を含む)を考慮した色域マッピングにおいて、色域マッピング前後の「顕著性マップ(saliency map)」の差分値が最小となるような最適化を行うことにより、人間の知覚と合った色域マッピングを行うことが可能となる。 According to the configuration described above, in color gamut mapping considering different viewing conditions (including image resolution and viewing distance), the difference value of the “saliency map” before and after color gamut mapping is minimized. By performing such optimization, color gamut mapping that matches human perception can be performed.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:CPU 102:メインメモリ 101: CPU 102: Main memory
Claims (10)
入力画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第1の顕著性マップを、前記入力側の観察条件に基づいて生成する第1の生成手段と、
複数の色域マッピングのそれぞれを前記入力画像に対して行うことで得られる複数の画像のそれぞれについて、該画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第2の顕著性マップを、前記出力側の観察条件に基づいて生成する第2の生成手段と、
前記第1の顕著性マップと前記第2の顕著性マップとの差分値と、前記複数の画像と、に基づいて、前記入力画像に対する色域マッピング後の画像を生成する第3の生成手段と
を備えることを特徴とする画像処理装置。 An image processing apparatus for mapping a color gamut on an input side to a color gamut on an output side,
First generation means for generating a first saliency map that maps the degree of noticeable pixels in an input image that stand out from neighboring pixels based on the observation conditions on the input side;
A second saliency map that maps the degree to which the target pixel in the image is conspicuous as compared to neighboring pixels for each of a plurality of images obtained by performing each of a plurality of color gamut mappings on the input image Second generation means for generating the output based on the observation condition on the output side;
Third generation means for generating an image after color gamut mapping for the input image based on a difference value between the first saliency map and the second saliency map and the plurality of images; An image processing apparatus comprising:
前記画像処理装置の第1の生成手段が、入力画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第1の顕著性マップを、前記入力側の観察条件に基づいて生成する第1の生成工程と、
前記画像処理装置の第2の生成手段が、複数の色域マッピングのそれぞれを前記入力画像に対して行うことで得られる複数の画像のそれぞれについて、該画像における注目画素が近傍の画素と比べて目立つ度合をマップ化した第2の顕著性マップを、前記出力側の観察条件に基づいて生成する第2の生成工程と、
前記画像処理装置の第3の生成手段が、前記第1の顕著性マップと前記第2の顕著性マップとの差分値と、前記複数の画像と、に基づいて、前記入力画像に対する色域マッピング後の画像を生成する第3の生成工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus for mapping a color gamut on an input side to a color gamut on an output side,
The first generation means of the image processing device generates a first saliency map in which the degree of noticeable pixels in the input image is noticeable compared to neighboring pixels based on the observation conditions on the input side. 1 generation process;
For each of a plurality of images obtained by the second generation unit of the image processing device performing each of a plurality of color gamut mappings on the input image, the pixel of interest in the image is compared with a neighboring pixel. A second generation step of generating a second saliency map in which the degree of conspicuous is mapped based on the observation condition on the output side;
A third generation unit of the image processing device, based on a difference value between the first saliency map and the second saliency map and the plurality of images, gamut mapping for the input image An image processing method comprising: a third generation step of generating a subsequent image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017031378A JP2018137642A (en) | 2017-02-22 | 2017-02-22 | Image processing system, image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017031378A JP2018137642A (en) | 2017-02-22 | 2017-02-22 | Image processing system, image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018137642A true JP2018137642A (en) | 2018-08-30 |
Family
ID=63365749
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017031378A Pending JP2018137642A (en) | 2017-02-22 | 2017-02-22 | Image processing system, image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018137642A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022163412A (en) * | 2021-04-14 | 2022-10-26 | 凸版印刷株式会社 | Visual saliency map generation device, visual saliency map generation method and program |
| CN116645368A (en) * | 2023-07-27 | 2023-08-25 | 青岛伟东包装有限公司 | A method for on-line visual detection of cast film curling |
-
2017
- 2017-02-22 JP JP2017031378A patent/JP2018137642A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022163412A (en) * | 2021-04-14 | 2022-10-26 | 凸版印刷株式会社 | Visual saliency map generation device, visual saliency map generation method and program |
| CN116645368A (en) * | 2023-07-27 | 2023-08-25 | 青岛伟东包装有限公司 | A method for on-line visual detection of cast film curling |
| CN116645368B (en) * | 2023-07-27 | 2023-10-03 | 青岛伟东包装有限公司 | Online visual detection method for edge curl of casting film |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Lukac et al. | Color image processing: methods and applications | |
| AU2006284916B2 (en) | Multimedia color management system | |
| EP1912425B1 (en) | System, medium, and method for calibrating gray data | |
| US7450281B2 (en) | Image processing apparatus and information processing apparatus, and method thereof | |
| US7602537B2 (en) | Gamut mapping with primary color rotation | |
| EP0948194A2 (en) | Device-independent and medium-independent color matching between an input device and an output device | |
| EP2965499B1 (en) | Image processing apparatus, image processing system, and image processing method | |
| JP5361283B2 (en) | Color processing apparatus and method | |
| CN105493489B (en) | Color gamut mapping system and method | |
| JP4471056B2 (en) | Color image processor and image rendering method | |
| US7379208B2 (en) | Hybrid gamut mapping | |
| US8665290B2 (en) | Image-based source gamut adjustment for compression-type gamut mapping algorithm | |
| JP2018137642A (en) | Image processing system, image processing method | |
| KR101410703B1 (en) | method and apparatus for color signal process and recording medium thereof | |
| US8593693B2 (en) | Outputting gray color values in color-managed CMYK to CMYK color conversions based on input gray color values | |
| JP2008177783A (en) | Color conversion device and program | |
| JP6780442B2 (en) | Color processing equipment, color processing methods, color processing systems and programs | |
| Lee et al. | Design and implementation of color correction system for images captured by digital camera | |
| JP2010268138A (en) | Color adjustment apparatus, color adjustment method, and program | |
| JP2011205467A (en) | Color processing apparatus, and program | |
| Semba | High-accuracy color reproduction (color management systems) | |
| JP2016025635A (en) | Image processing apparatus and method | |
| WO2013139238A1 (en) | Method for managing color data of color image | |
| US8351099B2 (en) | Hue specific monochromatic printing mechanism | |
| Johnson et al. | Image appearance modeling |