[go: up one dir, main page]

JP2012042804A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2012042804A
JP2012042804A JP2010185093A JP2010185093A JP2012042804A JP 2012042804 A JP2012042804 A JP 2012042804A JP 2010185093 A JP2010185093 A JP 2010185093A JP 2010185093 A JP2010185093 A JP 2010185093A JP 2012042804 A JP2012042804 A JP 2012042804A
Authority
JP
Japan
Prior art keywords
observer
image
distance
image data
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010185093A
Other languages
Japanese (ja)
Inventor
Susumu Niihara
晋 新原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010185093A priority Critical patent/JP2012042804A/en
Publication of JP2012042804A publication Critical patent/JP2012042804A/en
Pending legal-status Critical Current

Links

Landscapes

  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of offering an observer near an image display device an image suitable for him/her when a plurality of observers are detected.SOLUTION: The image processing apparatus which corrects colors of a display image according to a position of an observer includes an acquisition means for acquiring photographic image data which can be acquired by imaging an observation range of the image display device, a viewpoint distance calculation means for calculating a viewpoint distance of the observer who is closest to the device from the photographic image data, an observation angle calculation means for calculating an observation angle of the observer closest to the device by using an image position in the photographic image data which shows the observer closest to the device and the viewpoint of the observer, and a color correction means for performing color correction corresponding to the calculated observation angle to an input image data.

Description

本発明は、観察者の位置に応じて表示画像の色を補正するものである。   The present invention corrects the color of the display image in accordance with the position of the observer.

近年、パーソナルコンピュータの普及に伴い、様々な人が、デジタルカメラ、カラースキャナなどの画像入力装置によって画像を入力し、CRT、LCDなどの画像表示装置で表示し、カラープリンタなどの画像出力装置によって出力している。このような状況に伴い、入力装置、表示装置、出力装置それぞれの再現色を一致させるカラーマッチング処理が注目されている。カラーマッチング処理は、マッチングの対象となる装置の色再現特性(所定の色票を出力し測色したデータ)が記述されたプロファイルをもとに、各装置の再現色を対応付けることで行われる。   In recent years, with the spread of personal computers, various people input images with image input devices such as digital cameras and color scanners, display them on image display devices such as CRTs and LCDs, and use image output devices such as color printers. Output. Under such circumstances, attention has been paid to color matching processing for matching the reproduced colors of the input device, display device, and output device. The color matching process is performed by associating the reproduction colors of each device based on a profile in which the color reproduction characteristics (data obtained by outputting a predetermined color chart and measuring the color) of the device to be matched are described.

色再現特性の算出は、一般的に測色器を用いて行われる。画像表示装置の測色は一般的に、画像表示装置の正面から垂直方向に発光される光を測色器で測色する。しかし、一般に画像表示装置は見る角度によって表示色が変化してしまうという視野角特性を有している。そのため、カラーマッチング処理によってマッチングされた結果も画像表示装置を正面以外の方向から見た場合は、色が合わない。   The color reproduction characteristics are generally calculated using a colorimeter. In general, color measurement of an image display apparatus measures a light emitted in a vertical direction from the front of the image display apparatus with a colorimeter. However, in general, an image display device has a viewing angle characteristic that a display color changes depending on a viewing angle. For this reason, the result of matching by the color matching process does not match the color when the image display device is viewed from a direction other than the front.

このような視野角特性による表示色の変化を補正する方法としては、観察者の観察角度に応じて画像表示装置の表示色を補正する技術が従来技術として知られている(例えば、特許文献1)。この技術は、画像表示装置を観察する観察者の観察位置と想定される範囲内の画像を撮像する。そして、撮像された画像から観察者の観察角度を算出し、観察角度に応じて表示画像の彩度・明度を補正する。   As a method for correcting the change in display color due to such viewing angle characteristics, a technique for correcting the display color of the image display device according to the observation angle of the observer is known as a conventional technique (for example, Patent Document 1). ). This technique captures an image within a range assumed to be an observation position of an observer who observes an image display device. Then, the observation angle of the observer is calculated from the captured image, and the saturation and brightness of the display image are corrected according to the observation angle.

特開2009−128381号公報JP 2009-128381 A

しかしながら、従来技術は観察者が複数いる場合にどの観察者の観察位置に適切な画像を表示するかという課題があった。   However, the conventional technique has a problem of displaying an appropriate image at which observer's observation position when there are a plurality of observers.

そこで本発明では、複数の観察者が検出された場合、画像表示装置に近い観察者に対して適切である画像を提供できるようにすることを目的とする。画像表示装置が表示する画像に最も関心を持っている人物は、画像表示装置の直近で表示画像を観察していることが多いと考えられるためである。   Therefore, an object of the present invention is to provide an appropriate image to an observer close to an image display device when a plurality of observers are detected. This is because a person who is most interested in an image displayed by the image display apparatus often observes the display image in the immediate vicinity of the image display apparatus.

上記課題を解決するために、本願発明に係る画像処理装置は、観察者の位置に応じて表示画像の色を補正する画像処理装置であって、画像表示装置の観察範囲を撮像することにより得られる撮像画像データを取得する取得手段と、前記撮像画像データから最も近い距離にいる観察者の視点距離を算出する視点距離算出手段と、前記撮像画像データにおける前記最も近い距離にいる観察者を示す画像位置と、前記最も近い距離にいる観察者の視点距離とを用いて、前記最も近い距離にいる観察者の観察角度を算出する観察角度算出手段と、前記算出された観察角度に応じた色補正を、入力画像データに対して行う色補正手段とを有する。   In order to solve the above-described problems, an image processing apparatus according to the present invention is an image processing apparatus that corrects the color of a display image according to the position of an observer, and is obtained by imaging an observation range of the image display apparatus. An acquired means for acquiring captured image data, a viewpoint distance calculating means for calculating a viewpoint distance of an observer who is closest to the captured image data, and an observer who is closest to the captured image data Using the image position and the viewpoint distance of the observer at the closest distance, an observation angle calculation means for calculating the observation angle of the observer at the closest distance, and a color corresponding to the calculated observation angle Color correction means for performing correction on the input image data.

また、上記課題を解決するために、本願発明に係る情報処理方法は、観察者の位置に応じて表示画像の色を補正する画像処理方法であって、画像表示装置の観察範囲を撮像することにより得られる撮像画像データを取得する取得工程と、前記撮像画像データから最も近い距離にいる観察者の視点距離を算出する視点距離算出工程と、前記撮像画像データにおける前記最も近い距離にいる観察者を示す画像位置と、前記最も近い距離にいる観察者の視点距離とを用いて、前記最も近い距離にいる観察者の観察角度を算出する観察角度算出工程と、前記算出された観察角度に応じた色補正を、入力画像データに対して行う色補正工程とを有する。   In order to solve the above problem, an information processing method according to the present invention is an image processing method for correcting the color of a display image according to the position of an observer, and images an observation range of an image display device. An acquisition step of acquiring the captured image data obtained by the step, a viewpoint distance calculation step of calculating a viewpoint distance of an observer who is closest to the captured image data, and an observer who is at the closest distance in the captured image data An observation angle calculating step of calculating an observation angle of the observer at the closest distance using an image position indicating the viewpoint distance of the observer at the closest distance, and according to the calculated observation angle And a color correction step for performing the color correction on the input image data.

本発明によれば、最も近くにいる観察者に対して適切である画像を提供することができる。   According to the present invention, it is possible to provide an image that is appropriate for the closest observer.

実施例1における画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus in Embodiment 1. FIG. 実施例1における画像処理装置の処理の流れを示すフローチャートである。3 is a flowchart illustrating a processing flow of the image processing apparatus according to the first exemplary embodiment. 画像表示装置、画像撮像装置、観察者の位置関係を示す図である。It is a figure which shows the positional relationship of an image display apparatus, an image imaging device, and an observer. 目の間隔算出の説明図である。It is explanatory drawing of the space | interval calculation of eyes. 色変換LUT作成の流れを示すフローチャートである。It is a flowchart which shows the flow of color conversion LUT creation. 画像表示装置と観察角度が異なる観察者の位置関係の模式図である。It is a schematic diagram of the positional relationship of the observer from which an image display apparatus and an observation angle differ. 異なる観察角度による画像表示装置の色再現範囲の例を示す図である。It is a figure which shows the example of the color reproduction range of the image display apparatus by a different observation angle. 実施例2における画像処理装置の処理の流れを示すフローチャートである。6 is a flowchart illustrating a processing flow of the image processing apparatus according to the second exemplary embodiment. 顔領域の面積算出の説明図である。It is explanatory drawing of the area calculation of a face area | region.

[実施例1]
以下、本発明に係る一実施形態について、図面を参照して詳細に説明する。
[Example 1]
Hereinafter, an embodiment according to the present invention will be described in detail with reference to the drawings.

画像表示装置は一般的に観察する位置が正面からずれるほど表示色の彩度、コントラストが低下する視野角特性を有している。図6に画像表示装置2と観察角度が異なる観察者の位置関係の模式図を示す。観察者61は画像表示装置2の中心からの法線方向と視線方向とがなす角度が0度の位置で、観察者62は画像表示装置2の中心からの法線方向と視線方向とがなす角度が22.5度の位置で、観察者63は画像表示装置2の中心からの法線方向と視線方向とがなす角度が45度の位置で観察している。図7は図6の観察者61,62,63が画像表示装置2の表示色を観察した際に見える色再現範囲を表した図であり、画像表示装置2の色再現範囲のCIELAB空間におけるL*−a*断面を示している。線71は観察者61から見える色再現範囲を、点線72は観察者62から見える色再現範囲を、点破線73は観察者63から見える色再現範囲を示している。   The image display device generally has a viewing angle characteristic in which the saturation and contrast of the display color decrease as the observation position deviates from the front. FIG. 6 shows a schematic diagram of the positional relationship between observers having different observation angles from the image display device 2. The observer 61 is at a position where the angle formed by the normal direction from the center of the image display device 2 and the line-of-sight direction is 0 degrees, and the observer 62 is formed by the normal direction from the center of the image display apparatus 2 and the line-of-sight direction. At an angle of 22.5 degrees, the observer 63 observes at an angle of 45 degrees between the normal direction from the center of the image display device 2 and the line-of-sight direction. FIG. 7 is a diagram showing a color reproduction range that can be seen when the viewers 61, 62, and 63 of FIG. 6 observe the display color of the image display device 2, and the color reproduction range of the image display device 2 in the CIELAB space. * -A * shows a cross section. A line 71 indicates a color reproduction range visible from the observer 61, a dotted line 72 indicates a color reproduction range visible from the observer 62, and a broken line 73 indicates a color reproduction range visible from the observer 63.

図7から分かるように観察角度が大きくなるほど、観察者から見える画像表示装置2の色再現範囲は狭くなるため、同じ表示画像を観察者61の位置と観察者63の位置で観察した場合では、観察者63の位置で観察した時の方が画像の彩度、コントラストが低下して見えてしまう。   As can be seen from FIG. 7, the larger the observation angle, the narrower the color reproduction range of the image display device 2 that can be seen by the observer. Therefore, when the same display image is observed at the position of the observer 61 and the position of the observer 63, When the image is observed at the position of the observer 63, the saturation and contrast of the image are lowered and appear.

図1は実施例1にかかる画像処理装置の構成を示したブロック図である。図1において、1は画像処理装置であり、図示しないプロセッサが各部を制御することにより、装置全体を制御する。2はディスプレイなどの画像表示装置である。3はデジタルカメラなどの、観察者の観察位置と想定される範囲を撮影する画像撮像装置である。メモリ4は画像表示装置2の測定値などを記憶する。画像入力手段101は画像データを入力する。色補正部102は入力された画像データに視点位置に応じた色補正を行う。画像出力部103は色補正された画像データを画像表示装置2に出力する。観察角度算出部104は観察者の観察角度を算出する。視点距離算出部105は観察者の視点距離を算出する。撮影画像取得部106は前記画像撮像装置3によって撮影された撮影画像を取得する。   FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the first embodiment. In FIG. 1, reference numeral 1 denotes an image processing apparatus, which controls the entire apparatus by a processor (not shown) controlling each unit. Reference numeral 2 denotes an image display device such as a display. Reference numeral 3 denotes an image capturing device such as a digital camera that captures a range assumed to be an observer's observation position. The memory 4 stores measurement values of the image display device 2 and the like. The image input unit 101 inputs image data. The color correction unit 102 performs color correction according to the viewpoint position on the input image data. The image output unit 103 outputs the color-corrected image data to the image display device 2. The observation angle calculation unit 104 calculates the observation angle of the observer. The viewpoint distance calculation unit 105 calculates the viewpoint distance of the observer. The captured image acquisition unit 106 acquires a captured image captured by the image capturing device 3.

図2は、画像処理装置1により実行される例示的な処理のフローチャートである。
まず、ステップS21において、画像処理装置1は画像入力部101により元画像データを入力する。取得した元画像データはメモリ4に記憶される。
FIG. 2 is a flowchart of exemplary processing executed by the image processing apparatus 1.
First, in step S <b> 21, the image processing apparatus 1 inputs original image data through the image input unit 101. The acquired original image data is stored in the memory 4.

ステップS22において、画像処理装置1は画像撮像装置3に画像表示機器2を観察する観察者の観察位置と想定される範囲を撮像させ、撮影画像取得部106を介して撮像画像データを取得する。画像撮像装置3はCCD等の撮像素子を備えており、画像表示装置1の上部に取り付けられているものとする。なお、画像撮像装置3の構成は特に限定されるものではなく、観察者の顔、目を認識できる画像を撮像できるものであればよく、デジタルスチルカメラであってもデジタルビデオカメラ等であってもよい。   In step S <b> 22, the image processing apparatus 1 causes the image capturing apparatus 3 to capture the range that is assumed to be the observation position of the observer observing the image display device 2, and acquires captured image data via the captured image acquisition unit 106. The image pickup device 3 includes an image pickup device such as a CCD and is attached to the upper portion of the image display device 1. The configuration of the image pickup device 3 is not particularly limited as long as the image pickup device 3 can pick up an image that can recognize the face and eyes of the observer, and may be a digital still camera or a digital video camera. Also good.

ステップS23において、撮像画像データを解析して、観察者の顔領域を検出する。顔領域の検出は、たとえば、撮像画像データから肌色領域を検出し、検出結果から顔領域を特定することができる。顔領域を検出する方法はこれに限られるものではなく、各種の公知の方法を用いてもかまわない。   In step S23, the captured image data is analyzed to detect the face area of the observer. For example, the face area can be detected by detecting a skin color area from the captured image data and specifying the face area from the detection result. The method for detecting the face area is not limited to this, and various known methods may be used.

ステップS24において、画像処理装置1はステップS23で、撮像画像から複数の顔領域が検出されたか否かを判定する。複数の顔領域が検出されたと判定された場合はステップS25へ移行し、複数の顔領域が検出されていないと判定された場合はステップS26へ移行する。   In step S24, the image processing apparatus 1 determines whether or not a plurality of face regions are detected from the captured image in step S23. When it is determined that a plurality of face areas are detected, the process proceeds to step S25, and when it is determined that a plurality of face areas are not detected, the process proceeds to step S26.

ステップS25において、視点距離算出部105は検出された各顔領域に対応する視点距離を算出し、複数の顔領域に対応する観察者から画像表示装置2から最も距離が近い観察者を決定し、対象観察者と決定する。視点距離算出部105は、検出した顔領域からテンプレートマッチング等を用いて目の領域を検出する。目の領域を検出する方法はこれに限られるものではなく、各種の公知の方法を用いてもかまわない。視点距離算出部105は撮影画像における検出された左右の目の間隔のピクセル数を計算する。そして、予め求めておいた左右の目の間隔のピクセル数と観察距離との関係が定められた1次元LUTを用いて、前記左右の目の間隔のピクセル数から観察距離を算出する。観察者が画像表示装置2に近いほど左右の目の間隔は大きく撮像される関係にあるため、この関係を用いて観察距離を推定する。左右の目の間隔のピクセル数と観察距離の関係が定められた1次元LUTはメモリ4に記憶させておく。検出された複数の顔領域それぞれの観察距離を算出し、最も観察距離が小さい顔領域を、画像表示装置2から最も距離が近い観察者とする。   In step S25, the viewpoint distance calculation unit 105 calculates a viewpoint distance corresponding to each detected face area, determines an observer with the closest distance from the image display device 2 from the observers corresponding to the plurality of face areas, Determine the target observer. The viewpoint distance calculation unit 105 detects an eye region from the detected face region using template matching or the like. The method for detecting the eye region is not limited to this, and various known methods may be used. The viewpoint distance calculation unit 105 calculates the number of pixels between the detected left and right eyes in the captured image. Then, the observation distance is calculated from the number of pixels of the left and right eye intervals using a one-dimensional LUT in which the relationship between the number of pixels of the left and right eye intervals determined in advance and the observation distance is determined. The closer the observer is to the image display device 2, the larger the distance between the left and right eyes is, so that the observation distance is estimated using this relationship. A one-dimensional LUT in which the relationship between the number of pixels between the left and right eyes and the observation distance is determined is stored in the memory 4. The observation distances of the detected plurality of face areas are calculated, and the face area with the smallest observation distance is set as the observer with the shortest distance from the image display device 2.

図3、図4を用いて最も距離が近い観察者を検出する方法を詳細に説明する。図3は画像表示装置2、画像撮像装置3、観察者31,32の位置関係を示す図である。画像撮像装置3にて観察者の観察位置と想定される範囲を撮像すると図4に示す撮像画像が得られる。撮像画像を示す撮像画像データからステップS23において観察者31,32の顔領域が検出され、それぞれの左右の目の間隔のピクセル数d,dが算出される。左右の目の間隔のピクセル数が求まれば、左右の目の間隔のピクセル数と観察距離の関係の1次元LUTを用いて図3における観察距離L、Lが算出される。 A method for detecting the observer with the closest distance will be described in detail with reference to FIGS. FIG. 3 is a diagram illustrating a positional relationship between the image display device 2, the image capturing device 3, and the viewers 31 and 32. When the image capturing apparatus 3 captures a range that is assumed to be the observation position of the observer, a captured image shown in FIG. 4 is obtained. In step S23, the face regions of the viewers 31 and 32 are detected from the captured image data indicating the captured image, and the pixel numbers d 1 and d 2 between the left and right eyes are calculated. When the number of pixels between the left and right eyes is obtained, the observation distances L 1 and L 2 in FIG. 3 are calculated using a one-dimensional LUT of the relationship between the number of pixels between the left and right eyes and the observation distance.

ステップS26において、観察角度算出部104は、画像撮像部107により撮像された撮像画像データから、観察角度を算出する。   In step S <b> 26, the observation angle calculation unit 104 calculates an observation angle from the captured image data captured by the image capturing unit 107.

観察角度算出部104は、はじめに、画像表示装置2と対象観察者との距離を取得する。ステップS24において複数の顔領域が検出されたと判定された場合は、ステップS25で算出された、対象観察者の観察距離を取得する。ステップS24で複数の顔領域が検出されないと判定された場合は、ステップS25の観察距離算出処理と同様の処理を行い撮影画像に含まれる1つの観察者(対象観察者)の観察距離を算出する。   First, the observation angle calculation unit 104 acquires the distance between the image display device 2 and the target observer. If it is determined in step S24 that a plurality of face regions have been detected, the observation distance of the target observer calculated in step S25 is acquired. When it is determined in step S24 that a plurality of face areas are not detected, the same processing as the observation distance calculation processing in step S25 is performed to calculate the observation distance of one observer (target observer) included in the captured image. .

次に、撮像画像の水平方向の中心位置から対象観察者の左右の目の中点までの水平方向の間隔のピクセル数を計算する。そして、観察者の観察距離と撮像画像の水平方向の中心位置から観察者の左右の目の中点までの水平方向の間隔のピクセル数との組み合わせから観察角度を求めるための2次元LUTを用いて、対象観察者の観察距離と撮像画像の水平方向の中心位置から対象観察者の左右の目の中点までの水平方向の間隔のピクセル数とから対象観察者の観察角度を算出する。2次元LUTに定められていない入力値の場合は、入力値の周りの定められた値から補間処理を用いて求める。また、撮影画像の水平方向の中心位置と画像表示装置2の水平方向の中心が一致するよう画像撮像装置3の位置は合わせておくものとする。   Next, the number of pixels in the horizontal interval from the center position in the horizontal direction of the captured image to the midpoint of the left and right eyes of the target observer is calculated. Then, a two-dimensional LUT is used to obtain an observation angle from a combination of the observation distance of the observer and the number of pixels in the horizontal interval from the horizontal center position of the captured image to the midpoint of the left and right eyes of the observer. Thus, the observation angle of the target observer is calculated from the observation distance of the target observer and the number of pixels in the horizontal interval from the horizontal center position of the captured image to the midpoint of the left and right eyes of the target observer. In the case of an input value that is not determined in the two-dimensional LUT, the input value is obtained from the determined value around the input value using interpolation processing. In addition, the position of the image capturing device 3 is set so that the horizontal center position of the captured image and the horizontal center of the image display device 2 coincide.

観察者が複数いる場合は、複数の観察者の観察角度の平均値を算出し、平均値を観察者の位置とする方法が考えられる。しかしながら、この方法では表示画面から遠い距離に人物がいた場合、その人物が検出されてしまう影響により、近距離で画像を厳密に観察している観察者に対して適切である画像を表示できなくなってしまう可能性がある。そこで本実施例では、複数の観察者が検出された場合、観察者の画像表示装置からの距離を算出し、最も画像表示装置に近い観察者に対して適切である画像を表示する。画像表示装置が表示する画像に最も関心を持っている人物は、画像表示装置の直近で表示画像を観察していることが多いと考えられるからである。   When there are a plurality of observers, a method of calculating an average value of observation angles of a plurality of observers and setting the average value as the position of the observer is conceivable. However, in this method, when a person is far away from the display screen, it is impossible to display an image suitable for an observer who strictly observes the image at a short distance due to the effect of detecting the person. There is a possibility that. Therefore, in this embodiment, when a plurality of observers are detected, the distance of the observer from the image display device is calculated, and an image appropriate for the observer closest to the image display device is displayed. This is because a person who is most interested in the image displayed by the image display device is likely to observe the display image in the immediate vicinity of the image display device.

ステップS27において、色補正部102は、算出された観察角度に基づいて、入力された画像データを色補正する。色補正部102は、算出された観察角度に対する色変換LUTを用いて入力画像データを変換する。色変換LUTは5度おきに予め求めてメモリ4に記憶させておき、用意された角度にない観察角度の場合は、用意された角度のうち観察角度に最も近い大小2つの角度の色変換LUTから補間処理を用いて、算出された観察角度に応じた色変換LUTを算出する。また、色変換LUTに格納されていない入力画像データの場合は、入力画像データ周辺の、格納されている入力画像データに対応する格子点データを用いて四面体補間等の補間処理を行い、色補正後の画像データを求める。ここで、色変換LUTとは入力画像のRGB値と画像表示装置で出力するRGB値の対応関係が記述された3次元LUTである。なお、本実施例では色変換LUTを用意する角度間隔を5度としたが、これに限定されるものではなく、より細かい間隔でも大きい間隔でもよい。   In step S27, the color correction unit 102 performs color correction on the input image data based on the calculated observation angle. The color correction unit 102 converts input image data using a color conversion LUT for the calculated observation angle. The color conversion LUT is obtained in advance every 5 degrees and stored in the memory 4, and in the case of an observation angle that is not at the prepared angle, the color conversion LUT of the two angles that are closest to the observation angle among the prepared angles. Then, a color conversion LUT corresponding to the calculated observation angle is calculated using interpolation processing. In the case of input image data not stored in the color conversion LUT, interpolation processing such as tetrahedral interpolation is performed using lattice point data corresponding to the stored input image data around the input image data. Obtain corrected image data. Here, the color conversion LUT is a three-dimensional LUT in which the correspondence between the RGB value of the input image and the RGB value output by the image display device is described. In this embodiment, the angle interval for preparing the color conversion LUT is 5 degrees. However, the present invention is not limited to this, and a finer interval or a larger interval may be used.

以下、色変換LUTを作成する処理手順を図5のフローチャートを用いて説明する。
ステップS51では、画像表示装置2のデバイスRGB値とXYZ値の関係を取得するために、画像表示装置2に所定の複数のデバイスRGB値に応じてパッチを表示させ、パッチを測定し複数のXYZ値を取得する。測定値はパッチを観察角度が0度の位置から測定した値と、色変換LUTを作成したい観察角度の位置から測定した値とを取得する。
ステップS52では、S50で取得した測定値(XYZ値)を(数式1)を用いてL*a*b*値に変換する。
Hereinafter, a processing procedure for creating a color conversion LUT will be described with reference to the flowchart of FIG.
In step S51, in order to acquire the relationship between the device RGB value and the XYZ value of the image display device 2, the image display device 2 displays a patch according to a plurality of predetermined device RGB values, measures the patch, and measures a plurality of XYZ values. Get the value. As the measurement value, a value obtained by measuring the patch from the position where the observation angle is 0 degree and a value measured from the position of the observation angle where the color conversion LUT is to be created are acquired.
In step S52, the measured value (XYZ value) acquired in S50 is converted into an L * a * b * value using (Formula 1).

ステップS53では、まず、ある観察角度の複数の測定値に対応するL*a*b*値からある観察角度の色再現範囲を算出する。   In step S53, first, a color reproduction range at a certain observation angle is calculated from L * a * b * values corresponding to a plurality of measurement values at a certain observation angle.

そして、ステップS51で取得された、観察角度が0度におけるデバイスRGB値とXYZ値との関係を用いて、LUTを構成する格子点に対応するデバイスRGB値を観察角度が0度に対応するL*a*b*値に変換する。つぎに、この0度に対応するL*a*b*値を上記ある観察角度の色再現範囲内のL*a*b*値にマッピングする。図7に示すように観察角度に応じて色再現範囲は異なるので、色域圧縮処理は観察角度ごとに行う。観察角度によっては0度における色のL*a*b*値が、観察角度における画像表示装置2の色域外である場合があるため、色域圧縮処理によって全ての色を観察角度における画像表示装置2の色域内に圧縮し、観察角度において画像表示装置2が再現可能な色に変換する。   Then, using the relationship between the device RGB value and the XYZ value obtained at step S51 at the observation angle of 0 degree, the device RGB value corresponding to the lattice point constituting the LUT is represented as L corresponding to the observation angle of 0 degree. * A * b * value is converted. Next, the L * a * b * value corresponding to 0 degrees is mapped to the L * a * b * value within the color reproduction range of the certain observation angle. As shown in FIG. 7, since the color reproduction range varies depending on the observation angle, the color gamut compression process is performed for each observation angle. Depending on the observation angle, the L * a * b * value of the color at 0 degree may be outside the color gamut of the image display device 2 at the observation angle, so that all colors are displayed at the observation angle by color gamut compression processing. The image is compressed into a color gamut of 2 and converted into a color reproducible by the image display device 2 at an observation angle.

ステップS54では、マッピングされたL*a*b*値をXYZ値に変換する。ステップS55では、ステップS51で取得した、上記ある観察角度における画像表示装置2のデバイスRGB値とXYZ値との関係を用いて上記ある観察角度における画像出力装置のデバイスRGB値にXYZ値を変換する。   In step S54, the mapped L * a * b * values are converted into XYZ values. In step S55, the XYZ value is converted into the device RGB value of the image output apparatus at the certain observation angle using the relationship between the device RGB value and XYZ value of the image display apparatus 2 at the certain observation angle acquired in step S51. .

ステップS56では、ステップS51で用いた、観察角度が0度におけるデバイスRGB値に対応するLUTを構成する格子点に、ステップS55にて求められた、上記ある観察角度における画像出力装置のデバイスRGB値を格納する。ステップS53〜ステップS56の処理を、LUTを構成するすべての格子点に対して行うことにより、上記ある観察角度に対応するLUTを作成することができる。そして、この観察角度に対応するLUTの作成処理をステップS51において測定した複数の観察角度のそれぞれに対して行うことにより、複数の観察角度のそれぞれに対応したLUTを作成することができる。   In step S56, the device RGB value of the image output device at the certain observation angle obtained in step S55 is obtained at the lattice point constituting the LUT corresponding to the device RGB value when the observation angle is 0 degrees used in step S51. Is stored. By performing the processing of step S53 to step S56 for all the lattice points constituting the LUT, the LUT corresponding to the certain observation angle can be created. Then, an LUT corresponding to each of the plurality of observation angles can be created by performing the LUT creation processing corresponding to the observation angle for each of the plurality of observation angles measured in step S51.

そして、ステップS8において、画像出力部103は、色補正部102にて補正された画像データを画像表示装置102に出力する。   In step S <b> 8, the image output unit 103 outputs the image data corrected by the color correction unit 102 to the image display device 102.

上述した本実施例により、観察者が複数人検出された場合に最も近くにいる観察者に対して適切である色再現が行われた画像を表示することができる。   According to this embodiment described above, it is possible to display an image in which color reproduction appropriate for the closest observer is performed when a plurality of observers are detected.

[実施例2]
実施例1では、左右の目の間隔のピクセル数から観察者の距離を算出する例を示した。しかしながら、撮像画像上で観察者が別の物体と重なってしまい片方の目が写っていない場合などでは左右の目の間隔が計算できない。そこで本実施例においては、顔領域の面積から観察者の距離を算出する例について説明する。
[Example 2]
In the first embodiment, an example is shown in which the distance of the observer is calculated from the number of pixels between the left and right eyes. However, the distance between the left and right eyes cannot be calculated when the observer overlaps another object on the captured image and one eye is not captured. Therefore, in this embodiment, an example in which the distance of the observer is calculated from the area of the face area will be described.

本発明を実現する色処理装置の論理構成を示すブロック図は実施例1における図1と同様のため説明は割愛する。図8は、本実施例により実行される例示的な処理のフローチャートである。尚、図8においてステップS85以外は実施例1における図2と同様のため同一の符号を付加し説明は割愛する。   The block diagram showing the logical configuration of the color processing apparatus that implements the present invention is the same as that in FIG. FIG. 8 is a flowchart of exemplary processing executed according to this embodiment. In FIG. 8, steps other than step S85 are the same as those in FIG.

ステップS85において、画像処理装置1は視点距離算出部105より視点距離を算出し、画像表示装置2から最も距離が近い観察者を検出する。具体的には、視点距離算出部105は検出した顔領域の面積(顔領域に含まれるピクセル数)を計算し、予め求めておいた顔領域の面積と観察距離の関係の1次元LUTを用いて観察距離を算出する。撮像画像上で観察者が重なってしまい顔領域の一部が写っていない場合は、顔のテンプレートを用いて隠れている部分を予測することにより、面積を算出する。観察者が画像表示装置2に近いほど顔領域は大きく撮像されるため、この観察距離と顔領域との関係を用いて観察距離を推定する。すなわち、顔領域の面積と観察距離の関係の1次元LUTはメモリ4に記憶させておく。そして、検出された複数の顔領域それぞれの観察距離を算出し、最も観察距離が小さい顔領域を、画像表示装置2から最も距離が近い観察者とする。   In step S <b> 85, the image processing apparatus 1 calculates a viewpoint distance from the viewpoint distance calculation unit 105, and detects an observer who is closest to the image display apparatus 2. Specifically, the viewpoint distance calculation unit 105 calculates the area of the detected face area (the number of pixels included in the face area), and uses a one-dimensional LUT of the relationship between the area of the face area and the observation distance obtained in advance. To calculate the observation distance. If the observer overlaps on the captured image and a part of the face area is not shown, the area is calculated by predicting the hidden part using the face template. The closer the observer is to the image display device 2, the larger the face area is imaged. Therefore, the observation distance is estimated using the relationship between the observation distance and the face area. That is, a one-dimensional LUT of the relationship between the area of the face area and the observation distance is stored in the memory 4. Then, the observation distance of each of the detected plurality of face areas is calculated, and the face area with the smallest observation distance is set as the observer with the shortest distance from the image display device 2.

図9は撮像画像の検出された顔領域の面積を説明する概念図である。観察者91の検出された顔領域を点線93に、観察者92の検出された顔領域を点線94に示す。観察者91の顔領域の面積はx1×y1により算出され、観察者92の顔領域の面積はx2×y2により算出される。本実施例では検出された顔領域を矩形としたが、形状はこれに限定されるものではなく円であっても楕円であってもよい。   FIG. 9 is a conceptual diagram illustrating the area of the detected face area of the captured image. The face area detected by the observer 91 is indicated by a dotted line 93, and the face area detected by the observer 92 is indicated by a dotted line 94. The area of the face area of the observer 91 is calculated by x1 × y1, and the area of the face area of the observer 92 is calculated by x2 × y2. In the present embodiment, the detected face area is rectangular, but the shape is not limited to this and may be a circle or an ellipse.

上述した本実施例により、撮像画像上で観察者の顔領域の一部が写っていない場合においても距離を算出可能となり、最も近くにいる観察者に対して適切である画像を表示することが可能となる。   According to the present embodiment described above, the distance can be calculated even when a part of the face area of the observer is not captured on the captured image, and an image suitable for the closest observer can be displayed. It becomes possible.

実施例1および2では、観察距離の算出に左右の目の間隔、顔領域の面積を用いたが、観察距離を算出する方法はこれに限られるものではなく、例えば、撮像装置3を2台用いてステレオ撮影を行ない、視差によって生じる画像のずれに基づいて距離を推定する方法等であってもよい。   In the first and second embodiments, the distance between the left and right eyes and the area of the face area are used to calculate the observation distance. However, the method for calculating the observation distance is not limited to this. For example, two imaging devices 3 are provided. A method may be used in which stereo shooting is performed and the distance is estimated based on an image shift caused by parallax.

また、本発明は、上述した実施例の機能(例えば、図2、5、8のフローチャートにより示される機能)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。   The present invention also provides a system or apparatus with a storage medium storing software program codes for realizing the functions of the above-described embodiments (for example, the functions shown in the flowcharts of FIGS. 2, 5, and 8). Can also be realized. In this case, the functions of the above-described embodiments are realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read the program code.

Claims (7)

観察者の位置に応じて表示画像の色を補正する画像処理装置であって、
画像表示装置の観察範囲を撮像することにより得られる撮像画像データを取得する取得手段と、
前記撮像画像データから最も近い距離にいる観察者の視点距離を算出する視点距離算出手段と、
前記撮像画像データにおける前記最も近い距離にいる観察者を示す画像位置と、前記最も近い距離にいる観察者の視点距離とを用いて、前記最も近い距離にいる観察者の観察角度を算出する観察角度算出手段と、
前記算出された観察角度に応じた色補正を、入力画像データに対して行う色補正手段と
を有することを特徴とする画像処理装置。
An image processing apparatus that corrects the color of a display image according to the position of an observer,
Acquisition means for acquiring captured image data obtained by imaging the observation range of the image display device;
Viewpoint distance calculating means for calculating a viewpoint distance of an observer who is closest to the captured image data;
Observation for calculating an observation angle of the observer at the nearest distance using an image position indicating the observer at the nearest distance in the captured image data and a viewpoint distance of the observer at the nearest distance An angle calculation means;
An image processing apparatus comprising: a color correction unit that performs color correction on input image data according to the calculated observation angle.
前記視点距離算出手段は、前記撮像画像データから顔領域を検出し、前記検出された顔領域の左右の目の間隔を用いて、前記観察者の視点距離を算出することを特徴とする請求項1記載の画像処理装置。   The viewpoint distance calculating unit detects a face area from the captured image data, and calculates a viewpoint distance of the observer using an interval between left and right eyes of the detected face area. The image processing apparatus according to 1. 前記視点距離算出手段は、前記撮像画像データから顔領域を検出し、前記検出された顔領域の面積を用いて、前記観察者の視点距離を算出することを特徴とする請求項1記載の画像処理装置。   The image according to claim 1, wherein the viewpoint distance calculation unit detects a face area from the captured image data, and calculates the viewpoint distance of the observer using the area of the detected face area. Processing equipment. 前記色補正手段は、観察角度が0度に応じた前記画像表示装置のデバイス値を前記算出された観察角度に応じた前記画像表示装置のデバイス値に変換することを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。   The color correction unit converts a device value of the image display apparatus according to an observation angle of 0 degrees into a device value of the image display apparatus according to the calculated observation angle. 4. The image processing device according to any one of 3. 前記色補正手段は、入力画像データを前記算出された観察角度における前記画像表示装置の色再現範囲内の色データに補正することを特徴とする請求項1乃至4のいずれかに記載の画像処理装置。   5. The image processing according to claim 1, wherein the color correction unit corrects the input image data to color data within a color reproduction range of the image display device at the calculated observation angle. apparatus. 観察者の位置に応じて表示画像の色を補正する画像処理方法であって、
画像表示装置の観察範囲を撮像することにより得られる撮像画像データを取得する取得工程と、
前記撮像画像データから最も近い距離にいる観察者の視点距離を算出する視点距離算出工程と、
前記撮像画像データにおける前記最も近い距離にいる観察者を示す画像位置と、前記最も近い距離にいる観察者の視点距離とを用いて、前記最も近い距離にいる観察者の観察角度を算出する観察角度算出工程と、
前記算出された観察角度に応じた色補正を、入力画像データに対して行う色補正工程と
を有することを特徴とする画像処理方法。
An image processing method for correcting the color of a display image according to the position of an observer,
An acquisition step of acquiring captured image data obtained by imaging the observation range of the image display device;
A viewpoint distance calculating step of calculating a viewpoint distance of an observer who is closest to the captured image data;
Observation for calculating the observation angle of the observer at the closest distance using the image position indicating the observer at the closest distance in the captured image data and the viewpoint distance of the observer at the closest distance An angle calculation step;
And a color correction step of performing color correction according to the calculated observation angle on the input image data.
コンピュータを、請求項1乃至請求項5の何れか1項に記載された画像処理装置の各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 5.
JP2010185093A 2010-08-20 2010-08-20 Image processing apparatus and method Pending JP2012042804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010185093A JP2012042804A (en) 2010-08-20 2010-08-20 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010185093A JP2012042804A (en) 2010-08-20 2010-08-20 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2012042804A true JP2012042804A (en) 2012-03-01

Family

ID=45899164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010185093A Pending JP2012042804A (en) 2010-08-20 2010-08-20 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2012042804A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2793214A1 (en) * 2013-04-16 2014-10-22 Samsung Display Co., Ltd. Flexible display device and method of controlling the same
JP2014222806A (en) * 2013-05-13 2014-11-27 キヤノン株式会社 Image processing apparatus and control method of the same
JP2015189054A (en) * 2014-03-27 2015-11-02 住友重機械工業株式会社 injection molding machine
WO2016136610A1 (en) * 2015-02-27 2016-09-01 シャープ株式会社 Display device, and image display method employed by display device
US12170053B2 (en) 2022-07-26 2024-12-17 Canon Kabushiki Kaisha Image processing apparatus that corrects luminance values in pixels in a specified display region using a correction amount based on vectors between a pixel and an image capture apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2793214A1 (en) * 2013-04-16 2014-10-22 Samsung Display Co., Ltd. Flexible display device and method of controlling the same
JP2014222806A (en) * 2013-05-13 2014-11-27 キヤノン株式会社 Image processing apparatus and control method of the same
JP2015189054A (en) * 2014-03-27 2015-11-02 住友重機械工業株式会社 injection molding machine
WO2016136610A1 (en) * 2015-02-27 2016-09-01 シャープ株式会社 Display device, and image display method employed by display device
US12170053B2 (en) 2022-07-26 2024-12-17 Canon Kabushiki Kaisha Image processing apparatus that corrects luminance values in pixels in a specified display region using a correction amount based on vectors between a pixel and an image capture apparatus

Similar Documents

Publication Publication Date Title
JP6467787B2 (en) Image processing system, imaging apparatus, image processing method, and program
US8849025B2 (en) Color conversion apparatus and method thereof
WO2005052673A2 (en) Liquid crystal display with adaptive color
JP6750500B2 (en) Information processing apparatus and recognition support method
WO2014103094A1 (en) Information processing device, information processing system, and information processing method
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
US10058237B2 (en) Image processing device, image processing method, and program
JP2015060012A (en) Image processing system, image processing apparatus, image processing method, image processing program, and display system
US8810693B2 (en) Image processing apparatus and method thereof
US8937662B2 (en) Image processing device, image processing method, and program
US20090041295A1 (en) Image Display Device, Image Display Method, and Image Display Program
US20140184853A1 (en) Image processing apparatus, image processing method, and image processing program
JP2012042804A (en) Image processing apparatus and method
JP5652883B2 (en) Contour image generation method used for morphological observation of subject and scoliosis screening system using the same
CN104885119B (en) Image processing device, image processing method, and recording medium
TW201411553A (en) Noise evaluation method, image processing device, imaging device, and program
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP6977823B2 (en) Information processing equipment, control methods, and programs
US20190073558A1 (en) Information processing apparatus, information processing method, and computer program
JP2013005002A (en) Imaging apparatus
US12394394B2 (en) Display control apparatus used for color matching between reference image pickup apparatus and adjustment image pickup apparatus, control method therefor, and storage medium storing control program therefor
CN114071099A (en) Smear measuring method, smear measuring device, electronic device and readable storage medium
CN116266864A (en) Information processing apparatus, control method thereof, medium, and head-mounted display
JP6881646B2 (en) Image processing system, imaging device, image processing method and program
JP5351438B2 (en) Display control device