[go: up one dir, main page]

JP2018073122A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2018073122A
JP2018073122A JP2016212151A JP2016212151A JP2018073122A JP 2018073122 A JP2018073122 A JP 2018073122A JP 2016212151 A JP2016212151 A JP 2016212151A JP 2016212151 A JP2016212151 A JP 2016212151A JP 2018073122 A JP2018073122 A JP 2018073122A
Authority
JP
Japan
Prior art keywords
subject
image processing
wavelength
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212151A
Other languages
Japanese (ja)
Inventor
陽輔 佐藤
Yousuke Sato
陽輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016212151A priority Critical patent/JP2018073122A/en
Publication of JP2018073122A publication Critical patent/JP2018073122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】被写体の画像から高精度な法線情報を取得することができる画像処理装置を提供すること。【解決手段】撮像手段と照明手段とを有する撮像装置を用いて、被写体の法線情報を取得する画像処理装置であって、画像処理装置は、前記被写体の表面の反射特性に基づいて前記被写体からの反射光の強度が所定値以上になる波長で、前記照明手段から前記被写体に光を照射させる照射手段と、前記被写体からの反射光を、前記波長に応じた感度で前記撮像手段に記録させて画像データを生成させる生成手段と、前記反射特性、前記波長および前記感度の少なくとも1つと、前記生成手段により生成される画像データとに基づいて、前記被写体の表面の法線情報を算出する算出手段と、を備える。【選択図】 図2PROBLEM TO BE SOLVED: To provide an image processing device capable of acquiring highly accurate normal information from an image of a subject. An image processing device that acquires normal information of a subject by using an image pickup device having an image pickup means and an illumination means, wherein the image processing device is based on the reflection characteristics of the surface of the subject. The irradiation means for irradiating the subject with light from the lighting means at a wavelength at which the intensity of the reflected light from the subject is equal to or higher than a predetermined value, and the reflected light from the subject are recorded in the image pickup means with sensitivity corresponding to the wavelength. The normal information on the surface of the subject is calculated based on the generation means for generating image data, at least one of the reflection characteristics, the wavelength and the sensitivity, and the image data generated by the generation means. It is provided with a calculation means. [Selection diagram] Fig. 2

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

被写体表面の形状情報の一種である法線情報を取得する技術として、照度差ステレオ法技術が知られている。また、人の顔形状に対して高精度に法線情報を取得する照度差ステレオ法として、勾配照明法技術が知られている(特許文献1)。勾配照明法技術は、同時に所定数の白色光照明を制御(点滅・調光)して、異なる照明条件で照射された被写体の画像を複数取得し、取得された複数の被写体画像に基づいて法線情報を取得している。   An illuminance difference stereo method technique is known as a technique for acquiring normal line information, which is a kind of shape information on the surface of an object. Also, a gradient illumination method technique is known as an illuminance difference stereo method for acquiring normal line information with high accuracy with respect to a human face shape (Patent Document 1). Gradient illumination method technology simultaneously controls (flashes and dimms) a predetermined number of white light illuminations, acquires multiple images of subjects illuminated under different illumination conditions, and based on the acquired multiple subject images The line information is acquired.

米国特許第8134555号公報U.S. Pat. No. 8,134,555

しかしながら、特許文献1の技術では、被写体の分光反射率が相対的に高い波長帯域において、照明の分光放射輝度が相対的に低く、且つ、カメラの分光感度が相対的に低いため、記録される被写体像の画質が低かった(S/N比が低い)。このため、特許文献1の技術では、高精度な法線情報を取得することが困難であった。
上記課題に鑑み、本発明は、被写体の画像から高精度な法線情報を取得することができる画像処理装置を提供することを目的とする。
However, in the technique of Patent Document 1, recording is performed because the spectral radiance of illumination is relatively low and the spectral sensitivity of the camera is relatively low in a wavelength band where the spectral reflectance of the subject is relatively high. The image quality of the subject image was low (S / N ratio was low). For this reason, it is difficult for the technique of Patent Document 1 to acquire high-accuracy normal information.
In view of the above problems, an object of the present invention is to provide an image processing apparatus that can acquire high-precision normal information from an image of a subject.

上記目的を達成するために、本発明の一態様による画像処理装置は、撮像手段と照明手段とを有する撮像装置を用いて、被写体の法線情報を取得する画像処理装置であって、前記被写体の表面の反射特性に基づいて前記被写体からの反射光の強度が所定値以上になる波長で、前記照明手段から前記被写体に光を照射させる照射手段と、前記被写体からの反射光を、前記波長に応じた感度で前記撮像手段に記録させて画像データを生成させる生成手段と、前記反射特性、前記波長および前記感度の少なくとも1つと、前記生成手段により生成される画像データとに基づいて、前記被写体の表面の法線情報を算出する算出手段と、を備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that acquires normal information of a subject using an imaging device having an imaging unit and an illumination unit, and the subject An irradiation means for irradiating the subject with light from the illumination means at a wavelength at which the intensity of the reflected light from the subject is a predetermined value or more based on the reflection characteristics of the surface of the object, and the reflected light from the subject Based on the generation means for generating the image data to be recorded in the imaging means with the sensitivity according to the above, at least one of the reflection characteristic, the wavelength and the sensitivity, and the image data generated by the generation means, Calculating means for calculating normal line information on the surface of the subject.

本発明により、高精度な被写体法線情報を取得することができる。   According to the present invention, highly accurate subject normal information can be acquired.

実施形態1の撮像装置の概略模式図である。1 is a schematic schematic diagram of an imaging apparatus according to Embodiment 1. FIG. 図1の撮像装置の主要構成要素の詳細を示す図である。It is a figure which shows the detail of the main components of the imaging device of FIG. 本発明の基本的技術思想を説明するための図である。It is a figure for demonstrating the basic technical idea of this invention. 実施形態1における画像処理部の機能ブロック図である。FIG. 3 is a functional block diagram of an image processing unit in the first embodiment. 組成の異なる半透明物体における反射の性質を示す模式図である。It is a schematic diagram which shows the property of the reflection in the translucent object from which a composition differs. 実施形態1の画像処理部における処理のフローチャートである。3 is a flowchart of processing in an image processing unit according to the first embodiment. 実施形態2の画像処理部の機能ブロック図である。6 is a functional block diagram of an image processing unit according to Embodiment 2. FIG. 実施形態2の画像処理部における処理のフローチャートである。10 is a flowchart of processing in an image processing unit according to the second embodiment.

以下、本発明の撮像装置の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
実施形態1
本実施形態では、被写体の分光反射特性が既知の場合において、高精度に被写体の法線情報を取得することができる撮像装置を説明する。本実施形態では、被写体は人物であり、本撮影装置を用いることで、人物の肌(人肌)について高精度に法線情報を取得することができる。
Hereinafter, an embodiment of an imaging device of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of features described in the present embodiment are not necessarily essential to the solution means of the present invention. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.
Embodiment 1
In the present embodiment, an imaging apparatus capable of acquiring normal line information of a subject with high accuracy when the spectral reflection characteristic of the subject is known will be described. In the present embodiment, the subject is a person, and normal information can be acquired with high accuracy for the skin (human skin) of the person by using the photographing apparatus.

(撮像装置の概要)
図1は、実施形態1の撮像装置100の概略模式図である。図1に示されているように、撮像装置100は、中央制御部101、撮像部(カメラ)102〜105、照明ユニット106〜117およびフレーム118を有する。中央制御部101によって撮像部102〜105と照明ユニット106〜117を制御して、被写体119を撮影(撮像)する。フレーム118は、撮像部102〜105および照明ユニット106〜117を固定する。撮像部102〜105および照明ユニット106〜117を固定することで、各撮像部102〜105および各照明ユニット106〜117の位置や姿勢を撮影中に固定することが可能となる。なお、撮像装置100は、データ通信制御部(図示せず)や電源(図示せず)を有しているが、本実施形態を説明するにあたっては重要ではないので説明を省略する。
(Outline of imaging device)
FIG. 1 is a schematic diagram of an imaging apparatus 100 according to the first embodiment. As illustrated in FIG. 1, the imaging apparatus 100 includes a central control unit 101, imaging units (cameras) 102 to 105, illumination units 106 to 117, and a frame 118. The central control unit 101 controls the imaging units 102 to 105 and the illumination units 106 to 117 to photograph (capture) the subject 119. The frame 118 fixes the imaging units 102 to 105 and the illumination units 106 to 117. By fixing the imaging units 102 to 105 and the illumination units 106 to 117, the positions and orientations of the imaging units 102 to 105 and the illumination units 106 to 117 can be fixed during imaging. Note that the imaging apparatus 100 includes a data communication control unit (not shown) and a power source (not shown). However, the explanation is omitted because it is not important in explaining the present embodiment.

中央制御部101は、撮像部102〜105と照明ユニット106〜117を制御する。また、中央制御部101は、撮像部102〜105から受信される画像データを処理して被写体119の法線情報を算出する画像処理部210を有する。中央制御部101と撮像部102〜105との間の制御信号及び画像データの通信には、USB3.0規格によるシリアルポート通信が適用される。これに伴い、USBハブを用いて、複数の撮像部102〜105の接続を可能とする。中央制御部101と照明ユニット106〜117との間の制御信号の通信には、Ethernet規格によるTCP/IP通信が適用される。これに伴い、Ehternetハブを用いて、複数の照明ユニット106〜117の接続を可能とする。なお、機器間接続規格は上記した規格に限定されない。たとえば、IEEE1394、CameraLink、CoaXPress、DMX、DALIを適用することが可能である。TCP/IPは、Transmission Control Protocol/Internet Protocolの略である。   The central control unit 101 controls the imaging units 102 to 105 and the illumination units 106 to 117. In addition, the central control unit 101 includes an image processing unit 210 that processes image data received from the imaging units 102 to 105 and calculates normal information of the subject 119. Serial port communication based on the USB 3.0 standard is applied to communication of control signals and image data between the central control unit 101 and the imaging units 102 to 105. Accordingly, a plurality of imaging units 102 to 105 can be connected using a USB hub. TCP / IP communication according to the Ethernet standard is applied to communication of control signals between the central control unit 101 and the lighting units 106 to 117. Accordingly, a plurality of lighting units 106 to 117 can be connected using an Ethernet hub. The inter-device connection standard is not limited to the above standard. For example, IEEE1394, CameraLink, CoaXPress, DMX, and DALI can be applied. TCP / IP is an abbreviation for Transmission Control Protocol / Internet Protocol.

撮像部102〜105は、被写体119を撮影して画像データを記録する。記録された画像データは直ちに、撮像部102〜105から中央制御部101に転送される。各撮像部102〜105は中央制御部101によって同期制御されており、露光のタイミングを合わせることが可能である。
照明ユニット106〜117は、被写体119に光を照射する。各照明ユニット106〜117は発光・調光・調色・偏光を制御可能である(詳細は図2で説明する)。各照明ユニット106〜117は中央制御部101によって同期制御されており、発光(照射)タイミングを合わせることが可能である。本実施形態では、撮像装置100は照明ユニットを複数備えている。
The imaging units 102 to 105 photograph the subject 119 and record image data. The recorded image data is immediately transferred from the imaging units 102 to 105 to the central control unit 101. The imaging units 102 to 105 are synchronously controlled by the central control unit 101, and the exposure timing can be adjusted.
The illumination units 106 to 117 irradiate the subject 119 with light. Each of the illumination units 106 to 117 can control light emission, light adjustment, color adjustment, and polarization (details will be described with reference to FIG. 2). The lighting units 106 to 117 are synchronously controlled by the central control unit 101, and the light emission (irradiation) timing can be adjusted. In the present embodiment, the imaging apparatus 100 includes a plurality of illumination units.

フレーム118は、各撮像部102〜105および各照明ユニット106〜117を固定する。フレーム118の形状は、各撮像部102〜105および各照明ユニット106〜117の被写体119に対する距離が概略等しくなるように撮像部および照明ユニットを配置できるような形状であることが望ましい。このため本実施形態では、フレーム118の形状として、球形の形状を採用する。フレーム118に球形の形状を与えるために以下のような機構を用いる。地球に模して説明するなら、任意に定義した北極と南極を結ぶように、円状の鉄パイプを複数配管することで緯度を定義して、更に複数の経度において円状の鉄パイプを配管する。このように鉄パイプを配管することで球形のフレームが実現される。図1ではフレーム118は2次元に示されているが、本実施形態ではフレーム118は3次元の形状を有し、撮像部102〜105と照明ユニット106〜117も3次元に配置されている。   The frame 118 fixes the imaging units 102 to 105 and the illumination units 106 to 117. The shape of the frame 118 is desirably a shape that allows the imaging units and the lighting units to be arranged so that the distances of the imaging units 102 to 105 and the lighting units 106 to 117 with respect to the subject 119 are approximately equal. Therefore, in this embodiment, a spherical shape is adopted as the shape of the frame 118. In order to give the frame 118 a spherical shape, the following mechanism is used. In the explanation of the Earth, latitude is defined by connecting multiple circular iron pipes to connect the arbitrarily defined North Pole and South Pole, and circular iron pipes are further connected at multiple longitudes. To do. Thus, a spherical frame is realized by piping the iron pipe. In FIG. 1, the frame 118 is shown two-dimensionally, but in this embodiment, the frame 118 has a three-dimensional shape, and the imaging units 102 to 105 and the illumination units 106 to 117 are also arranged three-dimensionally.

なお、フレーム118にフレキシブルアーム(図示せず)を設けてもよい。フレキシブルアームを設けることで、フレーム118を用いた照明ユニット間の角度分解能はたとえば1°以下で設定可能となる。
また、フレーム118の形状は上記した形状に限定されない。たとえば、フレーム18は、半球状の形状を有してもよいし、複数の直管の鉄パイプを複数立てることで円筒状にしてもよい。また、フレーム118の素材は、鉄パイプに限定されない。フレーム118は、球形を形成できるならば任意の素材を用いてよい。そのような素材として、たとえば発泡スチロール、針金、木材、硬化樹脂などがあげられる。
被写体119は、本実施形態では人物である。なお、被写体119は、人物に限定されず、人物以外の物体(動物を含む)でもよい。
The frame 118 may be provided with a flexible arm (not shown). By providing the flexible arm, the angular resolution between the illumination units using the frame 118 can be set to 1 ° or less, for example.
Further, the shape of the frame 118 is not limited to the shape described above. For example, the frame 18 may have a hemispherical shape, or may have a cylindrical shape by standing a plurality of straight pipes. Further, the material of the frame 118 is not limited to the iron pipe. The frame 118 may be made of any material as long as it can form a spherical shape. Examples of such materials include polystyrene foam, wire, wood, and cured resin.
The subject 119 is a person in this embodiment. The subject 119 is not limited to a person, and may be an object (including an animal) other than a person.

(撮像装置の主要構成要素の説明)
図2は撮像装置100の中央制御部101と撮像部102と照明ユニット106の詳細を示すブロック図である。
(中央制御部)
図2に基づいて、まず、中央制御部101の構成を説明する。中央制御部101は、中央処理装置(CPU)201、RAM202、ROM203、補助記憶I/F204、補助記憶部205、汎用入出力I/F206および汎用入出力部207を有する。中央制御部101はさらに、表示I/F208、表示部209、画像処理部210、撮影I/F211、照明I/F212およびバス213を有する。CPUはCentral Processing Unitの略である。RAMはRandom Access Memoryの略である。ROMはRead Only Memoryの略である。I/FはInterface(インタフェース)の略である。
(Description of main components of imaging device)
FIG. 2 is a block diagram illustrating details of the central control unit 101, the imaging unit 102, and the illumination unit 106 of the imaging apparatus 100.
(Central control unit)
First, the configuration of the central control unit 101 will be described based on FIG. The central control unit 101 includes a central processing unit (CPU) 201, a RAM 202, a ROM 203, an auxiliary storage I / F 204, an auxiliary storage unit 205, a general-purpose input / output I / F 206, and a general-purpose input / output unit 207. The central control unit 101 further includes a display I / F 208, a display unit 209, an image processing unit 210, a photographing I / F 211, an illumination I / F 212, and a bus 213. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory. I / F is an abbreviation for Interface.

CPU201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プログラム等を格納している。補助記憶I/F204は、後述する補助記憶部205と中央制御部101内の他の構成要素との間のデジタルデータの搬送路として機能する。本実施形態において、補助記憶I/F204は、シリアルATA準拠のデバイスであるとする。なお、後述する補助記憶部205の装置規格に応じて、他の規格に準拠したデバイスを補助記憶I/F204として採用してもよい。ATAは、Advanced technology attachmentの略である。   The CPU 201 comprehensively controls each unit described below. The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The ROM 203 stores a control program executed by the CPU 201 and the like. The auxiliary storage I / F 204 functions as a digital data transfer path between an auxiliary storage unit 205 (to be described later) and other components in the central control unit 101. In this embodiment, it is assumed that the auxiliary storage I / F 204 is a serial ATA compliant device. Note that a device compliant with another standard may be adopted as the auxiliary storage I / F 204 in accordance with the device standard of the auxiliary storage unit 205 described later. ATA is an abbreviation for Advanced technology attachment.

補助記憶部205は、制御プログラムや画像データ等を保存する。補助記憶部205は、停電時においてもデータが保持される不揮発性デバイスであり、一般的にはRAM202よりも大きい記憶容量を有して、RAM202の記憶容量を補完する。本実施形態において、補助記憶部205はHDD(ハードディスクドライブ)である。なお、補助記憶部205は他の規格を適用してもよい(HDD以外の記憶装置を採用してもよい)。そのような規格として、たとえばSSD(ソリッドステートドライブ)、CF(コンパクトフラッシュ(登録商標))、SDメモリーカード、miniSDカード、microSDカードがあげられる。   The auxiliary storage unit 205 stores a control program, image data, and the like. The auxiliary storage unit 205 is a non-volatile device that retains data even during a power failure, and generally has a larger storage capacity than the RAM 202 and complements the storage capacity of the RAM 202. In the present embodiment, the auxiliary storage unit 205 is an HDD (hard disk drive). The auxiliary storage unit 205 may apply another standard (a storage device other than the HDD may be adopted). Examples of such standards include SSD (solid state drive), CF (compact flash (registered trademark)), SD memory card, miniSD card, and microSD card.

汎用入出力I/F206は、後述する汎用入出力部207と中央制御部101内の他の構成要素との間のデジタルデータの搬送路として機能する。本実施形態において、汎用入出力I/F206は、USB準拠のデバイスであるとする。なお、後述する汎用入出力部207の装置規格に応じて、他の規格に準拠するデバイスを汎用入出力I/F206として採用してもよい。そのような規格として、PS/2があげられる。USBは、Universal serial busの略である。
汎用入出力部207は、ユーザにより入力される入力情報を取得する。本実施形態において、汎用入出力部207は、キーボードであるとする。なお、汎用入出力部207として、キーボードにマウスを追加してもよい。
汎用入出力部207は、キーボードやマウスに限定されない。たとえば、汎用入出力部207は、タッチパネル、赤外線センサ、アイトラッカー、脳波センサにより構成されてもよい。
The general-purpose input / output I / F 206 functions as a digital data transfer path between a general-purpose input / output unit 207 (to be described later) and other components in the central control unit 101. In the present embodiment, it is assumed that the general-purpose input / output I / F 206 is a USB-compliant device. Note that a device compliant with another standard may be adopted as the general-purpose input / output I / F 206 in accordance with the device standard of the general-purpose input / output unit 207 described later. An example of such a standard is PS / 2. USB is an abbreviation for Universal serial bus.
The general-purpose input / output unit 207 acquires input information input by the user. In this embodiment, it is assumed that the general-purpose input / output unit 207 is a keyboard. Note that a mouse may be added to the keyboard as the general-purpose input / output unit 207.
The general-purpose input / output unit 207 is not limited to a keyboard or a mouse. For example, the general-purpose input / output unit 207 may be configured by a touch panel, an infrared sensor, an eye tracker, and an electroencephalogram sensor.

表示I/F208は、後述する表示部209と中央制御部101内の他の構成要素との間のデジタルデータの搬送路として機能する。本実施形態において、表示I/F208は、DVI準拠のデバイスであるとする。なお、後述する表示部209の装置規格に応じて、他の規格に準拠するデバイスを表示I/F208として採用してもよい。表示部209は、視覚的なユーザーインフェースである。本実施形態において、表示部209は、液晶型ディスプレイであるとする。DVIは、Digital visual interfaceの略である。
なお、表示部209は液晶型ディスプレイに限定されない。たとえば、表示部209は、ブラウン管型ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、LCOS方式プロジェクタ、またはDLP方式プロジェクタであってもよい。LCOSは、Liquid crystal on siliconの略である。DLPは、Digital light processingの略である。
The display I / F 208 functions as a digital data transport path between a display unit 209 described later and other components in the central control unit 101. In the present embodiment, it is assumed that the display I / F 208 is a DVI-compliant device. Note that a device compliant with another standard may be adopted as the display I / F 208 in accordance with the device standard of the display unit 209 described later. The display unit 209 is a visual user interface. In the present embodiment, it is assumed that the display unit 209 is a liquid crystal display. DVI is an abbreviation for Digital visual interface.
Note that the display unit 209 is not limited to a liquid crystal display. For example, the display unit 209 may be a cathode ray tube type display, a plasma display, an organic EL display, an LCOS projector, or a DLP projector. LCOS is an abbreviation for Liquid crystal on silicon. DLP is an abbreviation for Digital light processing.

画像処理部210は、画像処理のための専用デバイスである。画像処理部210は、画像処理回路としてHW(ハードウェア)に実装されており、画像処理回路(画像処理部210)は高速に処理を行なうことができる。本実施形態において、画像処理部210はFPGAボードである。撮像I/F211は、撮像部102〜105と中央制御部101内の他の構成要素との間のデジタルデータの搬送路として機能する。本実施形態において、撮像I/F211は、USB3.0規格によるデバイスである。FPGAはField−programmable gate arrayの略である。なお、後述する撮像部102〜105の装置規格に応じて、他の規格に準拠するデバイスを撮像I/F211として採用することもできる。そのような規格として、IEEE1394、CameraLink、CoaXPress、GigEがあげられる。   The image processing unit 210 is a dedicated device for image processing. The image processing unit 210 is mounted on an HW (hardware) as an image processing circuit, and the image processing circuit (the image processing unit 210) can perform processing at high speed. In the present embodiment, the image processing unit 210 is an FPGA board. The imaging I / F 211 functions as a digital data transfer path between the imaging units 102 to 105 and other components in the central control unit 101. In the present embodiment, the imaging I / F 211 is a device based on the USB 3.0 standard. FPGA is an abbreviation for Field-programmable gate array. Note that a device compliant with another standard can be adopted as the imaging I / F 211 in accordance with the apparatus standard of the imaging units 102 to 105 described later. Examples of such standards include IEEE 1394, CameraLink, CoaXPress, and GigE.

照明I/F212は、照明ユニット106〜117と中央制御部101内の他の構成要素との間のデジタルデータの搬送路として機能する。本実施形態において、照明I/F212は、Ethernet規格によるデバイスであるとする。なお、後述する照明ユニット106〜117の装置規格に応じて、他の規格に準拠するデバイスを照明I/F212として採用することもできる。そのような規格として、DMX、DALIがあげられる。バス213は、各種データの転送経路として機能する。
以上が中央制御部101の主な構成要素であるが、構成要素は上記のものに限定されない。また、上記した構成要素のいずれかを省略した構成を採ってもよい。なお、中央制御部101の構成要素は上記以外にも存在するが、本実施形態の実施に必須なものではないので、説明を省略する。
The illumination I / F 212 functions as a digital data transport path between the illumination units 106 to 117 and other components in the central control unit 101. In the present embodiment, it is assumed that the illumination I / F 212 is a device according to the Ethernet standard. In addition, according to the apparatus standard of the illumination units 106-117 mentioned later, the device based on another standard can also be employ | adopted as illumination I / F212. Examples of such standards include DMX and DALI. The bus 213 functions as a transfer path for various data.
The above are the main components of the central control unit 101, but the components are not limited to those described above. Moreover, you may take the structure which abbreviate | omitted any of the above-mentioned component. In addition, although the component of the central control part 101 exists other than the above, since it is not essential for implementation of this embodiment, description is abbreviate | omitted.

(撮像部の構成)
次に、撮像部102の構成を説明する。撮像部103〜105は、撮像部102と同じ構成を有するので、撮像部102のみを説明し、撮像部103〜105の説明は省略する。
撮像部102は、直線偏光フィルタ221、レンズ222、NDフィルタ223、絞り224、シャッタ225、光学ローパスフィルタ226およびIRカットフィルタ227を有する。撮像部102はさらに、カラーフィルタ228、センサ229、A/D変換部230およびカメラ制御部231を有する。NDはNeural densityの略であり、IRはInfraredの略であり、A/DはAnalog/digitalの略である。撮像部102は、本実施形態ではカメラであるので、撮像部102の制御部をカメラ制御部231と称する。
直線偏光フィルタ221は、入射される無偏光の被写体の光学像から、所定の偏光主軸方向を有する電界ベクトル成分のみを抽出ことで直線偏光の被写体の光学像を得る機能を有する。
レンズ222はフォーカスレンズである。本実施形態では焦点距離50mmとなるフォーカスレンズを用いる。NDフィルタ223は、フォーカス結像された被写体の光学像に対して適用する光学的なフィルタであり、被写体の光学像の輝度を減光する機能を有する。
(Configuration of imaging unit)
Next, the configuration of the imaging unit 102 will be described. Since the imaging units 103 to 105 have the same configuration as the imaging unit 102, only the imaging unit 102 will be described, and description of the imaging units 103 to 105 will be omitted.
The imaging unit 102 includes a linear polarization filter 221, a lens 222, an ND filter 223, a diaphragm 224, a shutter 225, an optical low-pass filter 226, and an IR cut filter 227. The imaging unit 102 further includes a color filter 228, a sensor 229, an A / D conversion unit 230, and a camera control unit 231. ND is an abbreviation for Neural density, IR is an abbreviation for Infrared, and A / D is an abbreviation for Analog / digital. Since the imaging unit 102 is a camera in this embodiment, the control unit of the imaging unit 102 is referred to as a camera control unit 231.
The linear polarization filter 221 has a function of obtaining an optical image of a linearly polarized subject by extracting only an electric field vector component having a predetermined polarization principal axis direction from an incident non-polarized subject optical image.
The lens 222 is a focus lens. In this embodiment, a focus lens having a focal length of 50 mm is used. The ND filter 223 is an optical filter that is applied to the optical image of the subject that has undergone focus imaging, and has a function of reducing the luminance of the optical image of the subject.

絞り224は、撮像部102の開口を制御する。本実施形態では、絞り224は絞り羽根によって構成されている。
シャッタ225は、撮像部102の露光を制御する。本実施形態では、シャッタ225はグローバルシャッタであるとする。なお、グローバルシャッタ以外のシャッタを、シャッタ225として採用してもよい。たとえば、ローリングシャッタをシャッタ225として採用してよい。
光学ローパスフィルタ226は、フォーカス結像された被写体の光学像に対して適用する光学的なローパスフィルタであり、被写体光学像の空間周波数の高周波成分を遮断する。これにより、後述するセンサ229の空間解像度と被写体光学像の空間周波数のミスマッチによって発生するモアレを低減する。
The diaphragm 224 controls the opening of the imaging unit 102. In the present embodiment, the diaphragm 224 is configured by diaphragm blades.
The shutter 225 controls the exposure of the imaging unit 102. In the present embodiment, it is assumed that the shutter 225 is a global shutter. A shutter other than the global shutter may be adopted as the shutter 225. For example, a rolling shutter may be employed as the shutter 225.
The optical low-pass filter 226 is an optical low-pass filter that is applied to the optical image of the subject that has undergone focus imaging, and blocks high-frequency components of the spatial frequency of the subject optical image. This reduces moiré that occurs due to a mismatch between the spatial resolution of the sensor 229 described later and the spatial frequency of the subject optical image.

IRカットフィルタ227は、フォーカス結像された被写体の光学像に対して適用する光学的なフィルタであり、被写体光学像の分光波長成分のうち、近赤外帯域の波長成分を遮断する。これにより、後述するセンサ229が感応する分光波長成分を可視光帯域に限定することができ、近赤外成分による色調の違和感を低減することができる。
カラーフィルタ228は、フォーカス結像された被写体の光学像に対して適用する光学的なフィルタであり、被写体光学像の分光波長成分のうち、所定の可視光帯域の波長成分のみをフィルタリングする。これにより、後述するセンサ229が感応する分光波長成分を所定の可視光帯域の波長成分のみに限定することができる。カラーフィルタの分光波長は複数種類あり、それぞれR=700nm、G=546nm、B=436nmにおいて相対的に多く濾波(フィルタリング)する。これにより、3刺激値を用いた色の表現が可能となる。なお、カラーフィルタの分光波長は上記した値に限定されず、可視光の範囲であれば中心波長や帯域幅に任意の特性値を有するフィルタを適用できる。
The IR cut filter 227 is an optical filter that is applied to an optical image of a subject that has undergone focus imaging, and blocks near-infrared wavelength components from the spectral wavelength components of the subject optical image. Thereby, the spectral wavelength component to which the sensor 229 described later is sensitive can be limited to the visible light band, and the color tone discomfort due to the near infrared component can be reduced.
The color filter 228 is an optical filter that is applied to the optical image of the subject that has undergone focus imaging, and filters only the wavelength component in a predetermined visible light band among the spectral wavelength components of the subject optical image. Thereby, the spectral wavelength component to which the sensor 229 described later is sensitive can be limited to only a wavelength component in a predetermined visible light band. There are a plurality of spectral wavelengths of the color filter, and a relatively large amount of filtering (filtering) is performed at R = 700 nm, G = 546 nm, and B = 436 nm. As a result, it is possible to express colors using tristimulus values. Note that the spectral wavelength of the color filter is not limited to the above-described value, and a filter having an arbitrary characteristic value in the center wavelength or bandwidth can be applied within the visible light range.

センサ229は、たとえばCMOSやCCDなどのセンサであり、各レンズ222でフォーカス結像された被写体の光学像を電気信号に変換することで光量を検知する。検知の際に、カラーフィルタ228によって構成されるベイヤ配列パターンによってセンサ229を構成するフォトダイオードは、所定の可視光帯域の波長成分に感度を有する。検知された光量は、アナログ値としてセンサ229からA/D変換部230に出力される。A/D変換部230は、当該アナログ値にA/D変換を行ない、デジタル値を生成する。当該デジタル値(デジタルデータ)はカメラ制御部231に出力される。カメラ制御部231は、フォーカスを合わせる、シャッタを開く、シャッタを閉じる、絞りを調節するなどの機能を、撮像部102の他の構成要素を制御することで実現する。CMOSは、Complementary metal oxide semiconductorの略である。CCDは、Charge coupled deviceの略である。
以上が撮像部102の構成であるが、構成要素は上記に限定されず、上記の構成要素のいずれかを省略してもよい。また、撮像部102の構成要素は上記以外にも存在するが、本実施形態の実施に必須なものではないので、説明を省略する。
The sensor 229 is, for example, a sensor such as a CMOS or a CCD, and detects the amount of light by converting the optical image of the subject focused by each lens 222 into an electrical signal. At the time of detection, the photodiode that configures the sensor 229 with the Bayer array pattern configured by the color filter 228 has sensitivity to a wavelength component in a predetermined visible light band. The detected light quantity is output from the sensor 229 to the A / D conversion unit 230 as an analog value. The A / D conversion unit 230 performs A / D conversion on the analog value to generate a digital value. The digital value (digital data) is output to the camera control unit 231. The camera control unit 231 realizes functions such as focusing, opening a shutter, closing a shutter, and adjusting a diaphragm by controlling other components of the imaging unit 102. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. CCD is an abbreviation for Charge coupled device.
The above is the configuration of the imaging unit 102, but the constituent elements are not limited to the above, and any of the above constituent elements may be omitted. Further, although there are other components of the imaging unit 102 than the above, description thereof is omitted because it is not essential for the implementation of the present embodiment.

(照明ユニットの構成)
次に、照明ユニット106構成を説明する。照明ユニット107〜117は、照明ユニット106と同じ構成を有するので、照明ユニット106のみを説明し、照明ユニット107〜117の説明は省略する。
照明ユニット106は、照明ユニット制御部241、定電流源・調光制御部242、発光部243、カラーフィルタ244および直線偏光フィルタ245で構成される。
照明ユニット制御部241は、発光を指示する、調光を指示する、調色を指示する、直線偏光の偏光主軸方向を指示するなどの機能を、照明ユニット106の他の構成要素を制御することで実現する。照明ユニット制御部241の構成は、中央制御部101の構成に準じており、中央制御部101のCPU201、RAM202、ROM203、補助記憶I/F204、補助記憶部205、汎用入出力I/F206および表示I/F208と同じ機能を有する。照明ユニット制御部241は、中央制御部101に準ずる構成を有しているが、中央制御部101より小型で軽量である。照明ユニット制御部241の汎用入出力I/F2411は、本実施形態ではUSB準拠のデバイスであるとする。照明ユニット制御部241の汎用入出力I/F2412は、PWM(パスル幅変調)信号を発信する機能を有する。PWM信号は、汎用的に用いられるデバイスの制御信号である。照明ユニット制御部241は、中央制御部101から照明I/F212を介して入力される制御信号に基づいて、PWM信号のデューティー比を調節する機能を有する。PWMは、Pulse width modulationの略である。
(Configuration of lighting unit)
Next, the configuration of the illumination unit 106 will be described. Since the illumination units 107 to 117 have the same configuration as the illumination unit 106, only the illumination unit 106 will be described, and description of the illumination units 107 to 117 will be omitted.
The illumination unit 106 includes an illumination unit control unit 241, a constant current source / dimming control unit 242, a light emitting unit 243, a color filter 244, and a linear polarization filter 245.
The lighting unit control unit 241 controls other components of the lighting unit 106 such as a function of instructing light emission, instructing dimming, instructing toning, and instructing a polarization main axis direction of linearly polarized light. Realize with. The configuration of the lighting unit control unit 241 conforms to the configuration of the central control unit 101. The CPU 201, the RAM 202, the ROM 203, the auxiliary storage I / F 204, the auxiliary storage unit 205, the general-purpose input / output I / F 206, and the display of the central control unit 101 It has the same function as the I / F 208. The lighting unit control unit 241 has a configuration similar to the central control unit 101, but is smaller and lighter than the central control unit 101. The general-purpose input / output I / F 2411 of the illumination unit control unit 241 is assumed to be a USB-compliant device in this embodiment. The general-purpose input / output I / F 2412 of the lighting unit controller 241 has a function of transmitting a PWM (pulse width modulation) signal. The PWM signal is a control signal for a device used for general purposes. The lighting unit control unit 241 has a function of adjusting the duty ratio of the PWM signal based on a control signal input from the central control unit 101 via the lighting I / F 212. PWM is an abbreviation for Pulse width modulation.

定電流源・調光制御部242には、不図示の定電圧直流電源から電力が入力されると共に、照明ユニット制御部241からPWM信号が入力される。定電流源・調光制御部242は、入力された電力を定電流の電力に変換すると共に、入力されたPWM信号に基づいて断続的に定電流電力のオン・オフを切り換える機能を有する。定電流源・調光制御部242は、抵抗素子とトランジスタを含む電子部品で構成される電子回路である。
発光部243には、定電流源・調光制御部242から定電流電力が入力される。発光部243は、入力された定電流電力から、光電変換により光を発する機能(発光機能)を有する。発光機能を有するデバイスとして、発光ダイオード(以下、「LED」と記す)があげられる。LEDはLight Emitting Diodeの略である。
The constant current source / dimming control unit 242 receives power from a constant voltage DC power source (not shown) and also receives a PWM signal from the illumination unit control unit 241. The constant current source / dimming control unit 242 has a function of converting input power into constant current power and switching on / off of the constant current power intermittently based on the input PWM signal. The constant current source / dimming control unit 242 is an electronic circuit composed of electronic components including a resistance element and a transistor.
Constant current power is input to the light emitting unit 243 from the constant current source / dimming control unit 242. The light emitting unit 243 has a function of emitting light by photoelectric conversion from the input constant current power (light emitting function). As a device having a light emitting function, there is a light emitting diode (hereinafter referred to as “LED”). LED is an abbreviation for Light Emitting Diode.

本実施形態において、照明ユニット106(〜117)が発する光の明るさは、撮像部102(〜105)によって結像される被写体の光学像のS/N比を向上させるためにより明るい方がよい。このため、LED(発光部243)は順方向最大許容電流値が数百mA規模のパワーLEDに分類されるものを採用する。本実施形態ではPWM制御方式により、デューティー比と発光輝度の線形性が高いLEDの調光機能を実現する。本実施形態において、発光部243は調色性能が高いことが重要である。このため、演色性の高いLEDデバイスを用いる。なお、特定の分光波長に強度が集中している白色LEDを発光部243として採用してもよい。   In the present embodiment, the brightness of the light emitted from the illumination unit 106 (˜117) is better to improve the S / N ratio of the optical image of the subject imaged by the imaging unit 102 (˜105). . For this reason, LED (light emission part 243) employ | adopts what is classified into power LED with a forward maximum allowable current value of several hundred mA scale. In this embodiment, the dimming function of the LED having a high linearity of the duty ratio and the light emission luminance is realized by the PWM control method. In the present embodiment, it is important that the light emitting unit 243 has high toning performance. For this reason, an LED device with high color rendering properties is used. A white LED whose intensity is concentrated at a specific spectral wavelength may be adopted as the light emitting unit 243.

カラーフィルタ244は、発光部243から発せられる光に対して適用する光学的なフィルタであり、所定の可視光帯域の波長成分のみを濾波(フィルタリング)する。本実施形態では、カラーフィルタ244として、バンド幅可変液晶チューナブルフィルタを採用する。中央制御部101はカラーフィルタ244のバンド幅を制御することが可能である。なお、カラーフィルタ244はバンド幅が固定のフィルタを適用してもよい。
直線偏光フィルタ245は、発光部243から発せられる光に対して適用する光学的なフィルタであり、所定の偏光主軸方向を有する電界ベクトル成分のみを抽出することで直線偏光を発する機能を有する。
The color filter 244 is an optical filter applied to the light emitted from the light emitting unit 243, and filters (filters) only the wavelength component in a predetermined visible light band. In the present embodiment, a variable bandwidth liquid crystal tunable filter is employed as the color filter 244. The central control unit 101 can control the bandwidth of the color filter 244. Note that the color filter 244 may be a filter with a fixed bandwidth.
The linear polarization filter 245 is an optical filter applied to the light emitted from the light emitting unit 243, and has a function of emitting linearly polarized light by extracting only an electric field vector component having a predetermined polarization main axis direction.

なお、照明ユニット106は、定電流源・調光制御部242、発光部243、カラーフィルタ244および直線偏光フィルタ245のいずれか、または全部を、複数有してもよい。その場合、輝度、色度、偏光主軸方向の異なる光を同時発光(複数生成)する機能を更に有することができる。
以上が照明ユニット106の構成であるが、構成要素は上記したものに限定されず、上記の構成要素のいずれかを省略した構成を採ってもよい。また、照明ユニット106は上記した以外の構成要素も有するが、本実施形態の実施に必須ではないので、説明を省略する。
The illumination unit 106 may include a plurality of any or all of the constant current source / dimming control unit 242, the light emitting unit 243, the color filter 244, and the linear polarization filter 245. In that case, it is possible to further have a function of simultaneously emitting (generating a plurality of) lights having different luminance, chromaticity, and polarization main axis direction.
The above is the configuration of the lighting unit 106, but the constituent elements are not limited to those described above, and a configuration in which any of the above constituent elements is omitted may be employed. Moreover, although the illumination unit 106 also has components other than the above-mentioned, since it is not essential for implementation of this embodiment, description is abbreviate | omitted.

(本実施形態の基本的な技術思想)
図3を用いて本発明の基本的技術思想の概要を説明する。図3(a)は横一列に並べられた4つのグラフからなり、従来の(たとえば、国際特許出願公開WO2007/88709公報の)撮像装置の分光伝達特性を示している。A/D変換により被写体の光学像から画像データ(Image)を生成する過程において、撮像装置は3つ分光伝達特性の影響を受ける。3つ分光伝達特性とは、照明の分光伝達特性、被写体の分光伝達特性およびカメラの分光伝達特性である。図3(a)のLightは照明の分光伝達特性を示すグラフであり、Objectは被写体の分光伝達特性を示すグラフであり、Cameraはカメラの分光伝達特性を示すグラフであり、Imageは撮像装置が生成した画像データを示すグラフである。各グラフの縦軸は信号強度RIを示し、横軸は波長λを示す。
(Basic technical idea of this embodiment)
The outline of the basic technical idea of the present invention will be described with reference to FIG. FIG. 3A is composed of four graphs arranged in a horizontal row, and shows the spectral transfer characteristics of a conventional imaging device (for example, International Patent Application Publication WO2007 / 88709). In the process of generating image data (Image) from the optical image of the subject by A / D conversion, the imaging device is affected by three spectral transfer characteristics. The three spectral transfer characteristics are a spectral transfer characteristic of illumination, a spectral transfer characteristic of a subject, and a spectral transfer characteristic of a camera. 3A is a graph showing the spectral transfer characteristic of illumination, Object is a graph showing the spectral transfer characteristic of the subject, Camera is a graph showing the spectral transfer characteristic of the camera, and Image is a graph showing the spectral transfer characteristic of the camera. It is a graph which shows the produced | generated image data. The vertical axis of each graph indicates the signal intensity RI, and the horizontal axis indicates the wavelength λ.

画像データの信号強度RIは、式1に示すように、照明の分光分布特性λLと被写体の分光反射率特性λOとカメラのカラーフィルタの分光フィルタ特性λCの伝達特性の積λIの積分値で表される。
RI=∫λIdλ
λI=λL・λO・λC (式1)
照明の分光ピーク(輝度ピーク)波長λl、被写体の分光反射ピーク波長λoおよびカメラのカラーフィルタの分光ピーク(感度ピーク)波長λcは、一般的には異なる(λl≠λo、λc≠λo)。このため、図3のImageに示すように、波長λoの値によっては、画像データの信号強度RIは相対的に低くなっていた(図3(a)の値r1)。
The signal intensity RI of the image data is expressed as an integral value of the product λI of the transmission characteristic of the spectral distribution characteristic λL of the illumination, the spectral reflectance characteristic λO of the subject, and the spectral filter characteristic λC of the color filter of the camera, as shown in Equation 1. Is done.
RI = ∫λIdλ
λI = λL · λO · λC (Formula 1)
The spectral peak (luminance peak) wavelength λl of the illumination, the spectral reflection peak wavelength λo of the subject, and the spectral peak (sensitivity peak) wavelength λc of the camera color filter are generally different (λl ≠ λo, λc ≠ λo). Therefore, as shown in the image of FIG. 3, the signal intensity RI of the image data is relatively low depending on the value of the wavelength λo (value r1 in FIG. 3A).

図3(b)は本実施形態の撮像装置100の分光伝達特性を示している。本実施形態では、照明の分光ピーク波長λlとカメラ(撮像部)のカラーフィルタの分光ピーク波長λcは、被写体の分光反射ピーク波長λoと同じである。この波長の関係(3つの波長がほぼ等しいという関係)を実現する照明とカメラを用いることで信号強度RIを相対的に高めることが可能になる(図3(b)の値r2)。本実施形態の撮像装置100では、信号強度RIを高めることができるので、S/N比が高い画像データを取得することが可能になる。   FIG. 3B shows the spectral transfer characteristics of the imaging apparatus 100 of the present embodiment. In the present embodiment, the spectral peak wavelength λl of illumination and the spectral peak wavelength λc of the color filter of the camera (imaging unit) are the same as the spectral reflection peak wavelength λo of the subject. The signal intensity RI can be relatively increased by using an illumination and a camera that realize this wavelength relationship (a relationship that the three wavelengths are substantially equal) (value r2 in FIG. 3B). In the imaging apparatus 100 of the present embodiment, since the signal intensity RI can be increased, it is possible to acquire image data with a high S / N ratio.

(画像処理部の機能)
図4を用いて、実施形態1の画像処理部210について説明する。図4に示されるように、画像処理部210は、設定値取得機能部401、発光制御機能部402、画像データ生成機能部403、および法線情報算出機能部404で構成される。図4は、機能ブロック図である。
設定値取得機能部401は、所定の設定値を取得する。すなわち、設定値取得機能部401は、照明の分光パラメータと、被写体の分光パラメータと、カメラの分光パラメータとを取得する。
本実施形態において、照明の分光パラメータは、照明輝度制御パラメータa、bである。パラメータaは第1の透過率であり、中心波長420nmの光の輝度を制御する制御パラメータである。パラメータbは第2の透過率であり、中心波長590nmの光の輝度を制御する制御パラメータである。パラメータaおよびbが取り得る値の範囲は、それぞれ0%から100%である。
(Function of image processing unit)
The image processing unit 210 according to the first embodiment will be described with reference to FIG. As shown in FIG. 4, the image processing unit 210 includes a set value acquisition function unit 401, a light emission control function unit 402, an image data generation function unit 403, and a normal line information calculation function unit 404. FIG. 4 is a functional block diagram.
The set value acquisition function unit 401 acquires a predetermined set value. That is, the set value acquisition function unit 401 acquires illumination spectral parameters, subject spectral parameters, and camera spectral parameters.
In the present embodiment, illumination spectral parameters are illumination brightness control parameters a and b. The parameter a is the first transmittance, and is a control parameter that controls the luminance of light having a center wavelength of 420 nm. The parameter b is the second transmittance and is a control parameter for controlling the luminance of light having a center wavelength of 590 nm. The range of values that parameters a and b can take is 0% to 100%, respectively.

被写体の分光パラメータは、被写体表面を組成(構成)する分子の分光吸収モル係数(吸光モル係数)Rb、Rgである。本実施形態において、Rbはヘモグロビン分子の420nmにおける分光吸収モル係数であり、Rgはヘモグロビン分子の590nmにおける分光吸収モル係数である。
カメラの分光パラメータは、撮像センサの感度面積(カラーフィルタの面積比)である。本実施形態では撮像センサの分光フィルタの相対面積と同じであり、赤色の感度面積Sr=1、緑色の感度面積Sg=2、青色の感度面積Sb=1である。
発光制御機能部402は、中央制御部101から照明ユニット106〜117へ送られる発光制御情報(発光を制御する情報)を生成する。そして、発光制御機能部402は、照明I/F212のEthernetによるTCP/IPを用いて、照明ユニット制御部241へ発光制御情報(発光制御信号)を送信する。
The spectral parameters of the subject are the spectral absorption molar coefficients (absorption molar coefficients) Rb and Rg of the molecules that compose (configure) the subject surface. In this embodiment, Rb is the spectral absorption molar coefficient at 420 nm of the hemoglobin molecule, and Rg is the spectral absorption molar coefficient at 590 nm of the hemoglobin molecule.
The spectral parameter of the camera is the sensitivity area of the image sensor (area ratio of the color filter). In this embodiment, it is the same as the relative area of the spectral filter of the image sensor, and the red sensitivity area Sr = 1, the green sensitivity area Sg = 2, and the blue sensitivity area Sb = 1.
The light emission control function unit 402 generates light emission control information (information for controlling light emission) sent from the central control unit 101 to the illumination units 106 to 117. The light emission control function unit 402 transmits light emission control information (light emission control signal) to the illumination unit control unit 241 using TCP / IP by Ethernet of the illumination I / F 212.

照明ユニット制御部241は、受信した発光制御情報をPWM信号に変換する。つまり、照明ユニット制御部241は、発光制御信号からPWM信号を生成する。より具体的には、受信した発光制御信号がPWMの信号のデューティー比に対応しており、発光制御信号が発光輝度の最大値に対して50%の出力を指示するのであれば、照明ユニット制御部241はデューティー比50%のPWM信号を生成する。発光制御信号が発光輝度の最大値に対して100%の出力を指示するのであれば、照明ユニット制御部241は、デューティー比100%のPWM信号を生成する。このPWM信号は、照明ユニット制御部241から定電流源・調光制御部242に送信される。   The lighting unit controller 241 converts the received light emission control information into a PWM signal. That is, the illumination unit controller 241 generates a PWM signal from the light emission control signal. More specifically, if the received light emission control signal corresponds to the duty ratio of the PWM signal and the light emission control signal indicates an output of 50% with respect to the maximum value of the light emission luminance, the lighting unit control The unit 241 generates a PWM signal having a duty ratio of 50%. If the light emission control signal indicates an output of 100% with respect to the maximum value of the light emission luminance, the illumination unit control unit 241 generates a PWM signal with a duty ratio of 100%. This PWM signal is transmitted from the illumination unit controller 241 to the constant current source / dimming controller 242.

定電流源・調光制御部242は受信したPWM信号に基づいて、断続的に定電流電力をオン・オフする。発光部243は給電される定電流電力を用いて光電変換を行い、光を発する。実施形態1においては、発光制御機能部402は、カラーフィルタ244のバンド幅可変液晶チューナブルフィルタにより、中心波長420nmと590nmにピーク波長を持つ2つの分光を発光させる。この際、発光制御機能部402は、設定値取得機能部401から第1の透過率aおよび第2の透過率bを取得して、分光感度特性を調節する。   The constant current source / dimming control unit 242 intermittently turns on / off the constant current power based on the received PWM signal. The light emitting unit 243 performs photoelectric conversion using the supplied constant current power and emits light. In the first embodiment, the light emission control function unit 402 causes the spectrally variable bandwidth tunable filter of the color filter 244 to emit two spectra having peak wavelengths at the center wavelength of 420 nm and 590 nm. At this time, the light emission control function unit 402 acquires the first transmittance a and the second transmittance b from the set value acquisition function unit 401, and adjusts the spectral sensitivity characteristic.

画像データ生成機能部403は、中央制御部101から撮像部102〜105へ送信する撮影制御信号(撮影を指示する情報)を生成する。そして、画像データ生成機能部403は、撮像I/F211のUSBによるシリアル通信を用いてカメラ制御部231へ撮影を指示する撮影制御信号を送信する。カメラ制御部231は、受信した撮影制御信号に基づき、シャッタ225の露光制御機能を実行する。シャッタ225の露光制御機能の実行に伴い、被写体の光学像がAD変換されることで、カメラ制御部231は画像データを取得する。取得した画像データは、撮像I/F211のUSBによるシリアル通信を用いて、カメラ制御部231から中央制御部101へ転送される。転送された画像データは、RAM202に記憶される。なお、転送された画像データは、補助記憶部205に記憶されてもよい。   The image data generation function unit 403 generates a shooting control signal (information for instructing shooting) to be transmitted from the central control unit 101 to the imaging units 102 to 105. Then, the image data generation function unit 403 transmits a shooting control signal for instructing shooting to the camera control unit 231 using serial communication by USB of the imaging I / F 211. The camera control unit 231 executes the exposure control function of the shutter 225 based on the received shooting control signal. As the exposure control function of the shutter 225 is executed, the camera control unit 231 acquires image data by subjecting the optical image of the subject to AD conversion. The acquired image data is transferred from the camera control unit 231 to the central control unit 101 using USB serial communication of the imaging I / F 211. The transferred image data is stored in the RAM 202. Note that the transferred image data may be stored in the auxiliary storage unit 205.

レンズ222のF値、合焦面、開口制御、露光時間制御および撮影感度は、予め撮像部102〜105に記憶されているカメラ設定情報に基づいて決定される。また、中央制御部101は撮像部102〜105へ撮影を指示する情報として、カメラ設定情報を利用することができる。
これにより、中心波長420nmと590nmにピーク波長を持つ2つの分光による被写体画像が、それぞれ個別に画像データとして取得される。なお、以下の説明では、中心波長420nmにピーク波長を持つ光源の光を照射することで得られる被写体画像をImg420と表記し、中心波長590nmにピーク波長を持つ光源の光を照射することで得られる被写体画像をImg590と表記する。
The F value, focusing surface, aperture control, exposure time control, and imaging sensitivity of the lens 222 are determined based on camera setting information stored in the imaging units 102 to 105 in advance. The central control unit 101 can use camera setting information as information for instructing the imaging units 102 to 105 to perform shooting.
Thereby, subject images by two spectra having peak wavelengths at center wavelengths of 420 nm and 590 nm are individually acquired as image data. In the following description, a subject image obtained by irradiating light from a light source having a peak wavelength at a central wavelength of 420 nm is denoted as Img420, and obtained by irradiating light from a light source having a peak wavelength at a central wavelength of 590 nm. The subject image obtained is denoted as Img590.

画像データ生成機能部403は、さらに、取得した画像データに対して補正処理を行なう。この補正処理については、図6のS604で説明する。画像データ生成機能部403は、画像データの取得と補正を行なうことにより、画像データを生成する。画像データ生成機能部403は、画像データを複数生成する。
法線情報算出機能部404は、照明ユニット106〜117の各々に異なる調光を行なうことで取得された、照明条件の異なる複数の画像データを用いて被写体の法線情報を算出する。また、所定の分光特性を持つ複数の画像データから法線情報を取得して、取得した分光特性の異なる複数の法線情報を適応的に重み付け加算することで、法線情報の高精度化を図る。
The image data generation function unit 403 further performs correction processing on the acquired image data. This correction process will be described in S604 of FIG. The image data generation function unit 403 generates image data by acquiring and correcting the image data. The image data generation function unit 403 generates a plurality of image data.
The normal information calculation function unit 404 calculates the normal information of the subject by using a plurality of image data with different illumination conditions acquired by performing different light control on each of the illumination units 106 to 117. In addition, normal information is acquired from a plurality of image data having predetermined spectral characteristics, and the normal information is adaptively weighted and added to the plurality of normal information having different spectral characteristics, thereby improving the accuracy of the normal information. Plan.

(半透明物体の反射)
図5を参照して、人物肌のように組成の異なる半透明物体における反射の性質について概要を説明する。半透明物体の被写体の法線情報を算出するには、反射光成分を分解して、各反射光成分ごとに画像データとして記録することが重要である。人肌からの反射光(Ref)は、人肌への入射光の入射角と等しい反射角において反射強度が高い正反射光成分(Spec)、偏角特性を有さない表面拡散光成分(Diff)、偏角特性を有するが解析が難しい内部散乱光成分(Scat)によって構成される。つまり、Refは式2のように表すことができる。
Ref = Spec + Diff + Scat (式2)
正反射光成分とそれ以外(表面拡散光成分と内部散乱光成分)を分解して画像データに記録するには、たとえば、特許文献1に開示されている偏光技術を用いる。以下では、表面拡散光成分と内部散乱光成分を分解して画像データに記録する方法の原理について説明する。
(Reflection of translucent object)
With reference to FIG. 5, the outline of the reflection property of a translucent object having a different composition such as human skin will be described. In order to calculate the normal information of a semi-transparent object, it is important to decompose the reflected light component and record it as image data for each reflected light component. The reflected light (Ref) from the human skin is a regular reflected light component (Spec) having a high reflection intensity at a reflection angle equal to the incident angle of the incident light to the human skin, and a surface diffused light component (Diff) having no declination characteristics. ), An internal scattered light component (Scat) that has a declination characteristic but is difficult to analyze. That is, Ref can be expressed as Equation 2.
Ref = Spec + Diff + Scat (Formula 2)
In order to decompose the specularly reflected light component and other components (surface diffused light component and internal scattered light component) and record them in the image data, for example, a polarization technique disclosed in Patent Document 1 is used. Hereinafter, the principle of a method for decomposing the surface diffuse light component and the internal scattered light component and recording the image data in the image data will be described.

(人肌表面における光の反射)
図5(a)および図5(b)は人肌表面における光の反射を示す模式図である。より詳しくは、図5(a)は人肌の表面拡散光の一例を示し、図5(b)は内部拡散光の一例を示している。人肌のように組成の異なる半透明体から高精度な法線情報を得るためには、物体の組成が異なることを利用して表面拡散光と内部散乱光を分離することが有効な手段である。
人肌は、大別すると、表皮層と真皮層によって構成される。表皮層の厚さは0.1mm程度であり、真皮層の厚さは3mm程度であることが知られている。発色に影響する色素として、表皮層においてはメラニンがあげられ、真皮層においてはヘモグロビンがあげられる。なお、肌には他の色素も存在するが分子存在数が相対的に少ないため、本実施形態では説明を省略する。図5(a)と図5(b)のx軸は、人肌に平行な軸で、真皮層の下面に沿った軸である。z軸は人肌に垂直な軸である。
表皮層と真皮層の厚みの比(差)により、人肌の内部散乱光は、真皮層における乱反射が支配的な発生要因であることがわかる(図5(b))。
(Light reflection on human skin surface)
FIG. 5A and FIG. 5B are schematic views showing the reflection of light on the human skin surface. More specifically, FIG. 5A shows an example of surface diffused light of human skin, and FIG. 5B shows an example of internal diffused light. In order to obtain high-accuracy normal information from semi-transparent materials with different compositions such as human skin, it is an effective means to separate surface diffused light and internally scattered light by utilizing the different composition of the object. is there.
Human skin is roughly composed of an epidermis layer and a dermis layer. It is known that the thickness of the skin layer is about 0.1 mm, and the thickness of the dermis layer is about 3 mm. Examples of pigments that affect color development include melanin in the epidermis layer and hemoglobin in the dermis layer. Although other pigments are present in the skin, the number of molecules present is relatively small, and therefore the description thereof is omitted in this embodiment. The x-axis in FIGS. 5 (a) and 5 (b) is an axis parallel to the human skin and along the lower surface of the dermis layer. The z axis is an axis perpendicular to human skin.
It can be seen from the ratio (difference) between the thickness of the epidermis layer and the dermis layer that the internal reflection of human skin is mainly caused by irregular reflection in the dermis layer (FIG. 5B).

図5(c)は、可視光帯域(400−720nm)およびその近傍の紫外・赤外帯域における肌色素の波長−分光吸収特性を示している。図5(c)の左縦軸は吸光モル係数(分光吸収モル係数)を示し、横軸は波長を示し、右縦軸は吸光係数を示している。このような波長−分光吸収特性は、たとえば国際特許出願公開公報WO2007/088709号の図3に示されている。
図5(c)から分かるように、ヘモグロビン(酸化ヘモグロビン、還元ヘモグロビン)の分光吸収特性は、可視光帯域の特に700nm近傍において、吸光モル係数が小さくなる。このため、人肌に700nmのスペクトル成分を含む演色性の高い白色光を照射すると、反射光のうち内部散乱光の割合が多くなる。
FIG. 5C shows the wavelength-spectral absorption characteristics of the skin pigment in the visible light band (400 to 720 nm) and the ultraviolet and infrared bands in the vicinity thereof. In FIG. 5C, the left vertical axis represents the absorption molar coefficient (spectral absorption molar coefficient), the horizontal axis represents the wavelength, and the right vertical axis represents the absorption coefficient. Such wavelength-spectral absorption characteristics are shown, for example, in FIG. 3 of International Patent Application Publication No. WO2007 / 088709.
As can be seen from FIG. 5C, the spectral absorption characteristic of hemoglobin (oxygenated hemoglobin, reduced hemoglobin) has a small absorption molar coefficient especially in the vicinity of 700 nm in the visible light band. For this reason, if the human skin is irradiated with white light having a high color rendering property including a spectral component of 700 nm, the proportion of the internally scattered light in the reflected light increases.

また、図5(c)に示されているように、ヘモグロビンは420nmで最大の吸光モル係数を持ち、590nm付近においても高い吸光モル係数を取る。これらの周波数帯の光は、真皮において乱反射を繰り返す過程でヘモグロビンによって吸収されて、皮膚外に発光されないことがわかる。
以上より、組成の異なる半透明体における反射においては、半透明体の波長−分光吸収特性を活用することにより、表面拡散光と内部散乱光を分離することが可能である。特に、人肌から効率的に表面拡散光を取得(分離)するためには、ヘモグロビンの分光吸収モル係数(吸光モル係数)が大きい波長帯域の光を照射してカメラに記録するとよい。
In addition, as shown in FIG. 5C, hemoglobin has a maximum extinction molar coefficient at 420 nm and takes a high extinction molar coefficient even near 590 nm. It can be seen that light in these frequency bands is absorbed by hemoglobin in the process of repeated irregular reflection in the dermis and is not emitted outside the skin.
As described above, in the reflection on the translucent bodies having different compositions, it is possible to separate the surface diffused light and the internal scattered light by utilizing the wavelength-spectral absorption characteristics of the translucent body. In particular, in order to efficiently acquire (separate) surface diffused light from human skin, it is preferable to irradiate light in a wavelength band with a large spectral absorption molar coefficient (absorption molar coefficient) of hemoglobin and record it on the camera.

次に、420nmと590nmを中心波長に持つ光を用いることで、人種が既知の場合に最適となる光源を設定する方法について説明する。
人肌表面の表皮層には、肌の発色において支配的な色素であるメラニンが含有されている。図5(c)に示されているように、メラニン(ユーメラニン)の分光吸収特性は、光の波長が長くなる程、吸光モル係数が小さくなる。これは人肌表面の表皮層においては、青い光よりも緑の光の方がより強く反射し、緑の光よりも赤い光の方がより強く反射することを示している。
Next, a method for setting a light source that is optimal when the race is known by using light having center wavelengths of 420 nm and 590 nm will be described.
The epidermis layer on the surface of human skin contains melanin, which is a dominant pigment in skin coloration. As shown in FIG. 5C, in the spectral absorption characteristic of melanin (eumelanin), the light absorption molar coefficient decreases as the wavelength of light increases. This indicates that in the epidermis layer of the human skin surface, green light is reflected more strongly than blue light, and red light is reflected more strongly than green light.

一般に、表皮層におけるメラニンの含有量は、人種によって異なることが知られている。一方で真皮層におけるヘモグロビンの含有量は、人種によらず不変であることが知られている。白人の肌の色素は、表皮層における相対的に含有量が少ないメラニンと、真皮層における一定の含有量を有するヘモグロビンによって構成される。黒人の肌の色素は、表皮層における相対的に含有量が多いメラニンと、真皮層における一定の含有量を有するヘモグロビンによって構成される。アジア人の肌は、白人と黒人の中間的な性質を有しており、表皮層における相対的に含有量が中程度のメラニンと、真皮層における一定の含有量を有するヘモグロビンによって構成される。
3つの人種を比較することで、照明に中心波長が波長420nmの光のみを用いると、人種によって表皮層における反射光強度が異なるため、カメラに記録される際のS/N比が低下する可能性があることがわかる。
Generally, it is known that the content of melanin in the epidermis layer varies depending on race. On the other hand, it is known that the content of hemoglobin in the dermis layer is unchanged regardless of race. White skin pigment is composed of melanin, which is relatively low in the epidermis layer, and hemoglobin having a certain content in the dermis layer. Black skin pigment is composed of melanin, which has a relatively high content in the epidermis layer, and hemoglobin having a certain content in the dermis layer. Asian skin has an intermediate property between whites and blacks, and is composed of melanin having a relatively medium content in the epidermis and hemoglobin having a constant content in the dermis.
By comparing the three races, if only light with a central wavelength of 420 nm is used for illumination, the reflected light intensity at the epidermis layer differs depending on the race, so the S / N ratio when recorded on the camera is reduced. It turns out that there is a possibility.

図5(c)のメラニン(ユーメラニン)の分光吸収特性から、メラニンの分光吸収モル係数は、420nmにおいて約2×10cm−1−1であり、590nmにおいて約1×10cm−1−1である。このことから、590nmの光は、420nmの光に比べて、表皮層から2倍の光量の反射光を得られることが分かる。
図5(c)のヘモグロビンの分光吸収特性から、ヘモグロビンの分光吸収モル係数は、420nmにおいて約5×10cm−1−1であり、590nmにおいて約5×10cm−1−1である。このことから、590nmの光は、420nmの光に比べて、真皮層から5倍の光量の反射光を得られることが分かる。
また、メラニンとヘモグロビンの分光吸収モル係数比は、420nmでは1:250であり、590nmでは1:50であることがわかる。このことから、輝度が同じ場合、590nmの光は、420nmの光に比べて、表皮層からの反射光量が2倍多くなり、真皮層からの反射光量が5倍多くなる。
From the spectral absorption characteristics of melanin (eumelanin) in FIG. 5 (c), the spectral absorption molar coefficient of melanin is about 2 × 10 3 cm −1 M −1 at 420 nm and about 1 × 10 3 cm − at 590 nm. 1 M −1 . From this, it can be seen that 590 nm light can obtain reflected light twice as much from the skin layer as compared to 420 nm light.
From the spectral absorption characteristics of hemoglobin in FIG. 5 (c), the spectral absorption molar coefficient of hemoglobin is about 5 × 10 5 cm -1 M -1 in 420 nm, about 5 × in 590nm 10 4 cm -1 M -1 It is. From this, it can be seen that 590 nm light can obtain reflected light of five times the amount of light from the dermis layer compared to 420 nm light.
It can also be seen that the spectral absorption molar coefficient ratio between melanin and hemoglobin is 1: 250 at 420 nm and 1:50 at 590 nm. For this reason, when the luminance is the same, 590 nm light has twice as much reflected light from the skin layer and five times more reflected light from the dermis layer than 420 nm light.

ある人種Aの表皮層におけるメラニン含有量が、別の人種Bの表皮層におけるメラニン含有量よりも2.5倍多い場合を考えてみる。この場合、照明に420nmの光よりも590nmの光を用いた方が、表皮層からの反射光が相対的に多くなるため、記録される被写体の光学像のS/N比が高くなる。
上記したように、人物肌のように組成の異なる半透明体においては、組成によって色素が異なるため分光吸収特性が変わり、分光波長によって反射の性質が変わるという特徴がある。この特徴を人肌に適用する場合、人種に応じて420nmの光と590nmの光を適用的に用いて被写体(人物)を照射することが、カメラに記録される拡散光成分のS/N比を向上させるために有効な手段となることがわかる。420nmの光も590nmの光も、所定量以上の光吸収を生じさせる波長帯域の光である。
Consider a case where the melanin content in the skin layer of one race A is 2.5 times higher than the melanin content in the skin layer of another race B. In this case, when the light of 590 nm is used for illumination rather than the light of 420 nm, the reflected light from the skin layer is relatively increased, so that the S / N ratio of the optical image of the recorded subject is increased.
As described above, translucent bodies having different compositions such as human skin are characterized in that the spectral absorption characteristics change because the pigments differ depending on the composition, and the reflection properties change depending on the spectral wavelength. When this feature is applied to human skin, irradiating a subject (person) using 420 nm light and 590 nm light according to the race is the S / N of the diffused light component recorded in the camera. It can be seen that this is an effective means for improving the ratio. Both 420 nm light and 590 nm light are light in a wavelength band that causes light absorption of a predetermined amount or more.

(画像処理プログラムの処理)
図6を用いて、本実施形態における画像処理プログラムの処理フローチャートを説明する。本実施形態において、画像処理プログラムは、以下のように2つの実装形態を有し得る。いずれかの実装形態を採用すればよいものとする。
(1)画像処理プログラムは、画像処理部210にHWとして実装されており、撮像装置100の駆動に応じて、画像処理部210が実行される(画像処理部210が画像処理プログラムを実行する)。
(2)画像処理プログラムは、ROM203ないし補助記憶部205に常時記憶されており、撮像装置100の駆動に応じて、画像処理プログラムがRAM202に転送される。転送後に中央処理装置(CPU)201によって画像処理プログラムが実行される。
(Image processing program processing)
A processing flowchart of the image processing program in this embodiment will be described with reference to FIG. In the present embodiment, the image processing program may have two implementation forms as follows. Any one of the mounting forms may be adopted.
(1) The image processing program is implemented as HW in the image processing unit 210, and the image processing unit 210 is executed in accordance with the driving of the imaging apparatus 100 (the image processing unit 210 executes the image processing program). .
(2) The image processing program is always stored in the ROM 203 or the auxiliary storage unit 205, and the image processing program is transferred to the RAM 202 in accordance with the driving of the imaging device 100. After the transfer, an image processing program is executed by the central processing unit (CPU) 201.

次に、図6を参照して、画像処理部210の処理フローを説明する(つまり、(1)の場合を説明する)。なお、図7は図6に対応する機能ブロック図である。
S601において、発光制御機能部402が発光を制御する。具体的には、カラーフィルタ244のバンド幅可変液晶チューナブルフィルタにより、中心波長420nmと590nmの帯域成分を通過させる。バンド幅可変液晶チューナブルフィルタの分光感度特性は以下の式3で表される。
LE = a ・ L420 + b ・ L590 (式3)
式3において、LEはバンド幅可変液晶チューナブルフィルタの分光感度特性である。L420は、中心波長420nmにおける通過帯域特性である。L590は、中心波長590nmにおける通過帯域特性である。aは第1の透過率であり、bは第2の透過率である。式3はバンド幅可変液晶チューナブルフィルタの分光感度特性が、中心波長420nmのバンドパスフィルタと中心波長590nmのバンドパスフィルタの重み付け線形和であることを示している。
Next, the processing flow of the image processing unit 210 will be described with reference to FIG. 6 (that is, the case of (1) will be described). FIG. 7 is a functional block diagram corresponding to FIG.
In step S601, the light emission control function unit 402 controls light emission. Specifically, the band components having the center wavelengths of 420 nm and 590 nm are passed by the bandwidth variable liquid crystal tunable filter of the color filter 244. The spectral sensitivity characteristic of the variable bandwidth liquid crystal tunable filter is expressed by Equation 3 below.
LE = a.L420 + b.L590 (Formula 3)
In Equation 3, LE is the spectral sensitivity characteristic of the variable bandwidth liquid crystal tunable filter. L420 is a passband characteristic at a center wavelength of 420 nm. L590 is a passband characteristic at a center wavelength of 590 nm. a is the first transmittance, and b is the second transmittance. Equation 3 shows that the spectral sensitivity characteristic of the variable bandwidth liquid crystal tunable filter is a weighted linear sum of a bandpass filter with a center wavelength of 420 nm and a bandpass filter with a center wavelength of 590 nm.

発光制御機能部402は、被写体の表面の反射特性に基づいて被写体からの反射光の強度が所定値以上になる波長で、照明ユニットから被写体に光を照射させている。
なお、発光制御機能部402が式3を実現するために、照明ユニット106は以下のような構成を有してもよい。つまり、照明ユニット106は、定電流源・調光制御部242、発光部243およびカラーフィルタ244を複数有してよい。そして、照明ユニット106は、中心波長420nmと中心波長590nmのバンド幅固定のフィルタを2つ用いて、中心波長420nmと590nmの光を同時発光するように構成してもよい。また、発光制御機能部402が式3を実現するために、照明ユニット106は、特定の分光波長に強度が集中しているLEDを有してもよい。
The light emission control function unit 402 irradiates the subject with light from the illumination unit at a wavelength at which the intensity of the reflected light from the subject becomes a predetermined value or more based on the reflection characteristics of the surface of the subject.
In order for the light emission control function unit 402 to realize Equation 3, the lighting unit 106 may have the following configuration. That is, the illumination unit 106 may include a plurality of constant current source / dimming control units 242, light emitting units 243, and color filters 244. The illumination unit 106 may be configured to simultaneously emit light having the center wavelengths of 420 nm and 590 nm using two filters with fixed bandwidths having the center wavelength of 420 nm and the center wavelength of 590 nm. Further, in order for the light emission control function unit 402 to realize Equation 3, the illumination unit 106 may include an LED whose intensity is concentrated at a specific spectral wavelength.

S602において、画像処理部210(発光制御機能部402)は、設定値取得機能部401を用いて、式3における(式3で用いる)第1の透過率aおよび第2の透過率bを取得する。第1の透過率aおよび第2の透過率bはRAM202から画像処理部210に入力される。つまり、設定値取得機能部401は透過率aおよびbをRAM202から取得し、発光制御機能部402は透過率aおよびbを設定値取得機能部401から取得する。第1の透過率aおよび第2の透過率bは設定値であると言えるので、図6のS602では設定値を取得すると記載してある。なお、設定値は他にもある(後述する)ので、S602では「取得する」の後ろに「マル1(○の中に1)」を付している。
画像処理部210は、ROM203、補助記憶部205または汎用入出力部207から第1の透過率aおよび第2の透過率bを取得してもよい。また、第1の透過率aおよび第2の透過率bは、人種だけに基づいて設定するのではなく、年齢や肌の色に基づいて設定してもよい。なぜなら、年齢や肌の色も、人肌表皮層におけるメラニン含有量と相関があるからである。
In step S <b> 602, the image processing unit 210 (light emission control function unit 402) uses the set value acquisition function unit 401 to acquire the first transmittance a and the second transmittance b in Equation 3 (used in Equation 3). To do. The first transmittance a and the second transmittance b are input from the RAM 202 to the image processing unit 210. That is, the set value acquisition function unit 401 acquires the transmittances a and b from the RAM 202, and the light emission control function unit 402 acquires the transmittances a and b from the set value acquisition function unit 401. Since it can be said that the first transmittance a and the second transmittance b are set values, it is described that the set values are acquired in S602 of FIG. Since there are other setting values (to be described later), “maru 1 (1 in circle)” is added after “acquire” in S602.
The image processing unit 210 may acquire the first transmittance a and the second transmittance b from the ROM 203, the auxiliary storage unit 205, or the general-purpose input / output unit 207. Further, the first transmittance a and the second transmittance b may be set based on age and skin color instead of being set based only on race. This is because age and skin color are also correlated with the melanin content in the human skin epidermis layer.

S603において、画像処理部210(画像データ生成機能部403)は画像データを取得する。画像処理部210が画像データを取得するには、まず、画像データ(Img420とImg590)が撮像部102からRAM202に転送され、その後、画像処理部210が、RAM202から画像データを取得する。カラーフィルタ228は、中心波長420nmと中心波長590nmの2つのフィルタで構成されている。センサ229は、カラーフィルタ228の分光機能により、Img420とImg590を分解して記録することができる。このようにして撮像部102に記録されたImg420とImg590がRAM202に転送される。
S604において、画像処理部210(画像データ生成機能部403)は、画像データの補正処理を行なう。S604では、実際に補正処理を行なう前に、画像データ生成機能部403は、まず、照明輝度制御パラメータと撮像センサの感度面積を用いて、画像データの補正を行なうか判定を行なう。具体的には、照明輝度制御パラメータと撮像センサの感度面積を用いて、以下の閾値thを算出する。
th=a・(Rb−1)・Sb/b・(Rg−1)・Sg (式4)
In step S603, the image processing unit 210 (image data generation function unit 403) acquires image data. In order for the image processing unit 210 to acquire image data, first, the image data (Img420 and Img590) is transferred from the imaging unit 102 to the RAM 202, and then the image processing unit 210 acquires the image data from the RAM 202. The color filter 228 includes two filters having a center wavelength of 420 nm and a center wavelength of 590 nm. The sensor 229 can decompose and record Img420 and Img590 by the spectral function of the color filter 228. In this way, Img 420 and Img 590 recorded in the imaging unit 102 are transferred to the RAM 202.
In step S604, the image processing unit 210 (image data generation function unit 403) performs image data correction processing. In step S604, before actually performing the correction process, the image data generation function unit 403 first determines whether to correct the image data using the illumination brightness control parameter and the sensitivity area of the imaging sensor. Specifically, the following threshold th is calculated using the illumination brightness control parameter and the sensitivity area of the imaging sensor.
th = a · (Rb −1 ) · Sb / b · (Rg −1 ) · Sg (Formula 4)

ここで、分光吸収モル係数RbとRgの逆数を適用することで、人肌の真皮層からの分光反射率を近似している。このためthは、分光間における、照明の相対強度と被写体の分光反射率とカメラの分光感度の積の比の形になっている。th>>1の場合、Img420が、Img590に比べて相対的に被写体像のS/N比が高いと判定する。この場合、Img420を特徴量として用いて、Img590を補正する。これにより、相対的に解像度が高いImg590に対して、S/N比の高いImg420を用いて、被写体像のS/N比が高くなるように補正をすることが可能になる。
本実施形態において、th>2の場合、下記の補正処理を行なう。th2の場合、下記の補正処理を行なわず、S606へ処理を進める。なお、補正処理を行なうかどうかはthと2の大小関係で決定しているが、thと2以外の数値との大小関係で補正処理を行なうかどうかを決定してもよい。
Here, the spectral reflectance from the dermis layer of human skin is approximated by applying the inverse of the spectral absorption molar coefficients Rb and Rg. For this reason, th is in the form of the ratio of the product of the relative intensity of illumination, the spectral reflectance of the subject, and the spectral sensitivity of the camera. If th >> 1, Img420 determines that the S / N ratio of the subject image is relatively higher than Img590. In this case, Img590 is corrected using Img420 as a feature amount. Accordingly, it is possible to perform correction so that the S / N ratio of the subject image is increased by using Img420 having a high S / N ratio with respect to Img590 having a relatively high resolution.
In the present embodiment, when th> 2, the following correction processing is performed. If th < 2, the following correction process is not performed, and the process proceeds to S606. Note that whether or not to perform the correction process is determined based on the magnitude relationship between th and 2, but whether or not the correction process is performed may be determined based on the magnitude relationship between th and a numerical value other than 2.

次に、補正処理の説明を行なう。Img420とImg590を分解して記録した画像データを用いて、以下のフィルタ処理を適用する。フィルタ処理を適用することで、中心波長590nmの反射光による被写体光学像を記録した画像データのS/N比が向上する。フィルタ処理は具体的には以下の式5に従い行われる(算出される)。

Figure 2018073122
(式5) Next, the correction process will be described. The following filter processing is applied using image data recorded by decomposing Img420 and Img590. By applying the filter processing, the S / N ratio of the image data in which the subject optical image is recorded by the reflected light having the center wavelength of 590 nm is improved. Specifically, the filtering process is performed (calculated) according to the following Expression 5.
Figure 2018073122
(Formula 5)

式5において、ImgFilterは、フィルタ処理の出力として得られるフィルタ画像を表す。hはフィルタ処理を行なう当該画素を中心とするパッチ内の各画素の重み係数を表す。σsはhの分布を決める第1のパラメータを表す。σrはhの分布を決める第2のパラメータを表す。式5で示されるフィルタ処理は、ジョイントバイラテラルフィルタを用いた処理である。ジョイントバイラテラルフィルタは、たとえば、文献「Petschnigg, Georg, et al. ”Digital photography with flash and no−flash image pairs.” ACM transactions on graphics (TOG). Vol. 23. No. 3. ACM, 2004.」に記載されている。   In Expression 5, ImgFilter represents a filter image obtained as an output of filter processing. h represents the weighting coefficient of each pixel in the patch centered on the pixel to be filtered. σs represents a first parameter that determines the distribution of h. σr represents a second parameter that determines the distribution of h. The filter process represented by Expression 5 is a process using a joint bilateral filter. The joint bilateral filter is described in, for example, the document “Petschnig, Georg, et al.” Digital photography with flash and no-flash image pairs. “ACM transactions on graphics (TOG). Vol. 23. No. 3. ACM, 2004.”.

式5では、重み係数hがImg420の画素値に基づく関数になっていることと、算出された重み係数hとImg420とは異なるImg590との畳み込みを行なうことが特徴である。また、重み係数hは第1の透過率aの関数になっている。このため、人種による肌のメラニン含有量に応じて、重み係数hを変えることが可能である。
なお、画像データ生成機能部403において、バイラテラルフィルタに類似する、複数枚の画像データを用いて、補正を試みる画像データに対してフィルタ処理を行なうフィルタを用いてもよい。そのようなフィルタとして、ガイディッドフィルタがあげられる。
Expression 5 is characterized in that the weighting factor h is a function based on the pixel value of Img420 and that the calculated weighting factor h and Img590 different from Img420 are convolved. The weight coefficient h is a function of the first transmittance a. For this reason, it is possible to change the weighting coefficient h according to the melanin content of the skin by race.
Note that the image data generation function unit 403 may use a filter similar to the bilateral filter that performs a filtering process on image data to be corrected using a plurality of pieces of image data. An example of such a filter is a guided filter.

S605では、画像処理部210(画像データ生成機能部403)は、設定値取得機能部401を用いて、所定の設定値((a)照明の分光パラメータ、(b)被写体の分光パラメータおよび(c)カメラの分光パラメータ)を取得する。当該所定の設定値の取得は、画像データ生成機能部403からの参照(要求)に応じて、設定値取得機能部401(画像処理部210)がRAM202から所定の設定値を読み出すことにより行われる。S605で取得する設定値は、S604の画像データ補正で使用する。   In step S <b> 605, the image processing unit 210 (image data generation function unit 403) uses the set value acquisition function unit 401 to set predetermined setting values ((a) spectral parameters of illumination, (b) subject spectral parameters, and (c). ) Camera spectral parameters). The predetermined setting value is acquired when the setting value acquisition function unit 401 (image processing unit 210) reads the predetermined setting value from the RAM 202 in response to a reference (request) from the image data generation function unit 403. . The setting value acquired in S605 is used in the image data correction in S604.

S606では、画像処理部210(法線情報算出機能部404)は、入力される複数枚のImg420から第一の法線情報Normal420と、入力される複数枚のImg590から第二の法線情報Normal590とを取得する。Img420とImg590は、人肌の真皮層において、内部散乱光が吸収されるため、相対的に人肌表皮層からの表面拡散光を多く含んでいる。このため、高精度に法線情報を取得することが可能である。また、式5により生成したフィルタ画像ImgFilterを用いて第三の法線情報NormalFilterを取得してもよい。   In step S <b> 606, the image processing unit 210 (normal information calculation function unit 404) outputs the first normal information Normal 420 from the plurality of input Img 420 and the second normal information Normal 590 from the input plurality of Img 590. And get. Since Img420 and Img590 absorb internal scattered light in the dermis layer of human skin, they relatively contain much surface diffused light from the human skin epidermis layer. For this reason, it is possible to acquire normal information with high accuracy. Alternatively, the third normal information NormalFilter may be acquired using the filter image ImgFilter generated by Expression 5.

S606において第一の法線情報Normal420と、第二の法線情報Normal590を取得する際には、たとえば、照度差ステレオ法を用いる。照度差ステレオ法は、文献「Woodham, Robert J. ”Photometric method for determining surface orientation from multiple images.” Optical engineering 19.1 (1980): 191139−191139.」に記載されている。   When acquiring the first normal line information Normal 420 and the second normal line information Normal 590 in S606, for example, an illuminance difference stereo method is used. The photometric stereo method is described in the document “Woodham, Robert J.” Photometric method for determining surface orientation from multiple images. "Optical engineering 19.1 (1980): 191139-191139."

ここで、被写体の法線情報の所得方法について説明する。Shape from Shading法を用いると、以下の式6に従い、照明方向Lと法線Nの成す角度が算出される。
i=ρN・L=ρcos(θ) (式6)
Shape from Shading法は、文献「Lee, Kyoung Mu, and C. C. Kuo. ”Shape from shading with a linear triangular element surface model.” Pattern Analysis and Machine Intelligence, IEEE Transactions on 15.8 (1993): 815−822.」に記載されている。
式6において、iは相対輝度値を表し、ρは被写体表面の拡散反射率(ディフューズアルベド)を表している。画像データに式6を適用する場合、単一の画像データから一意に法線情報を特定するのは困難であるという課題(Shape from Shading法の課題)がある。これは、画像データは2方位(縦・横)あるので、法線の取り得る値は2自由度あること、および、これに絶対値の判定が加わることによる。
Here, the income method of the normal information of the subject will be described. When the Shape from Shading method is used, the angle formed by the illumination direction L and the normal line N is calculated according to the following Expression 6.
i = ρ d N · L = ρ d cos (θ) (Formula 6)
The shape from shading method is described in the literature “Lee, Kyouung Mu, and CC Kuo.” Shape from shading with a linear element surface model. "Pattern Analysis and Machine Intelligence, IEEE Transactions on 15.8 (1993): 815-822."
In Equation 6, i represents the relative luminance values, [rho d represents the diffuse reflectance of the object surface (diffuse albedo). When Expression 6 is applied to image data, there is a problem that it is difficult to uniquely specify normal information from single image data (a problem of Shape from Shading method). This is because the image data has two azimuths (vertical and horizontal), and the normal can have two degrees of freedom, and the determination of the absolute value is added to this.

Shape from Shading法の課題の解決を図る方法として、照度差ステレオ法においては、照明方向の異なる複数の画像データを用いることで法線情報を取得している。n通りの照明条件で複数回にわたって撮影して画像データを取得するとき、入射光の方向ベクトルをL〜Lとし、光源照度をa〜aとする。画像からR画素を取得して、各画素の法線ベクトルをN〜Nとし、反射率をρd1〜ρdnとする。照度差ステレオ法においても、被写体表面からρ(拡散反射率:ディフューズアルベド)に基づいて法線を算出する。観測データは、照明条件数nと画素数Rの組み合わせにより、I11〜InRのnR個が得られ、これを行列として扱うと、観測行列Iは以下の式7のように表すことができる。

Figure 2018073122
(式7) As a method for solving the problem of the Shape from Shading method, in the illuminance difference stereo method, normal information is acquired by using a plurality of image data having different illumination directions. When shooting a plurality of times in the lighting conditions of n as to obtain image data, the direction vector of the incident light and L 1 ~L n, the source light illumination and a 1 ~a n. R pixels are acquired from the image, normal vectors of the pixels are set to N 1 to N R, and reflectances are set to ρ d1 to ρ dn . Also in the illuminance difference stereo method, the normal is calculated from the subject surface based on ρ d (diffuse reflectance: diffuse albedo). As the observation data, nR elements I 11 to InR are obtained by the combination of the illumination condition number n and the pixel number R, and when these are handled as a matrix, the observation matrix I can be expressed as the following Expression 7. .
Figure 2018073122
(Formula 7)

式7において、Sは光源の方位と照度を示しており、全ての光源の方位と照度が既知である(つまりSが与えられている)とすると、法線と反射率の情報を含む行列Nは、式8のように表すことができる。
N=SI S=(SS)−1 (式8)
NはR行3列の行列であるため、式8は、n=3のときに連立方程式として解かれ、n>3のときに最小二乗法として解が得られる。
以上のように、Shape from Shading法や照度差ステレオ法において、ρ(拡散反射率:ディフューズアルベド)を仮定して、被写体の法線を取得していることが分かる。このため、これらの手法で高精度に法線情報を取得するためには、被写体の反射特性において、表面拡散光成分以外の反射光成分(正反射光成分・内部散乱光成分)を除去することが重要であることがわかる。
In Equation 7, S indicates the azimuth and illuminance of the light source, and assuming that the azimuth and illuminance of all the light sources are known (that is, S is given), a matrix N including information on the normal and the reflectance. Can be expressed as in Equation 8.
N = S + I S + = (S T S) -1 S T ( Equation 8)
Since N is a matrix of R rows and 3 columns, Equation 8 is solved as a simultaneous equation when n = 3, and a solution is obtained as a least square method when n> 3.
As described above, in the Shape from Shading method and the illuminance difference stereo method, it is understood that the normal of the subject is acquired assuming ρ d (diffuse reflectance: diffuse albedo). For this reason, in order to obtain normal information with high accuracy using these methods, it is necessary to remove reflected light components (regular reflected light components and internal scattered light components) other than the surface diffused light components in the reflection characteristics of the subject. Is important.

S606において、法線情報算出機能部404は、取得した第一の法線情報Normal420と、第二の法線情報Normal590に対して、以下のように補正(最終的な法線情報であるNormalCを得るための計算)を行なう。
NormalC=
a/(a+b)・Normal420+b/(a+b)・Normal590 (式9)
また、被写体の分光反射率を用いて以下の式10ように補正を行なうことも可能である。
NormalC=
(Rb−1)/{(Rb−1)+(Rg−1)}・Normal420
+(Rg−1)/{(Rb−1)+(Rg−1)}・Normal590
(式10)
また、以下の式11のように、照明輝度制御パラメータ、被写体の分光反射率、撮像センサの感度面積を用いて補正を行なうことも可能である。
NormalC=
A/(A+B)・Normal420+B/(A+B)・Normal590
A=a・(Rb−1)・Sb 、 B=b・(Rg−1)・Sg
(式11)
In S606, the normal information calculation function unit 404 corrects the acquired first normal information Normal 420 and the second normal information Normal 590 as follows (normal C that is final normal information is corrected as follows). Calculation to obtain).
NormalC =
a / (a + b) · Normal 420 + b / (a + b) · Normal 590 (Formula 9)
It is also possible to perform correction using the spectral reflectance of the subject as shown in Equation 10 below.
NormalC =
(Rb −1 ) / {(Rb −1 ) + (Rg −1 )} · Normal420
+ (Rg −1 ) / {(Rb −1 ) + (Rg −1 )} · Normal590
(Formula 10)
Moreover, it is also possible to perform correction using the illumination brightness control parameter, the spectral reflectance of the subject, and the sensitivity area of the image sensor, as shown in Equation 11 below.
NormalC =
A / (A + B) ・ Normal420 + B / (A + B) ・ Normal590
A = a · (Rb −1 ) · Sb B = b · (Rg −1 ) · Sg
(Formula 11)

このように、本実施形態では、照明ユニットの分光特性に応じた重み(a,b)、被写体の分光反射率に応じた重み(Rb−1,Rg−1)、撮像センサの感度特性に応じた重み(Sb,Sg)の3つの伝達特性の積を最適化させている。この最適化により、取得する法線情報のS/N比を向上している。
S607では、画像処理部210(法線情報算出機能部404)は、設定値取得機能部401を用いて、所定の設定値((a)照明の分光パラメータ、(b)被写体の分光パラメータおよび(c)カメラの分光パラメータ)を取得する。当該所定の設定値の取得は、法線情報算出機能部404からの参照(要求)に応じて行われる。所定の設定値は、S606の法線情報算出に使用される。
As described above, according to the present embodiment, the weight (a, b) according to the spectral characteristic of the illumination unit, the weight (Rb −1 , Rg −1 ) according to the spectral reflectance of the subject, and the sensitivity characteristic of the image sensor. The product of the three transfer characteristics of the weights (Sb, Sg) is optimized. This optimization improves the S / N ratio of the normal information to be acquired.
In step S <b> 607, the image processing unit 210 (normal information calculation function unit 404) uses the setting value acquisition function unit 401 to set predetermined setting values ((a) spectral parameters of illumination, (b) spectral parameters of the subject, and ( c) Camera spectral parameters) are acquired. The predetermined set value is acquired in response to a reference (request) from the normal vector information calculation function unit 404. The predetermined set value is used for normal information calculation in S606.

(実施形態1の効果)
実施形態1によれば、照明ユニットの分光分布特性、およびカメラの分光フィルタ特性を調節することで、照明の分光ピーク波長λlとカメラのカラーフィルタの分光ピーク波長λcを被写体の分光反射ピーク波長λoと同じにすることができる(図3(b))。これにより、撮像される被写体画像のS/N比が高まる(所定値以上になる)ため、高精度に法線情報を取得することが可能になる。
また、本実施形態の撮像装置100は、被写体の分光反射特性が既知の場合、高精度に被写体の法線情報を取得することができる。被写体は、具体的は、人物であり、撮像装置100により、人物の肌について高精度に法線情報を取得することが可能である。
なお、特許文献1の偏光を用いた手法により、人肌からの正反射光成分と表面拡散光成分・内部散乱光成分を分離した上で、本実施形態で実施する表面拡散光と内部散乱光を分離してもよい。この場合、表面拡散光成分を用いて法線情報を取得する処理において、正反射光成分の影響を排除できるので、より高精度な法線情報の算出が可能となる。
(Effect of Embodiment 1)
According to the first embodiment, by adjusting the spectral distribution characteristics of the illumination unit and the spectral filter characteristics of the camera, the spectral peak wavelength λl of illumination and the spectral peak wavelength λc of the color filter of the camera are changed to the spectral reflection peak wavelength λo of the subject. (FIG. 3B). As a result, the S / N ratio of the captured subject image increases (becomes a predetermined value or more), so that normal line information can be acquired with high accuracy.
Further, the imaging apparatus 100 according to the present embodiment can acquire normal information of a subject with high accuracy when the spectral reflection characteristics of the subject are known. The subject is specifically a person, and the imaging apparatus 100 can acquire normal information on the skin of the person with high accuracy.
In addition, after separating the specularly reflected light component from the human skin and the surface diffused light component / internally scattered light component by the method using the polarization of Patent Document 1, the surface diffused light and the internal scattered light implemented in this embodiment are separated. May be separated. In this case, in the process of acquiring the normal information using the surface diffused light component, the influence of the specularly reflected light component can be eliminated, so that the normal information can be calculated with higher accuracy.

(変形例)
なお、実施形態1では被写体119は人物であるとしたが、被写体119は人物に限定されない。被写体は、撮像装置100のフレーム118に収まる寸法を有するものであればよい。
また、実施形態1では、フレーム118により撮像部102〜105と照明ユニット106〜117を固定するとしたが、フレーム以外の構造物や機構を用いて撮像部102〜105と照明ユニット106〜117を固定してもよい。
実施形態1では、中央制御部101が汎用入出力部207と表示部209を含むとしたが、汎用入出力部207と表示部209は中央制御部101の外に設けてもよい。また、撮像部の数や照明ユニットの数も図示されたものに限定されない。
(Modification)
In the first embodiment, the subject 119 is a person, but the subject 119 is not limited to a person. The subject only needs to have dimensions that fit within the frame 118 of the imaging apparatus 100.
In the first embodiment, the imaging units 102 to 105 and the illumination units 106 to 117 are fixed by the frame 118. However, the imaging units 102 to 105 and the illumination units 106 to 117 are fixed by using a structure or mechanism other than the frame. May be.
In the first embodiment, the central control unit 101 includes the general-purpose input / output unit 207 and the display unit 209. However, the general-purpose input / output unit 207 and the display unit 209 may be provided outside the central control unit 101. Further, the number of imaging units and the number of illumination units are not limited to those illustrated.

実施形態1では、中央制御部101が撮像装置100に含まれるとしたが、中央制御部101は撮像装置100に含まれなくてもよい。この場合、中央制御部101は、たとえば画像処理装置として、撮像装置とは別個に設けられる。
図4に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
In the first embodiment, the central control unit 101 is included in the imaging apparatus 100, but the central control unit 101 may not be included in the imaging apparatus 100. In this case, the central control unit 101 is provided separately from the imaging device, for example, as an image processing device.
At least a part of the functional blocks shown in FIG. 4 may be realized by hardware. When realized by hardware, for example, a dedicated circuit may be automatically generated on the FPGA from a program for realizing each step by using a predetermined compiler. Further, a Gate Array circuit may be formed in the same manner as an FPGA and realized as hardware. Further, it may be realized by an ASIC (Application Specific Integrated Circuit).

実施形態2
実施形態1では、被写体となる人物の肌に、メラニン要因部(ほくろ・しみ・そばかす)が有意に存在しない(メラニン要因部を考慮しない)として撮像装置100を説明した。実施形態2では、人物の肌に、メラニン要因部が有意に存在する場合において、高精度に法線情報を取得することができる撮像装置を説明する。そのため、実施形態2の撮像装置は、被写体の画像データから統計的に解析を行なって第1の透過率aおよび第2の透過率bに補正を加えることで、表面反射光による画像データを高精度に取得している。メラニン要因部とは、メラニンが要因(原因)となり肌に発生したほくろ等を指す。
以下の説明では、実施形態1との相違点を主に説明することとし、実施形態1と同じ構成の処理部・処理フローについては説明を省略する。実施形態1と同様な構成要素については同じ参照符号を付している。実施形態2の撮像装置100の構成は、図1および図2(実施形態1)と同様であるが、画像処理部210の機能が実施形態1と異なる。図7および図8を用いて、実施形態2の画像処理部210の説明をする。
Embodiment 2
In the first embodiment, the imaging device 100 has been described on the assumption that the melanin factor portion (a mole, a stain, or a freckles) does not exist significantly in the skin of the person who is the subject (the melanin factor portion is not considered). In the second embodiment, an imaging apparatus capable of acquiring normal line information with high accuracy when a melanin factor portion is significantly present in the skin of a person will be described. For this reason, the image pickup apparatus of the second embodiment statistically analyzes the image data of the subject and corrects the first transmittance a and the second transmittance b, thereby increasing the image data by the surface reflected light. Acquired with accuracy. The melanin factor part refers to a mole or the like generated on the skin due to a factor (cause) of melanin.
In the following description, differences from the first embodiment will be mainly described, and description of processing units and processing flows having the same configurations as those of the first embodiment will be omitted. The same components as those in the first embodiment are denoted by the same reference numerals. The configuration of the imaging apparatus 100 according to the second embodiment is the same as that of FIGS. 1 and 2 (first embodiment), but the function of the image processing unit 210 is different from that of the first embodiment. The image processing unit 210 according to the second embodiment will be described with reference to FIGS. 7 and 8.

(画像処理部210の構成)
図7において、画像処理部210は、設定値取得機能部401、発光制御機能部402、画像データ生成機能部403、法線情報算出機能部404および設定値補正機能部701で構成される。図7の画像処理部210を図4の画像処理部210と比較すると、図7の画像処理部210には設定値補正機能部701が追加されている。
設定値補正機能部701は、第1の透過率aに対する補正値である第1の補正透過率a+と、第2の透過率bに対する補正値である第2の補正透過率b+とを算出する。
人肌の皮膚の表面積に対して、メラニン要因部(ほくろ・しみ・そばかす)の表面積が有意な場合、メラニン要因部において光の吸収が多くなる。その結果、Img420とImg590の比率は、メラニン要因部の領域とそれ以外の領域(メラニン要因部の内と外)では、値が異なる。そのため、皮膚の表面積において当該比率の分散値(差)はメラニン要因部の表面積が大きくなる程、大きい値を取る。
メラニン要因部の表面積が大きい場合、メラニン色素の分光吸収モル係数が比較的小さい590nmの光を多めに発光させるように第1の透過率aと第2の透過率bに補正を加えることで、注目する肌の表面積に対して安定して拡散反射光成分が取得できる。
(Configuration of Image Processing Unit 210)
In FIG. 7, the image processing unit 210 includes a set value acquisition function unit 401, a light emission control function unit 402, an image data generation function unit 403, a normal information calculation function unit 404, and a set value correction function unit 701. When the image processing unit 210 in FIG. 7 is compared with the image processing unit 210 in FIG. 4, a setting value correction function unit 701 is added to the image processing unit 210 in FIG. 7.
The set value correction function unit 701 calculates a first corrected transmittance a + that is a correction value for the first transmittance a and a second corrected transmittance b + that is a correction value for the second transmittance b. .
When the surface area of the melanin factor part (a mole, a stain or a freckles) is significant with respect to the surface area of human skin, light absorption increases in the melanin factor part. As a result, the ratio of Img420 to Img590 is different between the melanin factor region and the other regions (inside and outside of the melanin factor portion). Therefore, the dispersion value (difference) of the ratio in the surface area of the skin increases as the surface area of the melanin factor increases.
When the surface area of the melanin factor portion is large, by correcting the first transmittance a and the second transmittance b so as to emit a large amount of light of 590 nm with a relatively small spectral absorption molar coefficient of the melanin pigment, A diffuse reflected light component can be acquired stably with respect to the surface area of the skin of interest.

発光制御機能部402は、設定値補正機能部701で算出された第1の補正透過率a+と第2の補正透過率b+を設定値取得機能部401から取得して、式3に示されるaにa+を適用し、bにb+を適用することでLEを再算出する。上記したように、LEはバンド幅可変液晶チューナブルフィルタの分光感度特性である。なお、a+およびb+の算出方法は、図8および式13を用いて後述する。
画像データ生成機能部403は、式4において、aにa+を適用して、bにb+を適用することで、閾値thを算出する。thの算出結果に基づいて、式5における重み関数(係数)hの算出、およびジョイントバイラテラルフィルタ処理が実行される。
法線情報算出機能部404は、式9または式11において、aにa+を適用して、bにb+を適用することで、NormalCを算出する。
The light emission control function unit 402 acquires the first corrected transmittance a + and the second corrected transmittance b + calculated by the set value correction function unit 701 from the set value acquisition function unit 401, and a shown in Equation 3 LE is recalculated by applying a + to b and b + to b. As described above, LE is the spectral sensitivity characteristic of the variable bandwidth liquid crystal tunable filter. A method for calculating a + and b + will be described later with reference to FIG.
The image data generation function unit 403 calculates the threshold th by applying a + to a and b + to b in Equation 4. Based on the calculation result of th, calculation of the weight function (coefficient) h in Expression 5 and joint bilateral filter processing are executed.
The normal line information calculation function unit 404 calculates NormalC by applying a + to a and applying b + to b in Equation 9 or Equation 11.

(画像処理部210の処理フロー)
図8を用いて、実施形態2の画像処理部210の処理フローを説明する。S601〜S605まで、および、S606〜S607は実施形態1(図6)と同じである。
図8のS801において、画像処理部210(設定値補正機能部701)は、以下の処理を行なう。より詳しくは、Img420とImg590の注目被写体領域において、式12に示される特徴量dを算出する。
d=Var(Img420/Img590) (式12)
式12において、Var(x)は入力値xの分散値(Img420/Img590の分散値)を表している。入力値xは、波長420nm(第1の波長)による画像データ(Img420)の強度と、波長590nm(第2の波長)による画像データ(Img590)の強度との比である。
(Processing flow of the image processing unit 210)
The processing flow of the image processing unit 210 according to the second embodiment will be described with reference to FIG. Steps S601 to S605 and S606 to S607 are the same as those in the first embodiment (FIG. 6).
In S801 of FIG. 8, the image processing unit 210 (setting value correction function unit 701) performs the following processing. More specifically, the feature amount d shown in Expression 12 is calculated in the target subject areas of Img420 and Img590.
d = Var (Img420 / Img590) (Formula 12)
In Expression 12, Var (x) represents a variance value of the input value x (a variance value of Img420 / Img590). The input value x is a ratio between the intensity of the image data (Img420) with a wavelength of 420 nm (first wavelength) and the intensity of the image data (Img590) with a wavelength of 590 nm (second wavelength).

|d|>>1の場合、分光画像間における反射光の差異となるメラニン要因部の内と外における光の吸収の差(変動)が顕著であることを示している。|d|>>1の場合は、設定値補正機能部701は第1の透過率aと第2の透過率bを補正(調整)する処理を行なう(式13)。
|d|≒1あるいは|d|<1の場合、補正値(第1の透過率aと第2の透過率b)の設定を終了してS606へ処理を進める。
設定値補正機能部701は、式12により、算出された特徴量dを用いて、以下の式13に示される第1の透過率aと第2の透過率bに対する第1の補正透過率a+と第2の補正透過率b+を算出する。
a+=a・(1−d) b+=b・d (式13)
なお、式13において、特徴量dは計算を簡単にするために、正規化処理を施してよい。
In the case of | d | >> 1, it is shown that the difference (fluctuation) in the absorption of light between the inside and outside of the melanin factor portion, which is the difference in reflected light between the spectral images, is significant. When | d | >> 1, the set value correction function unit 701 performs a process of correcting (adjusting) the first transmittance a and the second transmittance b (Formula 13).
If | d | ≈1 or | d | <1, the setting of the correction values (first transmittance a and second transmittance b) is terminated, and the process proceeds to S606.
The set value correction function unit 701 uses the feature quantity d calculated by Equation 12 to use the first corrected transmittance a + for the first transmittance a and the second transmittance b shown in Equation 13 below. And the second corrected transmittance b + is calculated.
a + = a · (1−d) b + = b · d (Formula 13)
In Expression 13, the feature amount d may be subjected to normalization processing to simplify the calculation.

S801で設定値を補正したならば、設定値補正機能部701は、補正後の設定値を設定値取得機能部401に送る。そして、S602、S605およびS607の「設定値を取得する」という処理において、補正後の設定値が取得される。図8のS801から右に出る矢印はこのことを示している。
(実施形態2の効果)
実施形態2によれば、被写体となる人物の肌にメラニン要因部(ほくろ・しみ・そばかす)による特徴が有意に存在している場合、高精度に法線情報を取得することが可能になる。
If the set value is corrected in S801, the set value correction function unit 701 sends the corrected set value to the set value acquisition function unit 401. Then, in the process of “acquiring setting values” in S602, S605, and S607, the corrected setting value is acquired. This is shown by the arrow appearing to the right from S801 in FIG.
(Effect of Embodiment 2)
According to the second embodiment, it is possible to acquire normal information with high accuracy when a feature of a melanin factor part (a mole, a stain, or a freckles) is significantly present in the skin of a person who is a subject.

(変形例)
図7では設定値補正機能部701が画像処理部210に含まれるとしたが、設定値補正機能部701は、たとえば、設定値補正部として、画像処理装置210とは別個に設けてもよい。
(他の実施形態)
本発明は、上記した実施形態の画像処理部の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。
(Modification)
Although the setting value correction function unit 701 is included in the image processing unit 210 in FIG. 7, the setting value correction function unit 701 may be provided separately from the image processing apparatus 210 as a setting value correction unit, for example.
(Other embodiments)
The present invention supplies a program (computer program) that realizes one or more functions of the image processing unit according to the above-described embodiment to a system or apparatus via a network or a storage medium. The above processor can also be realized by a process of reading and executing a program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…中央制御部、102〜105…撮像部、106〜117…照明ユニット、210…画像処理部、401…設定値取得機能部、402…発光制御機能部、403…画像データ生成機能部、404…法線情報算出機能部   DESCRIPTION OF SYMBOLS 101 ... Central control part, 102-105 ... Imaging part, 106-117 ... Illumination unit, 210 ... Image processing part, 401 ... Setting value acquisition function part, 402 ... Light emission control function part, 403 ... Image data generation function part, 404 ... Normal information calculation function

Claims (18)

撮像手段と照明手段とを有する撮像装置を用いて、被写体の法線情報を取得する画像処理装置であって、
前記被写体の表面の反射特性に基づいて前記被写体からの反射光の強度が所定値以上になる波長で、前記照明手段から前記被写体に光を照射させる照射手段と、
前記被写体からの反射光を、前記波長に応じた感度で前記撮像手段に記録させて画像データを生成させる生成手段と、
前記反射特性、前記波長および前記感度の少なくとも1つと、前記生成手段により生成される画像データとに基づいて、前記被写体の表面の法線情報を算出する算出手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that obtains normal information of a subject using an imaging apparatus having an imaging means and an illumination means,
Irradiating means for irradiating the subject with light from the illuminating means at a wavelength at which the intensity of the reflected light from the subject is a predetermined value or more based on the reflection characteristics of the surface of the subject;
Generation means for causing the imaging means to record the reflected light from the subject with sensitivity corresponding to the wavelength, and to generate image data;
Calculation means for calculating normal information of the surface of the subject based on at least one of the reflection characteristic, the wavelength and the sensitivity, and image data generated by the generation means;
An image processing apparatus comprising:
前記照明手段は異なる位置に複数備えられており、前記照射手段は、前記複数の照明手段から同時に複数の光を前記被写体に照射させることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a plurality of the illumination units are provided at different positions, and the irradiation unit irradiates the subject with a plurality of lights simultaneously from the plurality of illumination units. 前記被写体の表面は所定の厚みを有する半透明体であり、前記光は前記半透明体の内部において所定量以上の光吸収を生じさせる波長帯域を有することを特徴とする請求項1または2に記載の画像処理装置。   The surface of the subject is a translucent body having a predetermined thickness, and the light has a wavelength band that causes a predetermined amount or more of light absorption inside the translucent body. The image processing apparatus described. 前記波長が複数ある場合、前記照射手段は前記複数の波長の光を所定の透過率で前記照明手段から照射させ、前記生成手段は前記複数の波長の反射光に応じて前記撮像手段により前記画像データを複数生成させることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。   When there are a plurality of wavelengths, the irradiating unit irradiates the light of the plurality of wavelengths from the illuminating unit with a predetermined transmittance, and the generating unit performs the image by the imaging unit according to the reflected light of the plurality of wavelengths. The image processing apparatus according to claim 1, wherein a plurality of data is generated. 前記照射手段は、前記被写体の表面において発生する内部散乱光成分が、前記反射光に含まれないようにする波長で、前記光を照射させることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。   5. The irradiating means irradiates the light with a wavelength that prevents an internally scattered light component generated on the surface of the subject from being included in the reflected light. The image processing apparatus according to item. 前記生成手段は、前記反射特性と前記透過率と前記感度とに基づいて、前記画像データを補正し、前記算出手段は、当該補正された画像データを用いて法線情報を算出することを特徴とする請求項4に記載の画像処理装置。   The generation unit corrects the image data based on the reflection characteristic, the transmittance, and the sensitivity, and the calculation unit calculates normal information using the corrected image data. The image processing apparatus according to claim 4. 前記波長が第1の波長と第2の波長である場合、前記生成手段は、前記第1の波長による画像データから得られるパラメータに基づいて、前記第2の波長による画像データをフィルタリングすることにより前記補正を行なうことを特徴とする請求項6に記載の画像処理装置。   When the wavelengths are the first wavelength and the second wavelength, the generation unit filters the image data based on the second wavelength based on a parameter obtained from the image data based on the first wavelength. The image processing apparatus according to claim 6, wherein the correction is performed. 前記第1の波長は420nmであり、前記第2の波長は590nmであることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the first wavelength is 420 nm and the second wavelength is 590 nm. 前記反射特性は、前記被写体の表面を構成する分子の吸光モル係数であることを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reflection characteristic is an extinction molar coefficient of a molecule constituting the surface of the subject. 前記照射手段は、前記透過率により前記複数の波長の光の輝度を調整することを特徴とする請求項4、6、7または8に記載の画像処理装置。   The image processing apparatus according to claim 4, 6, 7, or 8, wherein the irradiation unit adjusts the luminance of the light having the plurality of wavelengths according to the transmittance. 前記撮像手段が複数のカラーフィルタを有する場合、前記感度は前記複数のカラーフィルタの面積比であることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。   10. The image processing apparatus according to claim 1, wherein when the imaging unit includes a plurality of color filters, the sensitivity is an area ratio of the plurality of color filters. 前記算出手段は、前記反射特性、前記感度および前記透過率に基づいて重み係数を算出して、算出した重み係数に基づいて前記法線情報を算出することを特徴とする請求項4、6、7、8または10に記載の画像処理装置。   The calculation means calculates a weighting factor based on the reflection characteristic, the sensitivity, and the transmittance, and calculates the normal line information based on the calculated weighting factor. The image processing apparatus according to 7, 8 or 10. 前記画像データを用いた統計的な解析の結果に応じて、前記透過率を補正する補正手段をさらに有することを特徴とする請求項4、6、7、8、10または12に記載の撮像装置ないし請求項1記載の画像処理装置。   The imaging apparatus according to claim 4, 6, 7, 8, 10, or 12, further comprising a correcting unit that corrects the transmittance according to a result of statistical analysis using the image data. The image processing apparatus according to claim 1. 前記補正手段は、前記被写体の表面における光の吸収に関する統計的な解析の結果に応じて、前記透過率を補正することを特徴とする請求項13記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the correction unit corrects the transmittance according to a result of statistical analysis regarding light absorption on the surface of the subject. 前記波長が第1の波長と第2の波長である場合、前記補正手段は、前記第1の波長による画像データの強度と、前記第2の波長による画像データの強度との比の変動に基づいて、前記透過率を補正することを特徴とする請求項13または14に記載の画像処理装置。   When the wavelengths are the first wavelength and the second wavelength, the correction unit is based on a change in a ratio between the intensity of the image data based on the first wavelength and the intensity of the image data based on the second wavelength. The image processing apparatus according to claim 13, wherein the transmittance is corrected. 被写体に光を照射する照射手段と、
前記被写体からの反射光を記録する撮像手段と、
請求項1から15のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An irradiation means for irradiating the subject with light;
Imaging means for recording reflected light from the subject;
The image processing apparatus according to any one of claims 1 to 15,
An imaging apparatus comprising:
撮像手段と照明手段とを有する撮像装置を用いて、被写体の法線情報を取得する画像処理方法であって、
前記被写体の表面の反射特性に基づいて前記被写体からの反射光の強度が所定値以上になる波長で、前記照明手段から前記被写体に光を照射させるステップと、
前記被写体からの反射光を、前記波長に応じた感度で前記撮像手段に記録させて画像データを生成させるステップと、
前記反射特性、前記波長および前記感度の少なくとも1つと、生成された前記画像データとに基づいて、前記被写体の表面の法線情報を算出するステップと、
を備えることを特徴とする画像処理方法。
An image processing method for obtaining normal information of a subject using an imaging device having an imaging means and an illumination means,
Irradiating the subject with light from the illumination means at a wavelength at which the intensity of reflected light from the subject is greater than or equal to a predetermined value based on the reflection characteristics of the surface of the subject;
Recording the reflected light from the subject on the imaging means with sensitivity according to the wavelength, and generating image data;
Calculating normal information of the surface of the subject based on at least one of the reflection characteristics, the wavelength, and the sensitivity, and the generated image data;
An image processing method comprising:
コンピュータを、請求項1から15のいずれか1項に記載の画像処理装置の手段として機能させるためのプログラム。   The program for functioning a computer as a means of the image processing apparatus of any one of Claim 1 to 15.
JP2016212151A 2016-10-28 2016-10-28 Image processing device and image processing method Pending JP2018073122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212151A JP2018073122A (en) 2016-10-28 2016-10-28 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212151A JP2018073122A (en) 2016-10-28 2016-10-28 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2018073122A true JP2018073122A (en) 2018-05-10

Family

ID=62115374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212151A Pending JP2018073122A (en) 2016-10-28 2016-10-28 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2018073122A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021090917A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Method for determining discoloration attributes, system for determining discoloration attributes, method for estimating vascular density, and system for estimating vascular density
JPWO2021117633A1 (en) * 2019-12-13 2021-06-17
CN114051723A (en) * 2019-07-09 2022-02-15 富士胶片富山化学株式会社 Image generation device, drug identification device, drug display device, image generation method, and program
JP2022096316A (en) * 2020-12-17 2022-06-29 株式会社 資生堂 Skin evaluation device, method, program, and system
JP2022100524A (en) * 2020-12-24 2022-07-06 オムロン株式会社 Inspection system and inspection method
JP2024513158A (en) * 2021-03-18 2024-03-22 コーニンクレッカ フィリップス エヌ ヴェ Method and system for analyzing objects

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114051723A (en) * 2019-07-09 2022-02-15 富士胶片富山化学株式会社 Image generation device, drug identification device, drug display device, image generation method, and program
WO2021090917A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Method for determining discoloration attributes, system for determining discoloration attributes, method for estimating vascular density, and system for estimating vascular density
JPWO2021117633A1 (en) * 2019-12-13 2021-06-17
WO2021117633A1 (en) * 2019-12-13 2021-06-17 ソニーグループ株式会社 Imaging device, information processing device, imaging method, and information processing method
CN114731368A (en) * 2019-12-13 2022-07-08 索尼集团公司 Imaging apparatus, information processing apparatus, imaging method, and information processing method
JP7447916B2 (en) 2019-12-13 2024-03-12 ソニーグループ株式会社 Imaging device, information processing device, imaging method, and information processing method
CN114731368B (en) * 2019-12-13 2024-07-16 索尼集团公司 Imaging device, information processing device, imaging method, and information processing method
JP2022096316A (en) * 2020-12-17 2022-06-29 株式会社 資生堂 Skin evaluation device, method, program, and system
JP7618905B2 (en) 2020-12-17 2025-01-22 株式会社 資生堂 Skin evaluation device, method, program, and system
JP2022100524A (en) * 2020-12-24 2022-07-06 オムロン株式会社 Inspection system and inspection method
JP7686965B2 (en) 2020-12-24 2025-06-03 オムロン株式会社 Inspection system and inspection method
JP2024513158A (en) * 2021-03-18 2024-03-22 コーニンクレッカ フィリップス エヌ ヴェ Method and system for analyzing objects

Similar Documents

Publication Publication Date Title
JP2018073122A (en) Image processing device and image processing method
US11405535B2 (en) Quad color filter array camera sensor configurations
US10168215B2 (en) Color measurement apparatus and color information processing apparatus
CN106488073B (en) Edge enhancing for heat visible combined image and camera
JP2023089220A (en) Surgical system including non-white light general illumination device
US9516295B2 (en) Systems and methods for multi-channel imaging based on multiple exposure settings
US20150062347A1 (en) Image processing methods for visible and infrared imaging
EP3284252B1 (en) Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
CN110298874A (en) Structured light patterns based on single image sensor and in the visible spectrum capture the method and device of image and related threedimensional model
US9773169B1 (en) System for capturing a biometric image in high ambient light environments
US9787915B2 (en) Method and apparatus for multi-spectral imaging
US9894255B2 (en) Method and system for depth selective segmentation of object
US20240048823A1 (en) System and method for high precision snapshot multi-spectral imaging based on multiplexed illumination
JP6606231B2 (en) Camera and method for generating color images
KR20170088259A (en) Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor
US20180158208A1 (en) Methods and apparatus for single-chip multispectral object detection
CN111982023A (en) Image capture device assembly, three-dimensional shape measurement device, and motion detection device
WO2020027210A1 (en) Image processing device, image processing method, and image processing program
Monsalve et al. Characterization of a multispectral imaging system based on narrow bandwidth power LEDs
CN109945794A (en) Image processing system, computer readable recording medium and image processing method
CN110574368B (en) Solid-state cameras, camera systems, and object recognition systems
US8570433B1 (en) Coloration artifact reduction
US10721395B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
EP3430472B1 (en) Method of producing video images that are independent of the background lighting
CN109076155A (en) The method and photoelectron lighting device, camera and mobile terminal illuminated for the face to people