JP2008042581A - Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system - Google Patents
Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system Download PDFInfo
- Publication number
- JP2008042581A JP2008042581A JP2006215064A JP2006215064A JP2008042581A JP 2008042581 A JP2008042581 A JP 2008042581A JP 2006215064 A JP2006215064 A JP 2006215064A JP 2006215064 A JP2006215064 A JP 2006215064A JP 2008042581 A JP2008042581 A JP 2008042581A
- Authority
- JP
- Japan
- Prior art keywords
- image
- texture
- image data
- presentation
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006872 improvement Effects 0.000 title claims description 14
- 230000035807 sensation Effects 0.000 claims abstract description 20
- 230000015541 sensory perception of touch Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 28
- 238000005259 measurement Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 abstract description 10
- 230000000903 blocking effect Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000007689 inspection Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000007644 letterpress printing Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010428 oil painting Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000013528 metallic particle Substances 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000013077 target material Substances 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Landscapes
- Image Input (AREA)
- Image Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
- Image Analysis (AREA)
Abstract
【課題】多数の光源を必要としないため、構成が簡素であり、容易に操作可能なスキャナ装置を実現することにある。また、対象物から得られる画像を、触覚呈示手段、ユーザの手等によって遮られることがなく、高いリアリティをもって、凹凸形状の触感を擬似的に再現することが可能な画像質感呈示装置を実現することにある。
【解決手段】傾斜ステージ方式スキャナ1は、傾斜ステージ13上には、対象物100が載置される精密回転台14が備えられ、精密回転台14は、対象物100が載置される面に対して垂直方向を軸として回転する。また、視触覚呈示装置は、触覚デバイスとユーザの視点との間に、ディスプレイによって表示された画像を投影する整合装置を備えている。
【選択図】図1An object of the present invention is to realize a scanner device that has a simple configuration and can be easily operated because a large number of light sources are not required. In addition, an image texture presentation device that can reproduce the tactile sensation of a concavo-convex shape with high reality without blocking an image obtained from an object by a tactile sense presenting means, a user's hand, or the like is realized. There is.
A tilt stage scanner 1 includes a precision turntable 14 on which an object 100 is placed on a tilt stage 13, and the precision turntable 14 is placed on a surface on which the object 100 is placed. On the other hand, it rotates around the vertical direction. The visual and tactile sensation presentation apparatus includes an alignment device that projects an image displayed on the display between the haptic device and the user's viewpoint.
[Selection] Figure 1
Description
本発明は、対象物に光を照射する光源と、対象物から反射される反射光を読み取ることにより画像データを取得する受光手段と、対象物への光入射角度を一方向に変化させるステージとを備えたスキャナ装置に関する。また、スキャナ装置と、スキャナ装置の動作を制御するとともに、スキャナ装置が取得した画像データから、対象物の質感を向上させた画像データを得る画像質感向上手段とを備えた画像質感向上装置に関する。 The present invention includes a light source that irradiates light on an object, a light receiving unit that acquires image data by reading reflected light reflected from the object, and a stage that changes a light incident angle on the object in one direction. The present invention relates to a scanner device including The present invention also relates to an image texture improving apparatus including a scanner device and an image texture improving unit that controls the operation of the scanner device and obtains image data obtained by improving the texture of an object from image data acquired by the scanner device.
また、本発明は、画像を表示する画像表示手段と、ユーザに画像の触覚情報を呈示する触覚呈示手段と、上記画像表示手段に表示される画像の凹凸形状を算出し、該凹凸形状と一致するように上記触覚呈示手段を制御する触覚呈示制御手段とを備えた画像質感呈示装置に関する。さらに、画像質感向上装置と、画像質感呈示装置とを備え、画像表示手段が、画像質感向上手段によって得られた、対象物の質感を向上させた画像データに基づいて画像を表示する画像質感呈示システムに関する。 Further, the present invention calculates an image display means for displaying an image, a tactile display means for presenting tactile information of the image to a user, and an uneven shape of the image displayed on the image display means, and matches the uneven shape. In particular, the present invention relates to an image texture presentation device including tactile sense presentation control means for controlling the tactile sense presentation means. Furthermore, an image texture improvement device and an image texture presentation device are provided, and the image display means displays an image based on the image data obtained by the image texture improvement means and improved in the texture of the object. About the system.
従来、映画、テレビ等の映像メディアをはじめ、デジタルアーカイブ、オンラインショッピング等の様々な分野において、例えばコンピュータグラフィックスのように、仮想空間上に物体を表現する方法が用いられている。また、コンピュータグラフィックスの技術を用いて仮想環境を構築し、ユーザがあたかもその場にいるような臨場感あふれる体験を提供する技術(バーチャルリアリティ;仮想現実環境)は、都市工学、交通工学、医療、アミューズメント等の分野において活用されている。このため、実世界の物体と同じようなリアリティある仮想空間上の物体をコンピュータグラフィックスによって生成する技術の向上は、ますます重要になってきている。 2. Description of the Related Art Conventionally, in various fields such as digital media and online shopping as well as video media such as movies and television, a method of expressing an object in a virtual space, such as computer graphics, has been used. In addition, a technology that constructs a virtual environment using computer graphics technology and provides a realistic experience as if the user is on the spot (virtual reality; virtual reality environment) is urban engineering, traffic engineering, medical care. It is used in fields such as amusement. For this reason, it is becoming more and more important to improve the technology that uses computer graphics to generate objects in a virtual space that is as realistic as real-world objects.
また、仮想空間上に表現された物体を、より実物に近いものとしてユーザに認識させるためには、視覚だけではなく、その他の感覚、とりわけ触覚に働きかける必要があると考えられている。このため、近年、コンピュータグラフィックスによる仮想空間上の物体に触れることが可能な触覚デバイスを使用することにより、視覚からではわからない対象物の柔軟性、重さ等を表現することが可能となっている。 In addition, in order for a user to recognize an object expressed in a virtual space as being closer to the real object, it is considered necessary to work not only on vision but also on other senses, particularly tactile sensation. Therefore, in recent years, by using a haptic device that can touch an object in a virtual space by computer graphics, it is possible to express the flexibility, weight, etc. of an object that cannot be visually recognized. Yes.
例えば、特許文献1〜3には、質感等の視覚情報を得る装置または方法が開示されている。 For example, Patent Documents 1 to 3 disclose an apparatus or method for obtaining visual information such as texture.
特許文献1では、カメラ、CCD(Charge Coupled Devices)センサ等により入力される実画像情報を、赤外線やレーザ光を照射して測距するアクティブ方式、または、複数視点からの画像のマッチングから距離画像を得るパッシブ方式により入力される3次元情報を用いて、質感強調した画像に変換する画像質感強調装置が開示されている。具体的には、3次元形状に基づいて、勾配量または勾配量の変化を計算し、コントラストまたはシャープネスの制御を行うことによって、実画像の光沢を強調するとともに、凹凸を際立たせている。 In Patent Document 1, an active method in which real image information input by a camera, a CCD (Charge Coupled Devices) sensor, or the like is measured by irradiating infrared rays or laser light, or a distance image from matching of images from a plurality of viewpoints An image texture enhancement device that converts a texture-enhanced image using three-dimensional information that is input by a passive method for obtaining the image is disclosed. More specifically, the gradient amount or the change in the gradient amount is calculated based on the three-dimensional shape, and the contrast or sharpness is controlled to enhance the gloss of the actual image and make the unevenness stand out.
また、特許文献2では、ゴニオ・スペクトロ・メータを用いて計測された変角分光反射率から演算される、分光波長および変角にそれぞれ依存する2つの特徴量に基づいて、色と質感とを考慮した被塗装物の塗装色を再現する方法が開示されている。これにより、任意角度における光源および視点での質感または色情報を再現することができ、メタリック粒子感等を精度よく再現することが可能となる。 Moreover, in patent document 2, a color and a texture are calculated based on two feature quantities respectively dependent on a spectral wavelength and a variable angle, which are calculated from a variable spectral reflectance measured using a gonio-spectrometer. A method for reproducing the paint color of an object to be considered is disclosed. Thereby, the texture or color information at the light source and the viewpoint at an arbitrary angle can be reproduced, and the metallic particle feeling or the like can be accurately reproduced.
しかしながら、特許文献1において、実画像を取得する実画像入力部と対象物との距離を測定することにより3次元情報を得ているため、対象物表面の微細な形状を高精細に復元するためには、精密に距離を測定する必要がある。従って、精度のよい質感情報を得るためには、上記距離の測定を精密に行う制御部を備えなくてはならないため、画像質感強調装置の簡素化を図ることはできない。 However, in Patent Document 1, since the three-dimensional information is obtained by measuring the distance between the actual image input unit that acquires the actual image and the object, the fine shape of the object surface is restored with high definition. It is necessary to measure the distance precisely. Therefore, in order to obtain accurate texture information, it is necessary to provide a control unit that precisely measures the distance, and thus the image texture enhancement apparatus cannot be simplified.
なお、特許文献1では、金属、陶器等の光沢への対応、または、織物、紙類等の微細反射への対応等、対象となる素材に対応した質感処理を行うことが困難である。 In Patent Document 1, it is difficult to perform texture processing corresponding to a target material, such as correspondence to luster of metals, ceramics, etc., or correspondence to fine reflection of fabrics, papers, and the like.
また、特許文献2では、鋼板等への塗布のために質感情報を得るものであるため、実画像を取得することによって質感情報を得る構成とはなっていない。 Further, in Patent Document 2, since texture information is obtained for application to a steel plate or the like, it is not configured to obtain texture information by acquiring an actual image.
さらに、ゴニオ・スペクトロ・メータは、対象の測定をスポット単位で行っており、質感に関係のないスペクトルデータも測定している。このため、1画素当たりの情報量は、数百バイトとなるため、高精細に大きな面積における質感および色情報を計測する場合には、画像処理に膨大な時間がかかってしまう虞がある。 Furthermore, the gonio-spectrometer measures the target in spot units, and also measures spectral data not related to the texture. For this reason, since the amount of information per pixel is several hundred bytes, when measuring texture and color information in a large area with high definition, there is a possibility that it takes an enormous amount of time for image processing.
なお、ゴニオ・スペクトロ・フォトメータを用いているため、鋼板等の一様な反射特性をもつ素材に対する変角分光反射率を計測することは可能であるが、織物等の一様な反射特性を持たない素材に対しては計測することができない虞がある。 In addition, since a gonio-spectrometer photometer is used, it is possible to measure variable angle spectral reflectance for materials with uniform reflection characteristics such as steel sheets, but uniform reflection characteristics such as textiles. There is a possibility that measurement cannot be performed for materials that do not have.
ここで、特許文献3には、対象物の測定をスポット単位ではなく、面単位で行うことを可能としたマルチアングルスキャナが開示されている。具体的には、マルチアングルスキャナは、被写体で反射された反射光を読み取るラインCCDを備えており、読取り光学系の光軸に対して、少なくとも垂直を含む所望の対応角度に調整可能となるように傾動する傾動ステージを備えた構成となっている。 Here, Patent Document 3 discloses a multi-angle scanner that can measure an object not in units of spots but in units of planes. Specifically, the multi-angle scanner includes a line CCD that reads the reflected light reflected by the subject, and can be adjusted to a desired corresponding angle including at least perpendicular to the optical axis of the reading optical system. It is the structure provided with the tilting stage which tilts.
また、触覚デバイスとしては、例えば、特許文献4〜6に開示されている。 Moreover, as a tactile device, it is disclosed by patent documents 4-6, for example.
特許文献4では、画像情報に関連する触覚情報に対応する電流が流れる刺激電極が蜜に配置された触覚呈示部を備えた視触覚情報呈示装置が開示されている。また、特許文献5では、対象物が表示されている画面上にカーソルを配置し、触感呈示ボタンを押圧して該画面上をドラッグさせることにより、対象物の表面の触感を再現するポインティングデバイスを備えた触覚呈示装置が開示されている。さらに、特許文献6では、ディスプレイ上に、映像に対応した微小な凹凸や振動が呈示される触覚兼タッチパネルを備えた触覚情報伝達装置が開示されている。
しかしながら、特許文献3では、傾動ステージは、傾動ステージ上の載置台が移動する方向と直交する方向、すなわち、読取り光学系の光軸方向を軸として傾動している。従って、この軸に対して垂直な面内の方向に対象物への光入射角度を変化させながら対象物のテクスチャ画像を取得することは可能であるが、垂直な面内の方向以外の方向、例えば、傾動ステージ上の載置台が移動する方向に垂直な面内の方向に対象物への光入射角度を変化させながらテクスチャ画像を取得することはできない。すなわち、上記傾動軸に対して垂直な面内の方向以外の方向に対象物への光入射角度を変化させながらテクスチャ画像を撮影することができない。 However, in Patent Document 3, the tilt stage is tilted about the direction orthogonal to the direction in which the mounting table on the tilt stage moves, that is, the optical axis direction of the reading optical system. Therefore, it is possible to obtain a texture image of the object while changing the light incident angle to the object in a direction perpendicular to the axis, but in a direction other than the direction in the perpendicular plane, For example, a texture image cannot be acquired while changing the light incident angle on the object in a direction perpendicular to the direction in which the mounting table on the tilt stage moves. That is, it is impossible to capture a texture image while changing the light incident angle to the object in a direction other than the in-plane direction perpendicular to the tilt axis.
このため、任意の方向に対象物への光入射角度を変化させながらテクスチャ画像を得ることができないため、例えば、BTF(Bidirectional Texture Function;双方向テクスチャ関数)計測等を行って質感情報を取得するために必要なテクスチャ画像データを充分に得ることができない。 For this reason, a texture image cannot be obtained while changing the light incident angle on the object in an arbitrary direction. For example, BTF (Bidirectional Texture Function) measurement or the like is performed to obtain texture information. Therefore, sufficient texture image data cannot be obtained.
また、特許文献5に記載のポインティングデバイスは、対象物が表示されている画面を直接触れるわけではないので、ポインティングデバイスと対象物とが視線一致していない。このため、視線一致している触覚デバイスと比較して、対象物そのものに触れている感覚が損なわれる。 In addition, since the pointing device described in Patent Document 5 does not directly touch the screen on which the object is displayed, the pointing device and the object do not coincide with each other. For this reason, as compared with a haptic device whose line of sight matches, the sense of touching the object itself is impaired.
さらに、特許文献4に記載の触覚呈示部、および、特許文献6に記載の触覚兼タッチパネルは、画像出力部に表示される対象物の画像と、ユーザの視点との間に備えられている。このため、ユーザが、対象物に擬似的に触れるために、触覚呈示部または触覚兼タッチパネルに手で触れた場合、ユーザの手等によって、対象物の画像が遮られてしまう虞がある。 Furthermore, the tactile sensation providing unit described in Patent Document 4 and the tactile sensation and touch panel described in Patent Document 6 are provided between the image of the object displayed on the image output unit and the user's viewpoint. For this reason, when the user touches the tactile sensation providing unit or the touch-sensitive touch panel with his / her hand so as to artificially touch the object, the image of the object may be blocked by the user's hand or the like.
本発明は、上記の問題点を鑑みてなされたものであり、その目的は、多数の光源を必要としないため、構成が簡素であり、容易に操作可能なスキャナ装置を実現することにある。また、対象物から得られる画像を、触覚デバイス、ユーザの手等によって遮られることがなく、高いリアリティをもって、凹凸形状の触感を擬似的に再現することが可能な画像質感呈示装置を実現することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a scanner device that has a simple configuration and can be easily operated because a large number of light sources are not required. In addition, an image texture presentation device that can reproduce the tactile sensation of a concavo-convex shape with high reality without blocking an image obtained from an object by a tactile device, a user's hand, etc. It is in.
本発明に係るスキャナ装置は、上記課題を解決するため、対象物に光を照射する光源と、上記対象物から反射される反射光を読み取ることにより画像データを取得する受光手段と、上記対象物への光入射角度を一方向に変化させるように回動するステージとを備えたスキャナ装置であって、上記ステージ上には、上記対象物が載置される回転台が備えられ、上記回転台は、上記対象物が載置される面に対して垂直方向を軸として回転する。 In order to solve the above problems, a scanner device according to the present invention includes a light source for irradiating light on an object, light receiving means for acquiring image data by reading reflected light reflected from the object, and the object. And a stage that rotates so as to change the light incident angle in one direction, and the stage includes a turntable on which the object is placed, and the turntable. Rotates around the axis perpendicular to the surface on which the object is placed.
上記構成によれば、スキャナ装置は、ステージに、対象物が載置される面に対して垂直方向を軸として回転する回転台を備えている。ステージは、対象物への光入射角度を一方向に変化させるように回動するため、該ステージと回転台とによって、1つの固定された光源から照射される光を、対象物に対して任意の角度から入射させることが可能となる。 According to the above-described configuration, the scanner device includes the turntable that rotates on the stage about the direction perpendicular to the surface on which the object is placed. Since the stage rotates so as to change the light incident angle on the object in one direction, the light irradiated from one fixed light source is arbitrarily applied to the object by the stage and the turntable. It becomes possible to enter from the angle of.
これにより、画像データの取得を行う所望の角度に多数の光源を備えている構成、または、画像データの取得を行う所望の角度に光源を移動させる構成でない場合であっても、光入射角を複数の方向に異ならせた画像データを得ることが可能となる。従って、スキャナ装置の構成を簡素にし、スキャナ装置を容易に操作することが可能となる。 This makes it possible to reduce the light incident angle even when the configuration includes a large number of light sources at a desired angle for acquiring image data or when the light source is not moved to a desired angle for acquiring image data. It is possible to obtain image data different in a plurality of directions. Accordingly, the configuration of the scanner device can be simplified and the scanner device can be easily operated.
上記受光手段は、ラインセンサであり、上記回転台は、上記ステージに平行で、かつ上記ラインセンサの長手方向に直交する方向に移動することが好ましい。 The light receiving means is a line sensor, and the turntable preferably moves in a direction parallel to the stage and perpendicular to the longitudinal direction of the line sensor.
上記構成によれば、上記回転台が、上記ステージに平行で、かつ上記ラインセンサの長手方向に直交する方向に移動することによって、ラインセンサが、上記対象物全体を走査することができる。これにより、対象物からラインとして取得した1次元的な画像データを結合させて2次元的な画像を取得することが可能となる。従って、通常のカメラを使用した場合よりも、高精細な画像データを取得することが可能となる。また、ラインセンサを移動させる必要がないため、対象物を回転させた場合であっても、画像データを取得することが可能となる。 According to the above configuration, the line sensor can scan the entire object by moving the turntable in a direction parallel to the stage and perpendicular to the longitudinal direction of the line sensor. This makes it possible to acquire a two-dimensional image by combining the one-dimensional image data acquired as a line from the object. Therefore, it becomes possible to acquire high-definition image data as compared with the case of using a normal camera. In addition, since it is not necessary to move the line sensor, it is possible to acquire image data even when the object is rotated.
上記ステージは、上記ステージを回動させる第1の駆動手段と、上記回転台を回転させる第2の駆動手段とがさらに備えられていることが好ましい。 It is preferable that the stage further includes first driving means for rotating the stage and second driving means for rotating the turntable.
上記構成によれば、スキャナ装置は、光入射角を複数の方向に異ならせた画像データを得るために、ステージを回動させる第1の駆動手段と、回転台を回転させる第2の駆動手段とを備えている。これにより、ステージおよび回転台の制御を自動で行うことが可能となるため、スキャナ装置をさらに容易に操作することが可能となる。 According to the above configuration, the scanner device has the first driving means for rotating the stage and the second driving means for rotating the turntable in order to obtain image data having different light incident angles in a plurality of directions. And. This makes it possible to automatically control the stage and the turntable, so that the scanner device can be operated more easily.
本発明に係る画像質感向上装置は、上記記載のスキャナ装置と、上記スキャナ装置の動作を制御するとともに、該スキャナ装置が取得した、光入射方向の異なる複数枚の画像データから、上記対象物の質感を向上させた画像データを生成する画像質感向上手段とを備えることが好ましい。 An image texture improving apparatus according to the present invention controls the operation of the above-described scanner device and the scanner device, and from the plurality of image data obtained by the scanner device and having different light incident directions, It is preferable that the image quality improving means for generating image data with improved texture is provided.
上記構成によれば、簡素化された構成のスキャナ装置で、操作容易に得られた対象物の画像データは、画像質感向上手段によって、対象物の質感を向上させた画像データに処理される。これにより、光入射角を複数の方向に異ならせた画像データから、高精細なテクスチャ画像データを再現することが可能となる。 According to the above configuration, the image data of the object easily obtained by the scanner device having a simplified configuration is processed into image data with improved texture of the object by the image texture improvement means. This makes it possible to reproduce high-definition texture image data from image data in which the light incident angle is varied in a plurality of directions.
上記画像質感向上手段は、上記ステージおよび回転台の位置情報を格納する位置情報格納手段と、上記位置情報格納手段から位置情報を取得し、該位置情報に基づいて、上記第1および第2の駆動手段を制御する駆動制御手段と、上記第1および第2の駆動手段によって上記ステージおよび回転台が所望の位置まで移動すると、上記ラインセンサから画像データを取得し、取得した画像データから、上記対象物の質感を向上させた画像データを生成する画像処理手段とを備えることが好ましい。 The image quality improvement means acquires position information from the position information storage means for storing position information of the stage and the turntable, and the position information storage means, and based on the position information, the first and second When the stage and the turntable are moved to a desired position by the drive control means for controlling the drive means and the first and second drive means, the image data is obtained from the line sensor, and the obtained image data is used to obtain the image data. It is preferable to include image processing means for generating image data with improved texture of the object.
上記構成によれば、駆動制御手段は、画像データの取得を行う所望の角度である位置情報を、位置情報格納手段から取得し、該位置情報に基づいて駆動手段を制御することにより、スキャナ装置に備えられたステージおよび回転台を、画像データの取得を行う所望の角度に移動させる。ステージおよび回転台が所望の角度(位置)に設定されると、駆動制御手段は、ステージが走査することによって、ラインセンサが対象物の画像データを取得するように制御信号を出力する。取得された画像データは、画像処理手段に出力され、該画像処理手段によって、対象物の質感を向上させた画像データを生成する。 According to the above configuration, the drive control unit acquires position information, which is a desired angle for acquiring image data, from the position information storage unit, and controls the drive unit based on the position information, whereby the scanner device The stage and the turntable provided in are moved to a desired angle at which image data is acquired. When the stage and the turntable are set to a desired angle (position), the drive control means outputs a control signal so that the line sensor acquires image data of the object as the stage scans. The acquired image data is output to the image processing means, and the image processing means generates image data with improved texture of the object.
これにより、スキャナ装置を画像質感向上手段によって制御することが可能となるため、スキャナ装置で得られた、光入射角を複数の方向に異ならせた画像データから、高精細なテクスチャ画像データを再現することが可能となる。また、高精細なテクスチャ画像データを再現させることが可能となるため、対象物表面の傷を検査することが可能となる。 As a result, the scanner device can be controlled by the image texture improving means, so that high-definition texture image data is reproduced from the image data obtained by the scanner device with different light incident angles in a plurality of directions. It becomes possible to do. Moreover, since it becomes possible to reproduce high-definition texture image data, it becomes possible to inspect the surface of the object.
上記画像処理手段は、上記対象物から得られる、上記対象物上の位置および光入射角度に応じた反射率の変化を、上記ラインセンサによって得られた画像から計測するとともに、計測結果を画像データとして出力する第1の計測手段と、上記画像データの各画素毎に輝度と色度とを分離し、正規化された光の入射ベクトルと定数とからなる2次元多項式を用いて、各画素毎の輝度値を近似する第2の計測手段とを備えることが好ましい。 The image processing means measures the change in reflectance according to the position on the object and the light incident angle obtained from the object from the image obtained by the line sensor, and the measurement result is image data. For each pixel using a two-dimensional polynomial consisting of a normalized light incidence vector and a constant, and separating the luminance and chromaticity for each pixel of the image data. It is preferable to provide a second measuring means for approximating the luminance value.
上記構成によれば、画像データから、対象物上の位置および光入射角度に応じた反射率の変化を計測をし、この計測から得られた画像データに基づいて、画像データの各画素毎に輝度と色度とを分離し、正規化された光の入射ベクトルと定数とからなる2次元多項式を用いて計測することによって、画像データの各画素の輝度値を近似する。 According to the above configuration, the change in reflectance according to the position on the object and the light incident angle is measured from the image data, and based on the image data obtained from this measurement, for each pixel of the image data. The luminance value of each pixel of the image data is approximated by separating the luminance and chromaticity and measuring using a two-dimensional polynomial consisting of a normalized light incident vector and a constant.
これにより、色度の値を調整することができ、各画素の最終的な色の再現処理を行うことができるため、高精細なテクスチャ画像データを得ることが可能となる。 Thereby, the value of chromaticity can be adjusted, and the final color reproduction process of each pixel can be performed, so that high-definition texture image data can be obtained.
また、第2の計測手段は、定数からなる2次元多項式を用いているため、該定数の評価を行うことによって、第1の計測手段から出力された画像データのデータ量を圧縮することができるため、通常のPC等であっても、高速に画像データを処理することが可能となる。 Further, since the second measuring means uses a two-dimensional polynomial composed of constants, the amount of image data output from the first measuring means can be compressed by evaluating the constants. Therefore, even an ordinary PC or the like can process image data at high speed.
本発明に係る画像質感呈示装置は、上記課題を解決するため、対象物の画像を表示する画像表示手段と、ユーザに対し、上記対象物の触覚情報を上記画像に対応させて呈示する触覚呈示手段と、上記画像表示手段に表示される対象物の凹凸形状を表す凹凸形状データに基づいて、該凹凸形状と一致するように上記触覚呈示手段を制御する触覚呈示制御手段とを備えた画像質感呈示装置であって、上記触覚呈示手段とユーザの視点との間に、上記画像表示手段によって表示された画像を投影する投影手段を備えている。また、上記投影手段は、上記触覚呈示手段とユーザの視点との間に配置され、上記画像表示手段からの光をユーザの視点の方向に反射させるハーフミラーを含んでいることが好ましい。 In order to solve the above problems, an image texture presentation device according to the present invention provides image display means for displaying an image of an object, and tactile presentation for presenting tactile information of the object to the user in association with the image. And a tactile sensation presentation control means for controlling the haptic presentation means to match the concavo-convex shape based on the concavo-convex shape data representing the concavo-convex shape of the object displayed on the image display means. A presentation device, comprising projection means for projecting an image displayed by the image display means between the tactile sense presentation means and the user's viewpoint. The projection unit preferably includes a half mirror that is disposed between the tactile sense presentation unit and the user's viewpoint and reflects light from the image display unit in the direction of the user's viewpoint.
上記構成によれば、触覚呈示手段とユーザの視点との間に、画像表示手段から提供される画像を投影する投影手段を備えている。これにより、触覚呈示手段、ユーザの手等によって遮られることがなく、投影手段に投影された画像の任意の位置と、触覚呈示手段の位置とを(ユーザの視点から見て)重ね合わせることが可能となる。従って、ユーザに対して、画像表示手段に表示される画像に対応した対象物に、あたかも触っているように感じさせることができ、高いリアリティをもって、該対象物の凹凸形状の触感を擬似的に再現することが可能となる。 According to the above configuration, the projecting unit that projects the image provided from the image display unit is provided between the tactile sense presenting unit and the viewpoint of the user. Thereby, it is possible to superimpose an arbitrary position of the image projected on the projection unit and the position of the tactile presentation unit (from the viewpoint of the user) without being blocked by the tactile presentation unit, the user's hand, or the like. It becomes possible. Therefore, it is possible to make the user feel as if the object corresponding to the image displayed on the image display means is touching, and to simulate the tactile sensation of the object with high reality. It can be reproduced.
光入射方向の異なる複数枚の画像データから、これら画像データの差分画像を生成し、該差分画像に基づいて上記凹凸形状データを算出する凹凸形状算出手段をさらに備えることが好ましい。 It is preferable that the image forming apparatus further includes uneven shape calculating means for generating a difference image of the image data from a plurality of pieces of image data having different light incident directions and calculating the uneven shape data based on the difference image.
上記構成によれば、凹凸形状算出手段は、対象物への光入射角を変化させながら取得した複数枚の画像データから、凹凸形状を算出する。これにより、対象物の凹凸形状を示す位置情報のデータ量を低減させることが可能となる。 According to the above configuration, the concavo-convex shape calculating means calculates the concavo-convex shape from a plurality of pieces of image data acquired while changing the light incident angle on the object. Thereby, it becomes possible to reduce the data amount of the positional information which shows the uneven | corrugated shape of a target object.
本発明に係る画像質感呈示システムは、上記記載の画像質感向上装置と、上記記載の画像質感呈示装置とを備え、上記画像質感呈示装置の画像表示手段は、上記画像質感向上装置の画像質感向上手段によって得られた、対象物の質感を向上させた画像データに基づいて画像を表示することが好ましい。 An image texture presentation system according to the present invention includes the image texture enhancement device described above and the image texture presentation device described above, and the image display means of the image texture presentation device improves the image texture of the image texture enhancement device. It is preferable to display an image based on the image data obtained by the means and improving the texture of the object.
上記構成によれば、画像質感向上装置によって得られた、対象物の質感を向上させた画像データに基づく画像が、画像質感呈示装置の画像表示手段に表示され、該画像が、投影手段に投影されることとなる。これにより、画像質感向上装置によって得られた、対象物の質感に対応した微細な凹凸形状に、擬似的に触れることが可能になる。従って、対象物を、視認することによる検査だけでなく、擬似的に触れることによる検査をすることが可能となる。また、上記構成によれば、高精細なテクスチャ画像を表示することが可能となる。 According to the above configuration, the image based on the image data obtained by improving the texture of the object obtained by the image texture improving apparatus is displayed on the image display means of the image texture presenting apparatus, and the image is projected on the projection means. Will be. As a result, it becomes possible to artificially touch the fine uneven shape corresponding to the texture of the object obtained by the image texture improving apparatus. Therefore, not only inspection by visually recognizing an object, but also inspection by touching it in a pseudo manner can be performed. Moreover, according to the said structure, it becomes possible to display a high-definition texture image.
本発明に係るスキャナ装置は、以上のように、対象物に光を照射する光源と、上記対象物から反射される反射光を読み取ることにより画像データを取得する受光手段と、上記対象物への光入射角度を一方向に変化させるように回動するステージとを備えたスキャナ装置であって、上記ステージ上には、上記対象物が載置される回転台が備えられ、上記回転台は、上記対象物が載置される面に対して垂直方向を軸として回転する。これにより、画像データの取得を行う所望の角度に多数の光源を備えている構成、または、画像データの取得を行う所望の角度に光源を移動させる構成でない場合であっても、光入射角を複数の方向に異ならせた画像データを得ることが可能となる。また、上記構成により、スキャナ装置の構成を簡素にし、スキャナ装置を容易に操作することが可能となる。 As described above, the scanner device according to the present invention includes a light source that irradiates light on an object, a light receiving unit that acquires image data by reading reflected light reflected from the object, and a light source for the object. A scanner device that includes a stage that rotates so as to change the light incident angle in one direction, and includes a turntable on which the object is placed on the stage. It rotates around the direction perpendicular to the surface on which the object is placed. This makes it possible to reduce the light incident angle even when the configuration includes a large number of light sources at a desired angle for acquiring image data or when the light source is not moved to a desired angle for acquiring image data. It is possible to obtain image data different in a plurality of directions. Also, with the above configuration, the configuration of the scanner device can be simplified and the scanner device can be easily operated.
また、本発明に係る画像質感呈示装置は、以上のように、対象物の画像を表示する画像表示手段と、ユーザに対し、上記対象物の触覚情報を上記画像に対応させて呈示する触覚呈示手段と、上記画像表示手段に表示される対象物の凹凸形状を表す凹凸形状データに基づいて、該凹凸形状と一致するように上記触覚呈示手段を制御する触覚呈示制御手段とを備えた画像質感呈示装置であって、上記触覚呈示手段とユーザの視点との間に、上記画像表示手段によって表示された画像を投影する投影手段を備えている。これにより、触覚呈示手段、ユーザの手等によって遮られることがなく、投影手段に投影された画像の任意の位置と、触覚呈示手段の位置とを(ユーザの視点から見て)重ね合わせることが可能となるため、ユーザに対して、画像表示手段に表示される画像に対応した対象物に、あたかも触っているように感じさせることができ、高いリアリティをもって、該対象物の凹凸形状の触感を擬似的に再現することが可能となる。 In addition, as described above, the image texture presentation device according to the present invention includes an image display unit that displays an image of an object, and a tactile presentation that presents tactile information of the object corresponding to the image to the user. And a tactile sensation presentation control means for controlling the haptic presentation means to match the concavo-convex shape based on the concavo-convex shape data representing the concavo-convex shape of the object displayed on the image display means. A presentation device, comprising projection means for projecting an image displayed by the image display means between the tactile sense presentation means and the user's viewpoint. Thereby, it is possible to superimpose an arbitrary position of the image projected on the projection unit and the position of the tactile presentation unit (from the viewpoint of the user) without being blocked by the tactile presentation unit, the user's hand, or the like. Therefore, it is possible to make the user feel as if the object corresponding to the image displayed on the image display means is touching, and to have the tactile feeling of the object with high reality. It becomes possible to reproduce in a pseudo manner.
〔実施形態1〕
本発明の一実施形態について図1ないし図6に基づいて説明すると以下の通りである。
Embodiment 1
An embodiment of the present invention will be described below with reference to FIGS.
図2は、実施形態1に係る傾斜ステージ方式スキャナの概略構成を示す斜視図である。 FIG. 2 is a perspective view illustrating a schematic configuration of the tilt stage scanner according to the first embodiment.
本実施形態に係る傾斜ステージ方式スキャナ(スキャナ装置、画像質感向上装置)1は、図2に示されるように、ラインセンサ(受光手段)11と、光源12と、傾斜ステージ(ステージ)13と、精密回転台(回転台)14と、支持板15とを備えている。 As shown in FIG. 2, the tilt stage type scanner (scanner device, image quality improvement device) 1 according to the present embodiment includes a line sensor (light receiving means) 11, a light source 12, a tilt stage (stage) 13, A precision turntable (turntable) 14 and a support plate 15 are provided.
ラインセンサ11は、光学解像度400dpiのCCDセンサであり、精密回転台14に載置される油彩画等の対象物100から反射される反射光を読み取ることにより、対象物100の画像データを取得する。この画像データは、該画像データの質感を向上させるために、後述の画像処理部24に出力される。なお、図1に示されるように、精密回転台14には対象物100が載置されている。 The line sensor 11 is a CCD sensor having an optical resolution of 400 dpi, and acquires image data of the object 100 by reading reflected light reflected from the object 100 such as an oil painting placed on the precision turntable 14. . This image data is output to an image processing unit 24 described later in order to improve the texture of the image data. As shown in FIG. 1, the object 100 is placed on the precision turntable 14.
なお、ラインセンサ11を用いているが、これに限られたものではなく、通常のカメラでもよい。しかしながら、ラインセンサ11は、対象物100を走査して、対象物100からラインとして取得した1次元的な画像データを結合させて2次元的な画像を取得するため、一括で2次元的な画像を取得する通常のカメラを使用した場合よりも、高精細な画像を取得することが可能である。また、CCDセンサを使用した場合には、通常のカメラを使用した場合に生ずる周辺歪の問題も考慮する必要がない。 In addition, although the line sensor 11 is used, it is not restricted to this, A normal camera may be used. However, the line sensor 11 scans the object 100 and combines the one-dimensional image data acquired as a line from the object 100 to acquire a two-dimensional image. It is possible to acquire a high-definition image as compared with the case of using a normal camera that acquires the image. When a CCD sensor is used, there is no need to consider the problem of peripheral distortion that occurs when a normal camera is used.
光源12は、精密回転台14に載置される対象物100に走査光を照射するものである。これにより、ラインセンサ11は、対象物100から反射される反射光を読み取り、画像を取得することができる。また、光源12は、蛍光灯等の線光源であり、ラインセンサ11と平行に備えられている。なお、光源12は、対象物100を照射できる位置であればどこに固定されていてもよい。 The light source 12 irradiates the object 100 placed on the precision turntable 14 with scanning light. Thereby, the line sensor 11 can read the reflected light reflected from the target object 100, and can acquire an image. The light source 12 is a linear light source such as a fluorescent lamp, and is provided in parallel with the line sensor 11. The light source 12 may be fixed anywhere as long as the object 100 can be irradiated.
また、ラインセンサ11および光源12は、傾斜ステージ方式スキャナ1上であり、傾斜ステージ方式スキャナ1が載置されている面と平行な面で、傾斜ステージ方式スキャナ1に接触しない位置、例えば、傾斜ステージ方式スキャナ1上の天井に備えられている。 Further, the line sensor 11 and the light source 12 are on the tilt stage type scanner 1 and are in a position parallel to the surface on which the tilt stage type scanner 1 is placed and not in contact with the tilt stage type scanner 1, for example, tilt It is provided on the ceiling on the stage type scanner 1.
傾斜ステージ13は、傾斜ステージ方式スキャナ1の下部両側に立設された1対の支持板15によって支持されており、精密回転台14と、輸送ベルト16とを備えている。 The tilt stage 13 is supported by a pair of support plates 15 erected on both lower sides of the tilt stage type scanner 1, and includes a precision turntable 14 and a transport belt 16.
精密回転台14は、対象物100が載置および固定される台であり、精密回転台14の中心から対象物100が載置される面に対して垂直な方向の回転軸aを中心として360°回転する。精密回転台14の機構については、後述する。 The precision turntable 14 is a place on which the object 100 is placed and fixed, and 360 around the rotation axis a in the direction perpendicular to the surface on which the object 100 is placed from the center of the precision turntable 14. Rotate. The mechanism of the precision turntable 14 will be described later.
支持板15は、傾斜ステージ13を支持している。具体的には、傾斜ステージ13の両側に突設させた支軸を、支持板15に設けた軸受に枢支させている。これにより、例えば図3に示されるように、傾斜ステージ13をラインセンサ11の長手方向を軸として傾動させることが可能となる。傾斜ステージ13の支軸は、ベルト、歯車等の伝動部を介して、モータ等の駆動装置(第1の駆動手段)と接続することにより、角度調整を自動で行うことができるようになっており、後述する駆動制御部(駆動制御手段、画像質感向上手段)22によって傾動を制御されている。なお、図2および図3では、伝動部および駆動装置の構成要素の図示は省略している。 The support plate 15 supports the tilt stage 13. Specifically, the support shafts provided on both sides of the tilt stage 13 are pivotally supported by bearings provided on the support plate 15. Thereby, for example, as shown in FIG. 3, the tilt stage 13 can be tilted about the longitudinal direction of the line sensor 11 as an axis. The support shaft of the tilting stage 13 is connected to a driving device (first driving means) such as a motor via a transmission unit such as a belt and a gear so that the angle can be automatically adjusted. The tilting is controlled by a drive control unit (drive control means, image texture improving means) 22 described later. 2 and 3, the components of the transmission unit and the drive device are not shown.
また、傾斜ステージ13の支軸を制御する構成は、これに限られたものではなく、傾斜ステージ13の角度調整を手動で行ってもよい。手動の場合には、ラインセンサ11の長手方向に直交する方向と光源12から照射される走査光とのなす角(経度方向の角度)、すなわち、傾斜ステージ13の水平面に対する傾斜角度を確認するために、例えば、表示板(図示しない)が付設されていてもよい。 Moreover, the structure which controls the spindle of the inclination stage 13 is not restricted to this, You may perform angle adjustment of the inclination stage 13 manually. In the case of manual operation, in order to confirm the angle (longitude direction angle) formed by the direction orthogonal to the longitudinal direction of the line sensor 11 and the scanning light emitted from the light source 12, that is, the inclination angle of the inclination stage 13 with respect to the horizontal plane. For example, a display board (not shown) may be attached.
輸送ベルト16は、精密回転台14と平行に連結されており、精密回転台14を傾斜ステージ13の面において、ラインセンサ11の長手方向に直交する方向に所定の速度で移動させる。ラインセンサ11は、精密回転台14が移動する間に、精密回転台14に載置された対象物100の画像を取得する。 The transport belt 16 is connected in parallel with the precision turntable 14 and moves the precision turntable 14 on the surface of the tilt stage 13 in a direction perpendicular to the longitudinal direction of the line sensor 11 at a predetermined speed. The line sensor 11 acquires an image of the object 100 placed on the precision turntable 14 while the precision turntable 14 moves.
図1は、精密回転台14が回転軸aの周りに回転する機構の概略を示す断面図である。 FIG. 1 is a cross-sectional view schematically showing a mechanism for rotating the precision turntable 14 around the rotation axis a.
駆動装置17は、回転軸aの方向に、精密回転台14に関してラインセンサ11とは反対の位置に備えられており、精密回転台14を回転軸aの周りに360°回転させる。駆動装置(第2の駆動手段)17は、モータ等を備える構成となっており、後述する駆動制御部22によって回転を制御されている。なお、駆動装置17は、これに限られたものではなく、手動で回転させる構成であってもよい。この場合には、回転角度を確認するために、例えば、表示板(図示しない)が付設されていてもよい。また、駆動装置17は、精密回転台14と、輸送ベルト16とに連結されている。 The driving device 17 is provided at a position opposite to the line sensor 11 with respect to the precision turntable 14 in the direction of the rotation axis a, and rotates the precision turntable 14 around the rotation axis a by 360 °. The drive device (second drive means) 17 has a configuration including a motor and the like, and its rotation is controlled by a drive control unit 22 described later. The driving device 17 is not limited to this, and may be configured to be manually rotated. In this case, in order to confirm the rotation angle, for example, a display board (not shown) may be attached. The driving device 17 is connected to the precision turntable 14 and the transport belt 16.
上記より、傾斜ステージ13の支軸によって傾斜ステージ13を傾動させ、駆動装置17によって傾斜ステージ13に備えられた精密回転台14を回転軸aの周りに回転させることができる。これに連動して、精密回転台14に載置された対象物100を傾動させ、回転軸aの周りを回転させることができる。従って、光源12が固定されている場合であっても、対象物100を中心にドーム状に囲むように、多数の光源12を備えている構成、または、光源12を移動させる構成と同じ機能を持たせることが可能となる。 As described above, the tilt stage 13 can be tilted by the support shaft of the tilt stage 13, and the precision rotary table 14 provided on the tilt stage 13 can be rotated around the rotation axis a by the driving device 17. In conjunction with this, the object 100 placed on the precision turntable 14 can be tilted and rotated around the rotation axis a. Therefore, even when the light source 12 is fixed, the same function as the configuration in which many light sources 12 are provided or the light source 12 is moved so as to surround the object 100 in a dome shape. It is possible to have it.
従って、傾斜ステージ方式スキャナ1は、光源12を1つ固定して設けた構成であるものの、多数の光源12をドーム状に配置した構成と同様の画像データを得ることが可能である。従って、光源12をドーム状に配置した構成と比べ多数の光源を必要としないため、スキャナ装置の構成の簡素化を図ることができるとともに、該スキャナ装置を容易に操作することが可能となる。 Therefore, although the tilt stage type scanner 1 has a configuration in which one light source 12 is fixed, it is possible to obtain image data similar to a configuration in which a large number of light sources 12 are arranged in a dome shape. Accordingly, since a large number of light sources are not required as compared with the configuration in which the light source 12 is arranged in a dome shape, the configuration of the scanner device can be simplified and the scanner device can be easily operated.
図4は、傾斜ステージ方式スキャナ1を用いて、入力された画像データのBTF計測を行う画像質感計測装置(画像質感向上装置)の構成を示すブロック図である。画像質感計測装置は、図2に示す傾斜ステージ方式スキャナ1と、制御・画像処理装置とで構成されている。なお、図2では、傾斜ステージ方式スキャナ1におけるラインセンサ11および駆動部(第1および第2の駆動手段)23を除く構成要素については、省略している。なお、精密回転台14には対象物100が載置されているものとする。 FIG. 4 is a block diagram showing a configuration of an image texture measuring apparatus (image texture enhancing apparatus) that performs BTF measurement of input image data using the tilt stage type scanner 1. The image texture measuring apparatus includes the tilt stage type scanner 1 shown in FIG. 2 and a control / image processing apparatus. In FIG. 2, the components other than the line sensor 11 and the drive unit (first and second drive means) 23 in the tilt stage type scanner 1 are omitted. It is assumed that the object 100 is placed on the precision turntable 14.
制御・画像処理装置は、本実施形態では1つのPC(Personal Computer)で実現されており、位置情報テーブル(位置情報格納手段、画像質感向上手段)21と、駆動制御部22と、画像処理部(画像処理手段、画像質感向上手段)24と、画像出力部25とを備えている。 In this embodiment, the control / image processing apparatus is realized by one PC (Personal Computer), and includes a position information table (position information storage means, image texture improvement means) 21, a drive control section 22, and an image processing section. (Image processing means, image texture improving means) 24 and an image output unit 25 are provided.
位置情報テーブル21は、傾斜ステージ13を傾動させ、精密回転台14を回転させるために、傾斜ステージ13の傾斜角度と、精密回転台14の回転角度とが位置情報として格納されており、該位置情報を駆動制御部22に出力する。なお、位置情報テーブル21は、PCに備えられているROM(Read Only Memory)等のメモリに格納されている。 The position information table 21 stores the tilt angle of the tilt stage 13 and the rotation angle of the precision turntable 14 as position information in order to tilt the tilt stage 13 and rotate the precision turntable 14. Information is output to the drive control unit 22. The position information table 21 is stored in a memory such as a ROM (Read Only Memory) provided in the PC.
駆動制御部22は、位置情報取得信号を位置情報テーブル21に出力することにより、位置情報テーブル21から画像データの取得を行うべき位置の位置情報を取得する。この位置情報に基づいて、傾斜ステージ13を傾動させ、精密回転台14を回転させるために、駆動部23に駆動制御信号を出力する。 The drive control unit 22 outputs position information acquisition signals to the position information table 21, thereby acquiring position information on positions where image data should be acquired from the position information table 21. Based on this positional information, a drive control signal is output to the drive unit 23 in order to tilt the tilt stage 13 and rotate the precision turntable 14.
駆動部23は、傾斜ステージ13を傾動させる駆動装置と、精密回転台14を回転させる駆動装置17と、輸送ベルト16用の駆動装置(図示しない)とを含んでいる。駆動部23は、駆動制御信号に基づいて、所望の位置(角度)に傾斜ステージ13および精密回転台14を移動させる。これにより、画像データの取得を行うべき所望の位置に設定することができるため、画像データの取得を行うべき所望の角度で、光源12から照射される走査光を対象物100に入射させることが可能となる。 The drive unit 23 includes a drive device that tilts the tilt stage 13, a drive device 17 that rotates the precision turntable 14, and a drive device (not shown) for the transport belt 16. The drive unit 23 moves the tilt stage 13 and the precision turntable 14 to desired positions (angles) based on the drive control signal. Thereby, since it can set to the desired position which should acquire image data, the scanning light irradiated from the light source 12 can be made to inject into the target object 100 with the desired angle which should acquire image data. It becomes possible.
駆動部23は、傾斜ステージ13および精密回転台14を移動させると、所望の位置への設定が完了したことを、設定完了信号として、駆動制御部22に出力する。 When the drive unit 23 moves the tilt stage 13 and the precision turntable 14, the drive unit 23 outputs a setting completion signal to the drive control unit 22 as a setting completion signal.
なお、本実施形態では、位置情報として、経度方向の角度が、10°〜80°の範囲を10°毎、および、45°となるように設定されている。さらに、位置情報として、精密回転台14の回転方向(緯度方向)の角度が、0°〜300°の範囲を60°毎となるように設定されている。 In the present embodiment, the position information is set so that the angle in the longitude direction is in the range of 10 ° to 80 ° every 10 ° and 45 °. Furthermore, as the position information, the angle in the rotation direction (latitude direction) of the precision turntable 14 is set so that the range of 0 ° to 300 ° is every 60 °.
駆動制御部22は、駆動部23から設定完了信号が入力されると、ラインセンサ11および駆動部23に作動信号を出力する。 When the setting completion signal is input from the drive unit 23, the drive control unit 22 outputs an operation signal to the line sensor 11 and the drive unit 23.
ラインセンサ11は、作動信号が入力されると、この位置設定における対象物100の画像データの取得を開始する。また、駆動部23に作動信号が入力されると、輸送ベルト16用の駆動装置が作動し、ラインセンサ11の長手方向に直交する方向に精密回転台14を移動させる。これにより、この位置設定における画像データを取得することができる。この位置設定における画像データの取得が完了すると、ラインセンサ11は、駆動制御部22に取得完了信号を出力する。 When the operation signal is input, the line sensor 11 starts to acquire image data of the object 100 in this position setting. Further, when an operation signal is input to the drive unit 23, the drive device for the transport belt 16 is operated, and the precision turntable 14 is moved in a direction orthogonal to the longitudinal direction of the line sensor 11. Thereby, the image data in this position setting can be acquired. When the acquisition of image data in this position setting is completed, the line sensor 11 outputs an acquisition completion signal to the drive control unit 22.
駆動制御部22は、取得完了信号が入力されると、別の位置から走査光が照射された場合の画像データを取得するために、位置情報取得信号を位置情報テーブル21に出力する。 When the acquisition completion signal is input, the drive control unit 22 outputs a position information acquisition signal to the position information table 21 in order to acquire image data when the scanning light is irradiated from another position.
位置情報テーブル21は、位置情報取得信号が入力されると、位置情報を駆動制御部22に出力する。これにより、駆動部23は、傾斜ステージ13および精密回転台14を所望の位置に移動させるとともに、移動が完了すると、ラインセンサ11が対象物100を走査することによって、別の位置設定における画像データを取得する。 The position information table 21 outputs position information to the drive control unit 22 when a position information acquisition signal is input. As a result, the drive unit 23 moves the tilt stage 13 and the precision turntable 14 to desired positions, and when the movement is completed, the line sensor 11 scans the target object 100, whereby image data in another position setting is obtained. To get.
これにより、光源12は、対象物100に対して54箇所から走査光を照射することができるため、ラインセンサ11は、54種類の画像データを取得することが可能となる。 Thereby, since the light source 12 can irradiate scanning light with respect to the target object 54 from 54 places, the line sensor 11 can acquire 54 types of image data.
ラインセンサ11が54種類の画像データを取得すると、該画像データは、画像処理部24に出力される。 When the line sensor 11 acquires 54 types of image data, the image data is output to the image processing unit 24.
画像処理部24は、得られた画像データの質感を高精細に再現する処理を、通常のPC等であっても高速に処理することができるように、BTF計測部(第1の計測手段)24aとPTM計測部(第2の計測手段)24bとを備えている。 The image processing unit 24 is a BTF measuring unit (first measuring unit) so that processing for reproducing the texture of the obtained image data with high definition can be performed at high speed even with a normal PC or the like. 24a and a PTM measuring unit (second measuring means) 24b.
なお、駆動制御部22および画像処理部24とは、PCに備えられているCPU(Central Processing Unit)等の制御または処理される。 The drive control unit 22 and the image processing unit 24 are controlled or processed by a CPU (Central Processing Unit) provided in the PC.
BTF計測部24aは、得られた画像データのBTFを計測する。BTF計測では、変角分光計測におけるBRDF(Bidirectional Reflectance Distribution Function;双方向反射分布関数)計測では実現されなかった、対象物100の一定の面積から得られる、対象物100上の位置および光入射角度に応じた反射率の変化を、ラインセンサ11によって得られた画像データから計測する。本実施形態においては、BTFは、RGBの波長領域における6次元反射率分布を示す関数である。 The BTF measurement unit 24a measures the BTF of the obtained image data. In the BTF measurement, the position on the object 100 and the light incident angle obtained from a certain area of the object 100, which is not realized by the BRDF (Bidirectional Reflectance Distribution Function) measurement in the variable angle spectroscopic measurement. The change in reflectivity corresponding to is measured from the image data obtained by the line sensor 11. In the present embodiment, BTF is a function indicating a six-dimensional reflectance distribution in the RGB wavelength region.
BTF計測を行ったデータは、画像データとしてPTM計測部24bに出力される。BTF計測部24aに入力される画像データの画素数は、対象物100が約20cm四方であるとき、3000×3000pixelとなる。また、RGBのダイナミックレンジをそれぞれ8bit(1byte)、BTF計測部24aで計測される画像データが54種類とすると、BTF計測部24aで計測された画像データのデータ量は、
54×3000×3000×3=1458000000byte
となる。このため、BTF計測を行った場合、約1.4Gbyteのデータ量をもつ画像データをレンダリングすることとなるため、通常のPC等では、高速に処理することは困難である。
The data subjected to the BTF measurement is output as image data to the PTM measurement unit 24b. The number of pixels of the image data input to the BTF measurement unit 24a is 3000 × 3000 pixels when the object 100 is about 20 cm square. If the RGB dynamic range is 8 bits (1 byte) and the image data measured by the BTF measurement unit 24a is 54 types, the data amount of the image data measured by the BTF measurement unit 24a is
54 x 3000 x 3000 x 3 = 1458000000 bytes
It becomes. For this reason, when BTF measurement is performed, image data having a data amount of about 1.4 Gbytes is rendered. Therefore, it is difficult to perform high-speed processing with a normal PC or the like.
そこで、BTF計測部24aで計測された画像データを圧縮してレンダリングするために、該画像データは、PTM計測部24bに出力される。 Therefore, in order to compress and render the image data measured by the BTF measurement unit 24a, the image data is output to the PTM measurement unit 24b.
PTM計測部24bは、PTM(Polynomial Texture Mapping;多項式テクスチャマッピング)によって、上記画像データの圧縮およびレンダリングを行う。 The PTM measurement unit 24b compresses and renders the image data by PTM (Polynomial Texture Mapping).
具体的には、視点と対象物100とを固定し、走査光の入射方向のみを変化させた場合、画素データの輝度値のみが変化し、色度は変化せずに一定であることが知られている。このため、画像データの任意座標(u,v)における画素の色(R,G,B)は、
R(u,v)=L(u,v)×Rn(u,v)
G(u,v)=L(u,v)×Gn(u,v)
B(u,v)=L(u,v)×Bn(u,v)
となり、各画素毎に輝度値Lと色度(Rn,Gn,Bn)に分離し、モデル化することができる。
Specifically, it is known that when the viewpoint and the object 100 are fixed and only the incident direction of the scanning light is changed, only the luminance value of the pixel data is changed and the chromaticity is constant without changing. It has been. For this reason, the color (R, G, B) of the pixel at the arbitrary coordinates (u, v) of the image data is
R (u, v) = L (u, v) × Rn (u, v)
G (u, v) = L (u, v) × Gn (u, v)
B (u, v) = L (u, v) × Bn (u, v)
Thus, for each pixel, the luminance value L and the chromaticity (Rn, Gn, Bn) can be separated and modeled.
しかしながら、本実施形態では、画像データのサンプリング数が54種類と離散的であるため、位置情報データのない方向から走査光が照射された場合の画像データに対して色の再現処理を行うこと、すなわち、連続的に色の再現処理を行うことが困難である。 However, in the present embodiment, since the number of samplings of the image data is as discrete as 54 types, color reproduction processing is performed on the image data when the scanning light is irradiated from the direction without the position information data. That is, it is difficult to perform color reproduction processing continuously.
そこで、BTF計測部24aで得られた画像データに対し、正規化された走査光の入射ベクトル(lu,lv)、定数ai(i=0〜5)を引数とした2次元多項式、
L(u,v;lu,lv)=
a0(u,v)lu2+ a1(u, v)lv2+a2(u, v)lulv
+a3(u,v)lu+a4(u, v)lv+a5(u,v)
を用いてモデル化することによって、各画素の輝度値Lの近似値を求めることができ、この近似値に基づいて色度(Rn,Gn,Bn)の値を調整することができる。これにより、各画素の最終的な色の再現処理を行うことが可能となる。
Therefore, a two-dimensional polynomial using the normalized scan light incident vector (lu, lv) and constant ai (i = 0 to 5) as arguments for the image data obtained by the BTF measurement unit 24a,
L (u, v; lu, lv) =
a0 (u, v) lu 2 + a1 (u, v) lv 2 + a2 (u, v) lulv
+ A3 (u, v) lu + a4 (u, v) lv + a5 (u, v)
By modeling using, an approximate value of the luminance value L of each pixel can be obtained, and the value of chromaticity (Rn, Gn, Bn) can be adjusted based on this approximate value. As a result, the final color reproduction process for each pixel can be performed.
また、上記モデル化された画像データの圧縮率を向上させるために、定数aiは、スケール変換処理等を行うことによって、8bitの整数データであることが好ましい。しかしながら、スケール変換処理を行った場合であっても、全ての定数aiを8bitにすることは困難である。 In order to improve the compression rate of the modeled image data, the constant ai is preferably 8-bit integer data by performing a scale conversion process or the like. However, even when the scale conversion process is performed, it is difficult to set all constants ai to 8 bits.
このため、圧縮ファイルへの格納値ai´、スケール値λ、バイアス値Ωを用いることにより、定数aiは、
ai=λ(ai´−Ω)
で表され、8bitの範囲を超える場合であっても、8bit以内の格納値ai´で圧縮ファイルに格納されることになる。
Therefore, by using the stored value ai ′, the scale value λ, and the bias value Ω in the compressed file, the constant ai is
ai = λ (ai′−Ω)
Even if it exceeds the 8-bit range, it is stored in the compressed file with a stored value ai ′ within 8 bits.
上記モデル化および定数aiの評価によって、表1に示されるように、BTF計測された画像データは、約88%圧縮することが可能である。この圧縮された画像データをレンダリング処理することになるため、通常のPC等を用いて高精細な質感を再現する場合であっても、高速に処理することが可能となる。 By the above modeling and evaluation of the constant ai, as shown in Table 1, the image data measured by BTF can be compressed by about 88%. Since the compressed image data is subjected to a rendering process, even when a high-definition texture is reproduced using a normal PC or the like, it can be processed at a high speed.
PTM計測部24bで圧縮され、レンダリング処理された画像データは、画像出力部25を介して、ユーザに提供されることとなる。 The image data compressed and rendered by the PTM measurement unit 24b is provided to the user via the image output unit 25.
上記処理によって、対象物100から得られた画像データから、高精細なテクスチャ画像データを得ることが可能となる。なお、図5は、ラインセンサ11が取得した対象物100の画像を示しており、図6は、該画像から上記処理によって得られたテクスチャ画像を示すものである。図5と図6との比較から、上記処理によって得られたテクスチャ画像は、対象物100表面上の陰影などの質感が高精細に表現できていることが分かる。 Through the above processing, it is possible to obtain high-definition texture image data from the image data obtained from the object 100. 5 shows an image of the object 100 acquired by the line sensor 11, and FIG. 6 shows a texture image obtained from the image by the above processing. From the comparison between FIG. 5 and FIG. 6, it can be seen that the texture image obtained by the above processing can express the texture such as a shadow on the surface of the object 100 with high definition.
上記より、傾斜ステージ方式スキャナ1は、傾斜ステージ13が傾動するとともに、精密回転台14が回転軸aの周りを回転できる構成となっているため、BTF計測を行うために必要な画像データを、固定された1つの光源によって得ることができる。従って、光源を多数必要とした、または、光源を移動させることを必要とした、BTF計測のスキャナ装置を簡素化することができるとともに、該スキャナ装置を容易に操作することが可能となる。 From the above, the tilt stage type scanner 1 has a configuration in which the tilt stage 13 tilts and the precision turntable 14 can rotate around the rotation axis a. Therefore, image data necessary for performing BTF measurement is obtained as follows. It can be obtained by one fixed light source. Accordingly, it is possible to simplify the BTF measurement scanner device that requires a large number of light sources or to move the light sources, and to easily operate the scanner device.
また、ラインセンサ11を用いているため、高精細なテクスチャ画像を画像出力部25に表示させることができる。これにより、傾斜ステージ方式スキャナ1を用いて、上記テクスチャ画像処理を行うことにより、精密なグラビアの凸版印刷における表面の傷などを検査することが可能となる。また、ラインセンサ11の解像度をさらに向上させることにより、半導体素子を作成するときの3次元マスクの検査を行うことが可能となる。 Moreover, since the line sensor 11 is used, a high-definition texture image can be displayed on the image output unit 25. Thus, by performing the above-described texture image processing using the tilt stage type scanner 1, it becomes possible to inspect a surface scratch or the like in a precise gravure letterpress printing. Further, by further improving the resolution of the line sensor 11, it becomes possible to inspect a three-dimensional mask when creating a semiconductor element.
なお、本実施形態では、A4サイズよりも少し小さい20cm四方の大きさの対象物100を用いているが、傾斜ステージ方式スキャナ1では、A3サイズの対象物の画像データであっても、高精細な質感を再現することが可能である。 In this embodiment, the object 100 having a size of 20 cm square that is slightly smaller than the A4 size is used. However, in the tilt stage type scanner 1, even the image data of the A3 size object has high definition. It is possible to reproduce a simple texture.
また、本実施形態に係る傾斜ステージ方式スキャナ1では、ラインセンサ11で得られた画像データは、その質感を向上させるために画像質感計測装置に出力されている。しかしながら、これに限られたものではなく、該画像データの出力をそのまま利用して、例えば、ユーザに対して、複数の光入射角度の変化による陰影の変化を示すようにしてもよい。 In the tilt stage scanner 1 according to the present embodiment, the image data obtained by the line sensor 11 is output to the image texture measuring device in order to improve the texture. However, the present invention is not limited to this, and the output of the image data may be used as it is, for example, to indicate a change in shadow due to a change in a plurality of light incident angles.
〔実施形態2〕
本発明の他の実施形態について説明すれば、以下の通りである。なお、実施形態1と同一の機能を有する部材については、同一の符号を付記し、その説明は省略する。
[Embodiment 2]
Another embodiment of the present invention will be described as follows. In addition, about the member which has the same function as Embodiment 1, the same code | symbol is attached and the description is abbreviate | omitted.
図7は、視触覚呈示装置(画像質感呈示装置)2の概略構成を示す説明図である。 FIG. 7 is an explanatory diagram showing a schematic configuration of the visual / tactile sensation presentation apparatus (image texture presentation apparatus) 2.
本実施形態に係る視触覚呈示装置2は、PC(触覚呈示制御手段、凹凸形状算出手段)31と、ディスプレイ(画像表示手段)32と、整合装置(投影手段)33と、触覚デバイス(触覚呈示手段)34とを備えている。 The visual and tactile sensation presentation apparatus 2 according to the present embodiment includes a PC (tactile sensation presentation control means, uneven shape calculation means) 31, a display (image display means) 32, a matching device (projection means) 33, and a haptic device (tactile presentation). Means) 34.
PC31は、ディスプレイ32と触覚デバイス34とを制御している。具体的には、ディスプレイ32に画像として表示される対象物の凹凸形状を、該凹凸形状に一致するように、また、ディスプレイ32に表示される画像に対応するように、触覚デバイス34の操作部34aに反力として伝える。このため、PC31は、ディスプレイ32に画像として表示される対象物の凹凸形状に一致する反力に対応する制御信号を生成し、触覚デバイス34に出力する。 The PC 31 controls the display 32 and the haptic device 34. Specifically, the operation unit of the tactile device 34 is configured so that the uneven shape of the object displayed as an image on the display 32 matches the uneven shape and corresponds to the image displayed on the display 32. Tell 34a as reaction force. For this reason, the PC 31 generates a control signal corresponding to the reaction force that matches the uneven shape of the object displayed as an image on the display 32, and outputs the control signal to the tactile device 34.
画像データから画像データ内の対象物の凹凸形状を再現する方法として、連結した三角形の集合によるポリゴンでの近似が一般的である。ポリゴンを形成するための頂点の位置情報は、主にレーザ計測器等によって計測されるが、計測された位置情報のデータ量は膨大になってしまう。 As a method for reproducing the concavo-convex shape of the object in the image data from the image data, approximation with a polygon by a set of connected triangles is generally used. The vertex position information for forming the polygon is mainly measured by a laser measuring instrument or the like, but the data amount of the measured position information becomes enormous.
しかしながら、例えば、実施形態1に係る傾斜ステージ方式スキャナ1を用いて対象物100への光入射角度が異なる複数枚の画像データを取得する場合、すなわち、対象物100への光入射角度を変化させながら画像データを取得する場合には、ラインセンサ11で取得した2枚の画像データから、これら画像データの差分画像を生成することができる。これにより、上記差分画像からHeight Fieldによって、画像データ内の対象物100の凹凸形状を再現することができるため、位置情報のデータ量を低減させることが可能となる。 However, for example, when acquiring a plurality of pieces of image data having different light incident angles on the target object 100 using the tilt stage scanner 1 according to the first embodiment, that is, by changing the light incident angle on the target object 100. However, when acquiring the image data, a difference image of these image data can be generated from the two pieces of image data acquired by the line sensor 11. Thereby, since the uneven shape of the target object 100 in the image data can be reproduced from the difference image by the height field, the data amount of the position information can be reduced.
Height Fieldは、2次元画像から3次元の凹凸形状を復元する手法であり、主に等高線地図等から地形の3次元形状を再現するために用いられている。なお、視触覚呈示装置2において、視覚特性および凹凸形状は、ユーザに対して表現物体のリアリティを増すために、視覚特性の補助的な役割を行うことが目的であるため、Height Fieldによって充分に凹凸形状を復元することが可能である。 Height Field is a method for restoring a three-dimensional uneven shape from a two-dimensional image, and is mainly used to reproduce the three-dimensional shape of the terrain from a contour map or the like. In the visual and tactile sensation presentation apparatus 2, the visual characteristics and the uneven shape are intended to play an auxiliary role of visual characteristics in order to increase the reality of the expression object to the user. It is possible to restore the uneven shape.
なお、Height Fieldによる具体的な凹凸形状の復元は、次に示すように行われる。 It should be noted that the specific uneven shape restoration by the height field is performed as follows.
まず、2枚の画像データから得られる差分画像を、任意の平面(例えば、x−y平面)に1×1の大きさで投影させる。次に、差分画像の濃淡(輝度値)を、0〜1の高さデータに変換する。このとき、高さデータは、輝度値L=1のときに最も高くなり、輝度値L=0のときに最も低くなる。この変換された高さデータに基づいて、差分画像を前記任意の平面(投影面)に垂直な方向の何れか(例えば、+z軸方向)に隆起させる。これにより、2枚の画像データから得られた差分画像によって、画像データ内の対象物表面の凹凸形状の復元を行うことができる。 First, a difference image obtained from two pieces of image data is projected on an arbitrary plane (for example, an xy plane) with a size of 1 × 1. Next, the density (luminance value) of the difference image is converted into 0-1 height data. At this time, the height data is highest when the luminance value L = 1 and lowest when the luminance value L = 0. Based on the converted height data, the difference image is raised in any direction (for example, + z-axis direction) perpendicular to the arbitrary plane (projection plane). Thereby, the uneven | corrugated shape of the target object surface in image data can be restored | restored with the difference image obtained from two image data.
ディスプレイ32は、PC31から出力される画像データを表示する。ディスプレイ32には、高精細なテクスチャ画像を表示できるように、高精細TFTカラー液晶ディスプレイが使用されているが、これに限られたものではなく、テクスチャ画像を表示できるものであればよい。また、例えば、傾斜ステージ方式スキャナ1で得られたテクスチャ画像を用いる場合、画像出力部25に出力されているテクスチャ画像は、ディスプレイ32に表示されている。 The display 32 displays image data output from the PC 31. A high-definition TFT color liquid crystal display is used as the display 32 so that a high-definition texture image can be displayed. However, the display 32 is not limited to this, and any display can be used as long as it can display a texture image. For example, when using a texture image obtained by the tilt stage type scanner 1, the texture image output to the image output unit 25 is displayed on the display 32.
整合装置33は、ミラー33aとハーフミラー33bと備えており、ディスプレイ32に表示された画像と、触覚デバイス34の操作部34aとの位置を(ユーザの視点から見て)重ね合わせる。すなわち、整合装置33は、視覚情報と、仮想空間に構築された触覚情報とを結びつけている。 The aligning device 33 includes a mirror 33a and a half mirror 33b, and superimposes the image displayed on the display 32 and the position of the operation unit 34a of the tactile device 34 (from the viewpoint of the user). That is, the matching device 33 combines visual information with tactile information constructed in a virtual space.
ミラー33aは、ハーフミラー33bに反射される画像の上下左右方向と、ディスプレイ32に表示される画像の上下左右方向とを同一にする。ミラー33aは、ディスプレイ32からの光を反射させてハーフミラー33bに導く。 The mirror 33a makes the vertical and horizontal directions of the image reflected by the half mirror 33b the same as the vertical and horizontal directions of the image displayed on the display 32. The mirror 33a reflects the light from the display 32 and guides it to the half mirror 33b.
ハーフミラー33bは、反射および透過の性質を併せ持つものであり、触覚デバイス34とユーザの視点との間に、ミラー33aを介して入射するディスプレイ32からの光がユーザの視点に向かって反射されるような方向に、斜めに傾けて備えられている。これにより、ハーフミラー33bに反射される、ミラー33aを介したディスプレイ32の画像が、触覚デバイス34、ユーザの手等によって遮られることなく、該画像の任意の位置と、触覚デバイス34の操作部34aの位置とを(ユーザの視点から見て)重ね合わせることが可能となる。 The half mirror 33b has both reflection and transmission properties, and light from the display 32 incident through the mirror 33a is reflected toward the user's viewpoint between the haptic device 34 and the user's viewpoint. In such a direction, it is inclined at an angle. Thereby, the image of the display 32 reflected by the half mirror 33b via the mirror 33a is not obstructed by the tactile device 34, the user's hand, etc., and an arbitrary position of the image and the operation unit of the tactile device 34 It is possible to superimpose the position 34a (from the viewpoint of the user).
触覚デバイス34は、ハーフミラー33bに関して、ユーザの視点とは反対の位置に備えられており、PC31によって制御されている。また、触覚デバイス34は、操作部34aを有している。 The tactile device 34 is provided at a position opposite to the user's viewpoint with respect to the half mirror 33b, and is controlled by the PC 31. The tactile device 34 has an operation unit 34a.
操作部34aは、PC31によって生成された反力に対応する制御信号に基づいて、ディスプレイ32にテクスチャ画像として表示される、対象物表面の凹凸形状を再現するように反力を発生させる。これにより、ユーザは、操作部34aからの反力を指先で受けることにより、操作部34a表面(この場合にはペン先)で対象物表面の凹凸形状に触れているように感じることが可能となる。なお、操作部34aは、ペン形状をしているが、これに限られたものではなく、グローブ形状であってもよい。ハーフミラー33bにおけるユーザの視点とは反対側の空間は、外部から光が入らないようになっており、操作部34aにおける対象物に触れる部分(ペン先やグローブの先など)が光を発するようになっていることが好ましい。これにより、ディスプレイ32の画像に操作部34aの像が混じることを抑制することができる。また、ユーザが、対象物100の凹凸形状のどこを触っているかを認識し易くなる。 Based on a control signal corresponding to the reaction force generated by the PC 31, the operation unit 34a generates a reaction force so as to reproduce the uneven shape on the surface of the object displayed as a texture image on the display 32. As a result, the user can feel as if the surface of the operation unit 34a (in this case, the pen tip) is touching the uneven shape on the surface of the object by receiving the reaction force from the operation unit 34a with the fingertip. Become. In addition, although the operation part 34a is carrying out the pen shape, it is not restricted to this, A globe shape may be sufficient. In the space on the opposite side of the user's viewpoint in the half mirror 33b, light does not enter from the outside, and a portion (such as a tip of a pen or a globe) that touches the object in the operation unit 34a emits light. It is preferable that Thereby, it can suppress that the image of the operation part 34a is mixed with the image of the display 32. FIG. Moreover, it becomes easy to recognize where the user touches the uneven shape of the object 100.
従って、整合装置33によって、ハーフミラー33bに反射されたディスプレイ32の画像と、操作部34aのペン先の位置とを一致させることが可能になるとともに、操作部34aによって、該画像として表示される対象物の凹凸形状に触れているようにユーザが感じることが可能となる。これにより、ユーザに対して、ディスプレイ32に画像として表示される対象物に、あたかも触っているように感じさせることが可能である。 Therefore, the alignment device 33 can match the image of the display 32 reflected by the half mirror 33b with the position of the pen tip of the operation unit 34a, and is displayed as the image by the operation unit 34a. The user can feel as if he / she touches the uneven shape of the object. Thereby, it is possible to make the user feel as if he is touching the object displayed as an image on the display 32.
また、例えば、傾斜ステージ方式スキャナ1を用いた場合、ラインセンサ11によって取得された、対象物100への光入射角度が異なる複数枚の画像データと、画像出力部25から出力された、対象物100のテクスチャ画像データとが、PC31に出力される。PC31は、テクスチャ画像データをディスプレイ32に出力するとともに、2枚の画像データから差分画像を生成することによって、画像データ内の対象物表面の凹凸形状の復元を行う。 Further, for example, when the tilt stage type scanner 1 is used, a plurality of pieces of image data obtained by the line sensor 11 and having different light incident angles on the target 100 and the target output from the image output unit 25. 100 texture image data are output to the PC 31. The PC 31 outputs the texture image data to the display 32 and generates a difference image from the two pieces of image data, thereby restoring the uneven shape of the object surface in the image data.
これにより、傾斜ステージ方式スキャナ1から得られたテクスチャ画像に対応した微細な凹凸形状に、擬似的に触れることが可能となる。これにより、精密なグラビアの凸版印刷等の検査を、検査者が、視認して検査するだけではなく、擬似的に触れることで検査することが可能となる。 As a result, it becomes possible to artificially touch the fine uneven shape corresponding to the texture image obtained from the tilt stage type scanner 1. Accordingly, it is possible for an inspector to inspect a precise gravure letterpress printing or the like not only by visual inspection but also by touching in a pseudo manner.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
本発明に係る画像質感計測装置および画像質感呈示装置は、特に、油彩画、古文書、紙類、石版、タイル等のほぼ平らで微細な凹凸を有する形状の対象物を、仮想環境で高精細に表現するために有効である。また、画像質感計測装置は、高精細なテクスチャ画像を得ることができるため、上記対象物の検査、または、半導体素子の3次元マスクの検査に用いるのに有効であり、画像質感呈示装置は、高精細なテクスチャ画像を用いることで、擬似的に触れることによる検査に用いるのに有効である。 The image texture measuring device and the image texture presenting device according to the present invention, in particular, provide a high-definition object in a virtual environment with a substantially flat and finely shaped object such as an oil painting, an old document, paper, a slab, or a tile. It is effective to express In addition, since the image texture measuring device can obtain a high-definition texture image, it is effective for use in the inspection of the object or the inspection of the three-dimensional mask of the semiconductor element. By using a high-definition texture image, it is effective to use for inspection by touching in a pseudo manner.
1 傾斜ステージ方式スキャナ(スキャナ装置、画像質感向上装置)
2 視触覚呈示装置(画像質感呈示装置)
11 ラインセンサ(受光手段)
12 光源
13 傾斜ステージ(ステージ)
14 精密回転台(回転台)
17 駆動装置(第2の駆動手段)
21 位置情報テーブル(位置情報格納手段、画像質感向上手段)
22 駆動制御部(駆動制御手段、画像質感向上手段)
23 駆動部(第1および第2の駆動手段)
24 画像処理部(画像処理手段、画像質感向上手段)
24a BTF計測部(第1の計測手段)
24b PTM計測部(第2の計測手段)
31 PC(触覚呈示制御手段、凹凸形状算出手段)
32 ディスプレイ(画像表示手段)
33 整合装置(投影手段)
33b ハーフミラー
34 触覚デバイス(触覚呈示手段)
100 対象物
1 Inclined stage scanner (scanner device, image quality improvement device)
2 Visual and tactile sensation presentation device (image texture presentation device)
11 Line sensor (light receiving means)
12 Light source 13 Inclined stage (stage)
14 Precision turntable (turntable)
17 Driving device (second driving means)
21 Position information table (position information storage means, image texture improvement means)
22 Drive control unit (drive control means, image texture improvement means)
23 Drive unit (first and second drive means)
24 Image processing unit (image processing means, image texture improvement means)
24a BTF measuring section (first measuring means)
24b PTM measuring unit (second measuring means)
31 PC (tactile sense presentation control means, uneven shape calculation means)
32 Display (Image display means)
33 Alignment device (projection means)
33b Half mirror 34 Tactile device (tactile sense presenting means)
100 objects
Claims (10)
上記対象物から反射される反射光を読み取ることにより画像データを取得する受光手段と、
上記対象物への光入射角度を一方向に変化させるように回動するステージとを備えたスキャナ装置であって、
上記ステージ上には、上記対象物が載置される回転台が備えられ、
上記回転台は、上記対象物が載置される面に対して垂直方向を軸として回転することを特徴とするスキャナ装置。 A light source that irradiates the object with light;
A light receiving means for acquiring image data by reading reflected light reflected from the object;
A scanner device comprising a stage that rotates so as to change the light incident angle to the object in one direction,
On the stage, a turntable on which the object is placed is provided,
The scanner device according to claim 1, wherein the rotating table rotates about a vertical direction with respect to a surface on which the object is placed.
上記回転台は、上記ステージに平行で、かつ上記ラインセンサの長手方向に直交する方向に移動することを特徴とする請求項1に記載のスキャナ装置。 The light receiving means is a line sensor,
The scanner device according to claim 1, wherein the turntable moves in a direction parallel to the stage and perpendicular to the longitudinal direction of the line sensor.
上記回転台を回転させる第2の駆動手段とがさらに備えられていることを特徴とする請求項1または2に記載のスキャナ装置。 First driving means for rotating the stage;
The scanner device according to claim 1, further comprising second driving means for rotating the turntable.
上記スキャナ装置の動作を制御するとともに、該スキャナ装置が取得した、光入射方向の異なる複数枚の画像データから、上記対象物の質感を向上させた画像データを生成する画像質感向上手段とを備えることを特徴とする画像質感向上装置。 A scanner device according to claim 3;
Image texture improving means for controlling the operation of the scanner device and generating image data obtained by improving the texture of the object from a plurality of pieces of image data obtained by the scanner device having different light incident directions. An image texture improving apparatus characterized by the above.
上記ステージおよび回転台の位置情報を格納する位置情報格納手段と、
上記位置情報格納手段から位置情報を取得し、該位置情報に基づいて、上記第1および第2の駆動手段を制御する駆動制御手段と、
上記第1および第2の駆動手段によって上記ステージおよび回転台が所望の位置まで移動すると、上記ラインセンサから画像データを取得し、取得した画像データから、上記対象物の質感を向上させた画像データを生成する画像処理手段とを備えることを特徴とする請求項4記載の画像質感向上装置。 The image quality improvement means
Position information storage means for storing position information of the stage and the turntable;
Drive control means for obtaining position information from the position information storage means and controlling the first and second drive means based on the position information;
When the stage and the turntable are moved to a desired position by the first and second driving means, image data is acquired from the line sensor, and image data in which the texture of the object is improved from the acquired image data. 5. The image texture improving apparatus according to claim 4, further comprising image processing means for generating the image.
上記対象物から得られる、上記対象物上の位置および光入射角度に応じた反射率の変化を、上記ラインセンサによって得られた画像から計測するとともに、計測結果を画像データとして出力する第1の計測手段と、
上記画像データの各画素毎に輝度と色度とを分離し、正規化された光の入射ベクトルと定数とからなる2次元多項式を用いて、各画素毎の輝度値を近似する第2の計測手段とを備えることを特徴とする請求項5に記載の画像質感向上装置。 The image processing means includes
A change in reflectance according to a position on the object and a light incident angle obtained from the object is measured from an image obtained by the line sensor, and a measurement result is output as image data. Measuring means;
A second measurement that separates the luminance and chromaticity for each pixel of the image data and approximates the luminance value for each pixel using a two-dimensional polynomial consisting of a normalized incident vector of light and a constant. The image texture improving apparatus according to claim 5, further comprising: means.
ユーザに対し、上記対象物の触覚情報を上記画像に対応させて呈示する触覚呈示手段と、
上記画像表示手段に表示される対象物の凹凸形状を表す凹凸形状データに基づいて、該凹凸形状と一致するように上記触覚呈示手段を制御する触覚呈示制御手段とを備えた画像質感呈示装置であって、
上記触覚呈示手段とユーザの視点との間に、上記画像表示手段によって表示された画像を投影する投影手段を備えていることを特徴とする画像質感呈示装置。 Image display means for displaying an image of the object;
Tactile sensation presenting means for presenting tactile information of the object corresponding to the image to the user;
An image texture presentation device comprising tactile sensation presentation control means for controlling the tactile sensation presentation means to match the concavo-convex shape based on the concavo-convex shape data representing the concavo-convex shape of the object displayed on the image display means There,
An image texture presenting apparatus comprising: a projecting unit that projects an image displayed by the image display unit between the tactile sense presenting unit and a user's viewpoint.
請求項7〜9の何れか1項に記載の画像質感呈示装置とを備え、
上記画像質感呈示装置の画像表示手段は、上記画像質感向上装置の画像質感向上手段によって得られた、対象物の質感を向上させた画像データに基づいて画像を表示することを特徴とする画像質感呈示システム。 The image quality improving device according to any one of claims 4 to 6,
An image texture presentation device according to any one of claims 7 to 9,
The image display means of the image texture presentation device displays an image based on the image data obtained by the image texture improvement means of the image texture improvement device and improved in the texture of the object. Presentation system.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006215064A JP2008042581A (en) | 2006-08-07 | 2006-08-07 | Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006215064A JP2008042581A (en) | 2006-08-07 | 2006-08-07 | Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008042581A true JP2008042581A (en) | 2008-02-21 |
Family
ID=39177107
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006215064A Pending JP2008042581A (en) | 2006-08-07 | 2006-08-07 | Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008042581A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010114506A (en) * | 2008-11-04 | 2010-05-20 | Seiko Epson Corp | Texture information data acquiring device and display control system with the same |
| JP2015173350A (en) * | 2014-03-11 | 2015-10-01 | キヤノン株式会社 | Reading controller and reading control method |
-
2006
- 2006-08-07 JP JP2006215064A patent/JP2008042581A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010114506A (en) * | 2008-11-04 | 2010-05-20 | Seiko Epson Corp | Texture information data acquiring device and display control system with the same |
| JP2015173350A (en) * | 2014-03-11 | 2015-10-01 | キヤノン株式会社 | Reading controller and reading control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105308549B (en) | Information processing unit, control method, program and storage medium | |
| JP4739002B2 (en) | Image processing method and image processing apparatus | |
| CA1196086A (en) | Apparatus and method for remote displaying and sensing of information using shadow parallax | |
| US20220366530A1 (en) | Dynamic uniformity correction | |
| JP5745435B2 (en) | 3D data processing apparatus, 3D data processing program, and 3D data processing method | |
| JP2010510571A (en) | Method and system for color correction of 3D image | |
| JP2010526295A (en) | Scanning 3D objects using a video camera and TV monitor | |
| US9325960B2 (en) | Maintenance of three dimensional stereoscopic effect through compensation for parallax setting | |
| JPH11149567A (en) | Picture processor and method therefor | |
| JP4808600B2 (en) | Rendering program, rendering apparatus, and rendering method | |
| JP2007018173A (en) | Image processing method and image processing apparatus | |
| US10261306B2 (en) | Method to be carried out when operating a microscope and microscope | |
| JP4677281B2 (en) | Image processing method and image processing apparatus | |
| US10475230B2 (en) | Surface material pattern finish simulation device and surface material pattern finish simulation method | |
| JP4806738B2 (en) | Optical characteristic measuring apparatus and image processing system | |
| JP2014199479A (en) | Program and information processor | |
| Adachi et al. | Method of acquiring shapes using motion capture of aerial images formed by large acrylic panels | |
| Konieczny et al. | A handheld flexible display system | |
| JP2008042581A (en) | Scanner device, image texture improvement device, image texture presentation device, and image texture presentation system | |
| Harish et al. | Designing perspectively correct multiplanar displays | |
| Darling et al. | The tangiBook: a tangible display system for direct interaction with virtual surfaces | |
| KR20180065645A (en) | Ar device | |
| Ferwerda et al. | Tangible images: Bridging the real and virtual worlds | |
| US11710212B1 (en) | Display non-uniformity correction | |
| JP7546327B2 (en) | Image Display System |