[go: up one dir, main page]

JP2024100370A - Measurement device, and measurement system - Google Patents

Measurement device, and measurement system Download PDF

Info

Publication number
JP2024100370A
JP2024100370A JP2023004325A JP2023004325A JP2024100370A JP 2024100370 A JP2024100370 A JP 2024100370A JP 2023004325 A JP2023004325 A JP 2023004325A JP 2023004325 A JP2023004325 A JP 2023004325A JP 2024100370 A JP2024100370 A JP 2024100370A
Authority
JP
Japan
Prior art keywords
light
laser
measuring device
laser modules
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023004325A
Other languages
Japanese (ja)
Inventor
信行 久保井
Nobuyuki Kuboi
淳 戸田
Atsushi Toda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2023004325A priority Critical patent/JP2024100370A/en
Priority to PCT/JP2023/042062 priority patent/WO2024154434A1/en
Publication of JP2024100370A publication Critical patent/JP2024100370A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

To improve spatial resolving power of imaging.SOLUTION: A measurement device comprises: at least two or more laser modules that have a light emission element emitting phase-modulated laser light to an object, and a light reception element receiving the laser light reflected by the object, and are arranged in a mutually separated location; and a computation unit that synthesizes light reception signals of the laser light received by respective light reception elements of the laser modules by correcting a phase difference, and thus, derives an imaging effect of a surface of the object.SELECTED DRAWING: Figure 1

Description

本開示は、測定装置、及び測定システムに関する。 This disclosure relates to a measurement device and a measurement system.

近年、スマートフォン又はデジタルカメラなどに搭載されるCMOSイメージセンサでは、空間分解能をさらに向上させることが求められている。 In recent years, there has been a demand for improved spatial resolution in CMOS image sensors installed in smartphones and digital cameras.

CMOSイメージセンサで空間分解能を向上させるためには、センサ画素の微細化を行うことが重要となるが、センサ画素の微細化は、センサ画素の飽和電荷量の低下、及びセンサ画素間での混色の増加を招いてしまう。そのため、CMOSイメージセンサの空間分解能を向上させる技術開発は、年々、難度が上昇している。 In order to improve the spatial resolution of CMOS image sensors, it is important to miniaturize the sensor pixels, but miniaturizing the sensor pixels leads to a decrease in the saturation charge of the sensor pixels and an increase in color mixing between the sensor pixels. For this reason, the development of technology to improve the spatial resolution of CMOS image sensors is becoming more difficult every year.

一方で、光は電磁波でもあるため、回折及び干渉などを起こすことが知られている。そこで、宇宙観測などで用いられる電磁波干渉計では、光の干渉性を利用することで、高分解能での宇宙空間の観測を実現している。具体的には、電磁波干渉計は、宇宙空間からの電磁波を異なる複数の場所で受信し、受信した電磁波同士を位相差0で干渉させることで、高分解能で宇宙空間を観測することができる。 However, since light is also an electromagnetic wave, it is known to cause diffraction and interference. Therefore, electromagnetic interferometers used in space observations and other such purposes exploit the coherence of light to achieve high-resolution observation of outer space. Specifically, electromagnetic interferometers receive electromagnetic waves from outer space at multiple different locations, and by causing the received electromagnetic waves to interfere with each other with zero phase difference, they are able to observe outer space with high resolution.

ここで、宇宙空間から受信する電磁波は、宇宙から地球までの距離が非常に長く、ほぼ平面波としてみなすことができるため、容易に干渉させることができる。しかしながら、通常空間を伝搬する太陽光などは位相がランダムであるため、そのままでは干渉させることが困難である。例えば、下記の特許文献1には、波長及び位相が揃ったレーザ光を対象物に出射し、対象物で反射されたレーザ光を受光することで、受光したレーザ光の干渉縞を得る技術が開示されている。 The electromagnetic waves received from outer space can be easily made to interfere because the distance from space to the Earth is very long and they can be considered to be almost plane waves. However, sunlight and other light that normally propagates through space has a random phase, making it difficult to make them interfere as is. For example, the following Patent Document 1 discloses a technology in which laser light with a uniform wavelength and phase is emitted to an object, and the laser light reflected by the object is received, thereby obtaining interference fringes of the received laser light.

特開2018-93085号公報JP 2018-93085 A

上記事情に鑑みれば、対象物に出射されたレーザ光の反射光を受光し、受光した反射光を位相差補正して合成することで、イメージングの空間分解能を向上させることが望ましい。 In view of the above, it is desirable to improve the spatial resolution of imaging by receiving reflected light of laser light emitted to an object and synthesizing the received reflected light after correcting the phase difference.

本開示によれば、位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、を備える、測定装置が提供される。 According to the present disclosure, there is provided a measurement device comprising at least two or more laser modules having a light-projecting element that emits phase-modulated laser light to an object and a light-receiving element that receives the laser light reflected by the object, the laser modules being disposed at positions spaced apart from each other, and a calculation unit that derives an imaging result of the surface of the object by correcting the phase difference and combining the received light signals of the laser light received by the light-receiving elements of each of the laser modules.

また、本開示によれば、位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、を備える、測定システムが提供される。 The present disclosure also provides a measurement system including at least two laser modules that have a light-projecting element that emits phase-modulated laser light to an object and a light-receiving element that receives the laser light reflected by the object and are disposed at positions spaced apart from each other, and a calculation unit that derives an imaging result of the surface of the object by correcting the phase difference and combining the light-receiving signals of the laser light received by the light-receiving elements of each of the laser modules.

本開示の一実施形態に係る測定装置の構成を示す模式的な斜視図である。FIG. 1 is a schematic perspective view showing a configuration of a measurement device according to an embodiment of the present disclosure. 測距センサにて本体部と対象物との間の距離を測定する様子を示す説明図である。10 is an explanatory diagram showing how a distance measuring sensor measures the distance between a main body and an object. FIG. レーザモジュールの各々から測定点にレーザ光を出射すると共に、反射されたレーザ光をレーザモジュールの各々にて受光する様子を示す説明図である。10 is an explanatory diagram showing how laser light is emitted from each laser module to a measurement point and how the reflected laser light is received by each laser module. FIG. 測定装置の内部構成を示すブロック図である。FIG. 2 is a block diagram showing the internal configuration of a measurement device. 複数のレーザモジュールの組み合わせを示す模式図である。FIG. 2 is a schematic diagram showing a combination of a plurality of laser modules. 測定装置の第1の動作例の流れを示すフローチャート図である。FIG. 4 is a flowchart showing the flow of a first operation example of the measurement device. 測定装置の第2の動作例の流れを示すフローチャート図である。FIG. 11 is a flowchart showing the flow of a second operation example of the measurement device. レーザモジュールの配置及び移動方向の一例を示す模式的な斜視図である。1 is a schematic perspective view showing an example of the arrangement and movement direction of a laser module; レーザモジュールの配置及び移動方向の一例を示す模式的な斜視図である。1 is a schematic perspective view showing an example of the arrangement and movement direction of a laser module; 測定装置の内部構成の変形例を示すブロック図である。FIG. 13 is a block diagram showing a modified example of the internal configuration of the measurement device. 測定装置が搭載された人型ロボットの一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a humanoid robot equipped with a measuring device. 測定装置が搭載されたペット型ロボットの一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a pet-type robot equipped with a measuring device. 測定装置が搭載された移動体の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a moving body on which a measuring device is mounted. 可搬型の検出装置として構成された測定装置の概要を示す模式的な斜視図である。FIG. 1 is a schematic perspective view showing an overview of a measurement device configured as a portable detection device. 設置型の検出装置として構成された測定装置の概要を示す模式的な斜視図である。FIG. 1 is a schematic perspective view showing an overview of a measurement device configured as a stationary detection device. 画素をレーザモジュールとして機能させる測定装置の断面構成を示す縦断面図である。FIG. 2 is a longitudinal sectional view showing a cross-sectional configuration of a measuring device that causes a pixel to function as a laser module. 画素をレーザモジュールとして機能させる測定装置の平面構成を示す上面図である。FIG. 1 is a top view showing a planar configuration of a measuring device that causes a pixel to function as a laser module.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the attached drawings. Note that in this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

なお、説明は以下の順序で行うものとする。
1.測定装置の構成
2.測定装置の動作
3.変形例
The explanation will be given in the following order.
1. Configuration of the Measuring Apparatus 2. Operation of the Measuring Apparatus 3. Modifications

<1.測定装置の構成>
まず、図1を参照して、本開示の一実施形態に係る測定装置の構成について説明する。図1は、本実施形態に係る測定装置10の構成を示す模式的な斜視図である。
1. Configuration of the measuring device
First, the configuration of a measurement device according to an embodiment of the present disclosure will be described with reference to Fig. 1. Fig. 1 is a schematic perspective view showing the configuration of a measurement device 10 according to the present embodiment.

図1に示すように、測定装置10は、本体部100と、測距センサ120と、複数のレーザモジュール110A,110B,110C,110D(互いを区別しない場合にはまとめてレーザモジュール110とも称する)とを備える。 As shown in FIG. 1, the measuring device 10 includes a main body 100, a distance sensor 120, and a number of laser modules 110A, 110B, 110C, and 110D (collectively referred to as laser modules 110 when not distinguished from one another).

本体部100は、測定装置10の本体に相当し、測距センサ120、及び複数のレーザモジュール110を支持する。具体的には、本体部100は、平板状の筐体にて構成されてもよい。また、本体部100には、測定装置10の動作全般を制御する制御装置、及び測定装置10の各部に電力を供給する電源装置などが搭載されてもよい。例えば、本体部100には、測距センサ120、及び複数のレーザモジュール110に電力を供給する電源回路、測距センサ120、及び複数のレーザモジュール110をそれぞれ制御するロジック回路、及び測距センサ120、及び複数のレーザモジュール110にて取得したセンシング結果を演算する演算回路が搭載されてもよい。 The main body 100 corresponds to the main body of the measuring device 10, and supports the distance measurement sensor 120 and the multiple laser modules 110. Specifically, the main body 100 may be configured as a flat housing. The main body 100 may also be equipped with a control device that controls the overall operation of the measuring device 10, a power supply device that supplies power to each part of the measuring device 10, and the like. For example, the main body 100 may be equipped with a power supply circuit that supplies power to the distance measurement sensor 120 and the multiple laser modules 110, a logic circuit that controls each of the distance measurement sensor 120 and the multiple laser modules 110, and an arithmetic circuit that calculates the sensing results obtained by the distance measurement sensor 120 and the multiple laser modules 110.

複数のレーザモジュール110は、本体部100を構成する平板状の筐体の一主面に互いに離隔して設けられる。具体的には、複数のレーザモジュール110は、本体部100の一主面の多角形(図1では長方形)の各頂点に対応する位置に設けられてもよい。例えば、本体部100が矩形平板状の筐体で構成される場合、複数のレーザモジュール110は、本体部100の一主面の四隅にそれぞれ設けられてもよい。 The multiple laser modules 110 are provided at a distance from each other on one main surface of a flat-plate-shaped housing that constitutes the main body 100. Specifically, the multiple laser modules 110 may be provided at positions corresponding to each vertex of a polygon (rectangle in FIG. 1) on one main surface of the main body 100. For example, when the main body 100 is configured as a rectangular flat-plate-shaped housing, the multiple laser modules 110 may be provided at each of the four corners of one main surface of the main body 100.

また、複数のレーザモジュール110は、互いの距離を変更可能とするために、所定の方向に移動可能に設けられる。例えば、複数のレーザモジュール110は、複数のレーザモジュール110を頂点とする多角形(図1では長方形)の対角線上を移動可能に設けられてもよい。複数のレーザモジュール110の移動は、例えば、MEMS(Micro Electro Mechanical Systems)によって行われてもよい。 The multiple laser modules 110 are also provided so as to be movable in a predetermined direction so that the distance between them can be changed. For example, the multiple laser modules 110 may be provided so as to be movable on the diagonals of a polygon (a rectangle in FIG. 1) having the multiple laser modules 110 as vertices. The movement of the multiple laser modules 110 may be performed, for example, by MEMS (Micro Electro Mechanical Systems).

複数のレーザモジュール110は、投光素子111及び受光素子112をそれぞれ有するモジュールである。 The multiple laser modules 110 are modules each having a light-emitting element 111 and a light-receiving element 112.

投光素子111は、位相変調されたレーザ光を出射する半導体レーザ素子である。投光素子111は、例えば、青色半導体レーザ、又は赤外線半導体レーザであってもよい。投光素子111から出射されるレーザ光の出射角は、例えば、MEMSミラーなどで制御されてもよい。 The light-projecting element 111 is a semiconductor laser element that emits phase-modulated laser light. The light-projecting element 111 may be, for example, a blue semiconductor laser or an infrared semiconductor laser. The emission angle of the laser light emitted from the light-projecting element 111 may be controlled, for example, by a MEMS mirror.

受光素子112は、投光素子111から出射され、測定対象となる対象物にて反射されたレーザ光を受光するフォトダイオードである。複数のレーザモジュール110は、自身が有する投光素子111から出射され、対象物にて反射されたレーザ光を受光素子112にて受光することができる。受光素子112は、例えば、シリコンフォトダイオード、化合物半導体(InGaAs等)フォトダイオード、又はSPAD(Single Photon Avalanche Diode)であってもよい。また、受光素子112の受光面には、投光素子111から出射されたレーザ光の波長を含む波長帯域を選択的に透過させるバンドパスフィルタが設けられてもよい。 The light receiving element 112 is a photodiode that receives the laser light emitted from the light projecting element 111 and reflected by the object to be measured. The laser modules 110 can receive the laser light emitted from their own light projecting elements 111 and reflected by the object with the light receiving element 112. The light receiving element 112 may be, for example, a silicon photodiode, a compound semiconductor (InGaAs, etc.) photodiode, or a SPAD (Single Photon Avalanche Diode). In addition, a bandpass filter that selectively transmits a wavelength band including the wavelength of the laser light emitted from the light projecting element 111 may be provided on the light receiving surface of the light receiving element 112.

受光素子112にて受光されたレーザ光には、対象物の表面の状況が反映されるため、測定装置10は、受光されたレーザ光の強度及び位相から対象物の表面に関する情報を導出することができる。また、測定装置10は、複数のレーザモジュール110の各々で受光されたレーザ光を互いに強め合うように合成することで、対象物の表面分布に関する情報をより高精度かつ高分解能に導出することができる。 The laser light received by the light receiving element 112 reflects the surface condition of the object, so the measuring device 10 can derive information about the object's surface from the intensity and phase of the received laser light. In addition, the measuring device 10 can derive information about the surface distribution of the object with higher accuracy and resolution by combining the laser light received by each of the multiple laser modules 110 so as to reinforce each other.

ただし、複数のレーザモジュール110では、自身の投光素子111以外の投光素子111から出射されたレーザ光の反射光、及び他の自然光が受光素子112で受光されることで、測定のノイズとなってしまう可能性がある。そのため、複数のレーザモジュール110は、自身の投光素子111以外の投光素子111のみからレーザ光を出射した場合の受光強度をあらかじめ測定し、該受光強度をバックグラウンドノイズとして測定結果から差し引いてもよい。これによれば、複数のレーザモジュール110は、あらかじめ測定したバックグラウンドノイズを測定結果から差し引くことで、自身が有する投光素子111から出射されたレーザ光の反射光をより高い精度で測定することができる。 However, in the multiple laser modules 110, reflected light of laser light emitted from light-projecting elements 111 other than the laser module's own light-projecting element 111, and other natural light, may be received by the light-receiving element 112, resulting in measurement noise. For this reason, the multiple laser modules 110 may measure in advance the received light intensity when laser light is emitted only from light-projecting elements 111 other than the laser module's own light-projecting element 111, and subtract the received light intensity from the measurement result as background noise. In this way, the multiple laser modules 110 can measure the reflected light of laser light emitted from their own light-projecting elements 111 with higher accuracy by subtracting the background noise measured in advance from the measurement result.

測距センサ120は、複数のレーザモジュール110が設けられた本体部100の一主面と同じ面に設けられる。具体的には、測距センサ120は、複数のレーザモジュール110を頂点とする多角形(図1では四角形)の重心に対応する位置に設けられてもよい。 The distance measurement sensor 120 is provided on the same main surface of the main body 100 on which the multiple laser modules 110 are provided. Specifically, the distance measurement sensor 120 may be provided at a position corresponding to the center of gravity of a polygon (a rectangle in FIG. 1 ) whose vertices are the multiple laser modules 110.

測距センサ120は、本体部100と対象物との間の距離を測定するセンサである。例えば、測距センサ120は、垂直共振器型面発光レーザ(Vertical Cavity Surface Emitting Laser: VCSEL)を用いたToF(Time of Flight)センサであってもよい。測距センサ120は、ToFセンサの光源としてVCSELを用いることで、面同士の距離を測定することができる。これによれば、測距センサ120は、より確度の高い距離情報を取得することができる。測距センサ120にて測定された本体部100と対象物との間の距離は、例えば、複数のレーザモジュール110の投光素子111からレーザ光を出射する角度を決定するために用いられる。 The distance measurement sensor 120 is a sensor that measures the distance between the main body 100 and an object. For example, the distance measurement sensor 120 may be a ToF (Time of Flight) sensor that uses a Vertical Cavity Surface Emitting Laser (VCSEL). The distance measurement sensor 120 can measure the distance between surfaces by using a VCSEL as the light source of the ToF sensor. This allows the distance measurement sensor 120 to obtain distance information with higher accuracy. The distance between the main body 100 and the object measured by the distance measurement sensor 120 is used, for example, to determine the angle at which laser light is emitted from the light-emitting elements 111 of the multiple laser modules 110.

このような測定装置10では、以下の方法によって対象物の表面のイメージング結果を導出することができる。図2及び図3を参照して、測定装置10による測定の原理について説明する。図2は、測距センサ120にて本体部100と、対象物30との間の距離を測定する様子を示す説明図である。図3は、レーザモジュール110の各々から測定点20にレーザ光を出射すると共に、測定点20にて反射されたレーザ光をレーザモジュール110でそれぞれ受光する様子を示す説明図である。 With such a measuring device 10, the imaging results of the surface of the object can be derived by the following method. The principle of measurement by the measuring device 10 will be described with reference to Figures 2 and 3. Figure 2 is an explanatory diagram showing how the distance between the main body 100 and the object 30 is measured by the distance measuring sensor 120. Figure 3 is an explanatory diagram showing how each of the laser modules 110 emits laser light to the measurement point 20 and how the laser light reflected at the measurement point 20 is received by each of the laser modules 110.

まず、図2に示すように、測距センサ120によって測定対象となる対象物30と本体部100との間の距離Lが測定される。具体的には、測距センサ120は、対象物30に照射した光が対象物30で反射して戻ってくるまでの時間を計測することで(いわゆるToF方式を用いて)、本体部100と対象物30との間の距離Lを測定する。 First, as shown in FIG. 2, the distance measurement sensor 120 measures the distance L between the object 30 to be measured and the main body 100. Specifically, the distance measurement sensor 120 measures the distance L between the main body 100 and the object 30 by measuring the time it takes for light irradiated to the object 30 to be reflected by the object 30 and return (using the so-called ToF method).

次に、図3に示すように、対象物30の測定点20に対して、レーザモジュール110A,110Bの各々から互いに同期して位相変調されたレーザ光が出射される。なお、測定点20は、レーザモジュール110A,110Bの間の中点から本体部100の主面の法線方向に延在する直線と、該中点及び測定点20を結ぶ直線とがなす角θが1度よりも小さくなるように選択される。 Next, as shown in FIG. 3, laser modules 110A and 110B each emit a phase-modulated laser beam in synchronization with each other toward measurement point 20 on object 30. Measurement point 20 is selected so that the angle θ between a line extending from the midpoint between laser modules 110A and 110B in the normal direction to the main surface of main body 100 and a line connecting the midpoint and measurement point 20 is smaller than 1 degree.

対象物30の測定点20に対して出射されたレーザ光は、測定点20にて反射され、レーザ光を出射したレーザモジュール110A,110Bにてそれぞれ受光される。レーザモジュール110A,110Bの各々の受光素子112の測定値V(t),V(t)は、レーザモジュール110A,110Bの間の遅延時間τで位相差を補正すると、例えば、以下の数式1及び数式2にて表される。 The laser light emitted to the measurement point 20 of the target object 30 is reflected at the measurement point 20 and received by the laser modules 110A and 110B that emitted the laser light. When the phase difference between the measurement values V 1 (t) and V 2 (t) of the light receiving elements 112 of the laser modules 110A and 110B is corrected using the delay time τ g between the laser modules 110A and 110B, the measurement values V 1 (t) and V 2 (t) are expressed by, for example, the following formulas 1 and 2.

Figure 2024100370000002
Figure 2024100370000002

数式1及び数式2において、e,eは、レーザモジュール110A,110Bにてそれぞれ受光されたレーザ光の強度を表し、exp部分は、レーザ光の位相部分を表す。また、tは時間、νは振動数である。レーザモジュール110A,110Bにてそれぞれ受光されたレーザ光の位相差を補正する遅延時間τは、レーザモジュール110A,110Bの間の距離D、及び上述した角θを用いてτ=2D・(tanθ)/cと表すことができる。遅延時間τによる位相差の補正は、レーザモジュール110A,110Bにてそれぞれ受光されたレーザ光を互いに強め合うように合成するために行われる。 In Equation 1 and Equation 2, e 1 and e 2 represent the intensities of the laser beams received by the laser modules 110A and 110B, respectively, and the exp portion represents the phase portion of the laser beam. In addition, t represents time, and ν represents the frequency. The delay time τ g for correcting the phase difference of the laser beams received by the laser modules 110A and 110B can be expressed as τ g =2D·(tan θ)/c using the distance D between the laser modules 110A and 110B and the above-mentioned angle θ. The correction of the phase difference by the delay time τ g is performed to combine the laser beams received by the laser modules 110A and 110B so as to reinforce each other.

さらに、上記のV(t),V(t)の積を取ることで、レーザモジュール110A,110Bの相関関数r12(D)を導出することができる。相関関数r12(D)を導出することで、レーザモジュール110A,110Bの各々の受光素子112の測定値V(t),V(t)は、互いに合成される。導出された相関関数r12(D)を下記の数式3に示す。λは、レーザモジュール110A,110Bから出射されるレーザ光の波長である。また、θ<1°であるため、tanθ=θと近似することが可能である。 Furthermore, by taking the product of V1 (t) and V2 (t) described above, the correlation function r12 (D) of the laser modules 110A and 110B can be derived. By deriving the correlation function r12 (D), the measurement values V1 (t) and V2 (t) of the light receiving elements 112 of the laser modules 110A and 110B are combined with each other. The derived correlation function r12 (D) is shown in the following formula 3. λ is the wavelength of the laser light emitted from the laser modules 110A and 110B. In addition, since θ<1°, it is possible to approximate tan θ=θ.

Figure 2024100370000003
Figure 2024100370000003

レーザモジュール110A,110Bにてそれぞれ受光されたレーザ光の強度e,eは、測定点20における対象物30の表面分布による散乱又は減衰の影響を受けている。そこで、測定点20における対象物30の表面分布をF(θ)とすると、数式3を逆フーリエ変換することで、測定点20における対象物30の表面分布F(θ)を下記の数式4に示すように導出することができる。なお、Dλ=D/λである。 The intensities e1 and e2 of the laser beams received by the laser modules 110A and 110B, respectively, are affected by scattering or attenuation due to the surface distribution of the object 30 at the measurement point 20. If the surface distribution of the object 30 at the measurement point 20 is F(θ), then by performing an inverse Fourier transform on Equation 3, the surface distribution F(θ) of the object 30 at the measurement point 20 can be derived as shown in Equation 4 below, where =D/λ.

Figure 2024100370000004
Figure 2024100370000004

対象物30の表面分布F(θ)は、対象物30の表面形状の関数であると考えられるため、測定装置10は、表面分布F(θ)を導出することで、対象物30の表面をイメージングすることが可能である。 The surface distribution F(θ) of the object 30 is considered to be a function of the surface shape of the object 30, so the measurement device 10 is able to image the surface of the object 30 by deriving the surface distribution F(θ).

上記の数式4では、対象物30の表面分布F(θ)は、Dλについての積分によって導出されるため、対象物30の表面分布F(θ)の分解能は、Dλの逆数であるλ/Dとなる。例えば、レーザモジュール110A,110Bの投光素子111が波長450nmの青色レーザ光を出射する青色半導体レーザ素子であり、かつレーザモジュール110A,110Bの間の距離が15cmである場合(λ=450nm、D=15cm)、測定装置10は、理想的には150nmの分解能で対象物30の表面分布F(θ)を測定することが可能である。 In the above formula 4, the surface distribution F(θ) of the object 30 is derived by integration with respect to D λ , and therefore the resolution of the surface distribution F(θ) of the object 30 is λ/D, which is the inverse of D λ . For example, when the light-projecting elements 111 of the laser modules 110A and 110B are blue semiconductor laser elements that emit blue laser light with a wavelength of 450 nm, and the distance between the laser modules 110A and 110B is 15 cm (λ=450 nm, D=15 cm), the measurement device 10 can ideally measure the surface distribution F(θ) of the object 30 with a resolution of 150 nm.

また、上述したように、レーザモジュール110A,110Bは、互いの距離Dが可変となるように設けられる。したがって、測定装置10は、レーザモジュール110A,110Bの間の距離Dを制御することで、測定対象である対象物30に対する分解能を制御することが可能である。 As described above, the laser modules 110A and 110B are arranged so that the distance D between them is variable. Therefore, the measuring device 10 can control the resolution for the object 30 to be measured by controlling the distance D between the laser modules 110A and 110B.

さらに、図4及び図5を参照して、本実施形態に係る測定装置10の内部構成について説明する。図4は、本実施形態に係る測定装置10の内部構成を示すブロック図である。図5は、測定に用いる複数のレーザモジュール110A,110B,110C,110Dの組み合わせを示す模式図である。 Furthermore, the internal configuration of the measurement device 10 according to this embodiment will be described with reference to Figs. 4 and 5. Fig. 4 is a block diagram showing the internal configuration of the measurement device 10 according to this embodiment. Fig. 5 is a schematic diagram showing a combination of multiple laser modules 110A, 110B, 110C, and 110D used for measurement.

図4に示すように、測定装置10は、機能構成として、測距センサ120と、投光素子111及び受光素子112を有する複数のレーザモジュール110と、制御部131と、演算部132とを備える。測距センサ120、及び複数のレーザモジュール110については、図1を参照して説明したとおりであるため、ここでの説明は省略する。 As shown in FIG. 4, the measuring device 10 has, as its functional configuration, a distance measurement sensor 120, a plurality of laser modules 110 each having a light-emitting element 111 and a light-receiving element 112, a control unit 131, and a calculation unit 132. The distance measurement sensor 120 and the plurality of laser modules 110 have been described with reference to FIG. 1, and therefore will not be described here.

制御部131は、複数のレーザモジュール110の各々の投光素子111からのレーザ光の出射を制御するロジック回路である。制御部131は、複数のレーザモジュール110の各々の投光素子111から出射されるレーザ光の位相、及びレーザ光の出射タイミングを制御してもよい。例えば、制御部131は、同期して位相変調されたレーザ光を同一の測定点にタイミングを合わせて出射するように、複数のレーザモジュール110の各々の投光素子111を制御してもよい。 The control unit 131 is a logic circuit that controls the emission of laser light from each of the light-projecting elements 111 of the multiple laser modules 110. The control unit 131 may control the phase of the laser light emitted from each of the light-projecting elements 111 of the multiple laser modules 110 and the emission timing of the laser light. For example, the control unit 131 may control each of the light-projecting elements 111 of the multiple laser modules 110 so as to emit synchronously phase-modulated laser light at the same measurement point in a timed manner.

また、制御部131は、測距センサ120にて測定された本体部100と対象物30との距離に基づいて、複数のレーザモジュール110の各々の投光素子111からレーザ光を出射される測定点20を設定してもよい。例えば、制御部131は、レーザ光を出射する複数のレーザモジュール110の間の中点を通り、本体部100の主面の法線方向に延在する直線からの角度が1度よりも小さくなるように測定点20を設定してもよい。 The control unit 131 may also set a measurement point 20 at which laser light is emitted from each of the light-emitting elements 111 of the multiple laser modules 110 based on the distance between the main body unit 100 and the target object 30 measured by the distance measurement sensor 120. For example, the control unit 131 may set the measurement point 20 so that the angle from a straight line that passes through the midpoint between the multiple laser modules 110 that emit laser light and extends in the normal direction of the main surface of the main body unit 100 is less than 1 degree.

演算部132は、複数のレーザモジュール110の各々の受光素子112にて受光されたレーザ光の測定値に基づいて、測定点20における対象物30の表面分布を導出する演算回路である。演算部132は、上述したように、複数のレーザモジュール110の各々の受光素子112にて受光されたレーザ光を位相補正して合成し、逆フーリエ変換することで、測定点20における対象物30の表面分布を導出してもよい。 The calculation unit 132 is a calculation circuit that derives the surface distribution of the object 30 at the measurement point 20 based on the measured values of the laser light received by the light receiving elements 112 of each of the multiple laser modules 110. As described above, the calculation unit 132 may derive the surface distribution of the object 30 at the measurement point 20 by phase-correcting and synthesizing the laser light received by the light receiving elements 112 of each of the multiple laser modules 110 and performing an inverse Fourier transform.

さらに、制御部131及び演算部132は、レーザ光を出射する測定点20を変更することで、より広範囲の対象物30の表面分布を導出してもよい。このとき、測定点20にレーザ光を出射するレーザモジュール110の組み合わせは、測定点20ごとに都度変更されてもよい。具体的には、まず、制御部131は、レーザ光を出射する測定点20を選択する。次に、制御部131は、測定点20にレーザ光を出射するレーザモジュール110の組み合わせを選択し、選択した組み合わせのレーザモジュール110の投光素子111から出射されるレーザ光の出射角、位相変調、及び出射タイミングを制御する。その後、演算部132は、測定点20で反射された後、レーザモジュール110の受光素子112にて受光されたレーザ光を位相補正して合成し、逆フーリエ変換することで、測定点20における対象物30の表面分布を導出する。制御部131及び演算部132は、測定点20を変更しながら対象物30の表面分布の測定を順次行うことで、対象物30の表面分布をより広い範囲でマッピングすることができる。 Furthermore, the control unit 131 and the calculation unit 132 may derive a surface distribution of the target 30 over a wider range by changing the measurement point 20 from which the laser light is emitted. At this time, the combination of the laser modules 110 that emit the laser light to the measurement point 20 may be changed for each measurement point 20. Specifically, first, the control unit 131 selects the measurement point 20 from which the laser light is emitted. Next, the control unit 131 selects a combination of the laser modules 110 that emit the laser light to the measurement point 20, and controls the emission angle, phase modulation, and emission timing of the laser light emitted from the light-projecting element 111 of the laser module 110 of the selected combination. After that, the calculation unit 132 corrects the phase of the laser light reflected at the measurement point 20 and then received by the light-receiving element 112 of the laser module 110, synthesizes it, and performs an inverse Fourier transform to derive the surface distribution of the target 30 at the measurement point 20. The control unit 131 and the calculation unit 132 can map the surface distribution of the object 30 over a wider range by sequentially measuring the surface distribution of the object 30 while changing the measurement point 20.

図5に示すように、測定装置10が4つのレーザモジュール110A,110B,110C,110Dを備える場合、制御部131及び演算部132は、4つのレーザモジュール110A,110B,110C,110Dから2つのレーザモジュールの組み合わせを選択することで、6つの相関関数r12,r13,r23,r14,r24,r34を導出することができる。 As shown in FIG. 5, when the measuring device 10 has four laser modules 110A, 110B, 110C, and 110D, the control unit 131 and the calculation unit 132 can derive six correlation functions r 12 , r 13 , r 23 , r 14 , r 24 , and r 34 by selecting a combination of two laser modules from the four laser modules 110A, 110B, 110C, and 110D.

このとき、測定装置10は、レーザモジュール110A,110Bによる測定(相関関数r12)と、レーザモジュール110C,110Dによる測定(相関関数r34)とを同時に行うことができる。同様に、測定装置10は、レーザモジュール110A,110Cによる測定(相関関数r13)と、レーザモジュール110B,110Dによる測定(相関関数r24)とを同時に行うことができる。さらに、測定装置10は、レーザモジュール110B,110Cによる測定(相関関数r23)と、レーザモジュール110A,110Dによる測定(相関関数r14)とを同時に行うことができる。 At this time, the measurement device 10 can simultaneously perform measurements using the laser modules 110A and 110B (correlation function r 12 ) and measurements using the laser modules 110C and 110D (correlation function r 34 ). Similarly, the measurement device 10 can simultaneously perform measurements using the laser modules 110A and 110C (correlation function r 13 ) and measurements using the laser modules 110B and 110D (correlation function r 24 ). Furthermore, the measurement device 10 can simultaneously perform measurements using the laser modules 110B and 110C (correlation function r 23 ) and measurements using the laser modules 110A and 110D (correlation function r 14 ).

すなわち、測定装置10は、N個のレーザモジュール110を備える場合、N×(N-1)/2個の測定点20の表面分布をN×(N-1)/4回の測定で導出することができる。これによれば、測定装置10は、導出した測定点20の表面分布をマッピングすることで、より広い範囲の対象物30のイメージング結果を導出することが可能である。また、測定装置10は、より多くのレーザモジュール110を備えることで、より広い範囲の対象物30のイメージング結果をより高速で導出することが可能である。 In other words, when the measuring device 10 is equipped with N laser modules 110, it can derive the surface distribution of N×(N-1)/2 measurement points 20 with N×(N-1)/4 measurements. This allows the measuring device 10 to derive imaging results for a wider range of the object 30 by mapping the derived surface distribution of the measurement points 20. Furthermore, by being equipped with more laser modules 110, the measuring device 10 can derive imaging results for a wider range of the object 30 at higher speed.

<2.測定装置の動作>
続いて、図6及び図7を参照して、本実施形態に係る測定装置10の動作について説明する。図6は、本実施形態に係る測定装置10の第1の動作例の流れを示すフローチャート図である。図7は、本実施形態に係る測定装置10の第2の動作例の流れを示すフローチャート図である。
2. Operation of the Measuring Device
Next, the operation of the measurement device 10 according to the present embodiment will be described with reference to Fig. 6 and Fig. 7. Fig. 6 is a flow chart showing the flow of a first operation example of the measurement device 10 according to the present embodiment. Fig. 7 is a flow chart showing the flow of a second operation example of the measurement device 10 according to the present embodiment.

(第1の動作例)
第1の動作例は、測定装置10からレーザ光が出射される角度を変更することで、対象物30の表面にレーザ光が出射される測定点20を変更する動作例である。
(First operation example)
The first operation example is an operation example in which the angle at which the laser light is emitted from the measurement device 10 is changed, thereby changing the measurement point 20 at which the laser light is emitted on the surface of the target object 30 .

図6に示すように、まず、測定装置10は、ユーザにて設定された分解能に応じて、レーザモジュール110の各々を移動させる(S101)。具体的には、測定装置10は、レーザモジュール110の各々を移動させることで、ユーザにて設定された分解能を達成するようにレーザモジュール110の各々の間の距離を変動させる。 As shown in FIG. 6, first, the measuring device 10 moves each of the laser modules 110 in accordance with the resolution set by the user (S101). Specifically, the measuring device 10 moves each of the laser modules 110 to vary the distance between each of the laser modules 110 so as to achieve the resolution set by the user.

次に、測定装置10は、対象物30までの垂直距離を測定する(S102)。例えば、測定装置10は、ToF方式の測距センサ120を用いることで、本体部100の主面に垂直な方向での本体部100と対象物30との間の距離を測定してもよい。 Next, the measuring device 10 measures the vertical distance to the object 30 (S102). For example, the measuring device 10 may use a ToF distance measuring sensor 120 to measure the distance between the main body 100 and the object 30 in a direction perpendicular to the main surface of the main body 100.

続いて、測定装置10は、レーザモジュール110からレーザ光を出射する角度θを設定する(S103)。具体的には、測定装置10は、本体部100と対象物30との間の距離を用いて、レーザ光を出射するレーザモジュール110の間の中間点からレーザ光が出射される測定点20への角度θが1°よりも小さくなるように測定点20及び角度θを設定する。 Next, the measuring device 10 sets the angle θ at which the laser light is emitted from the laser module 110 (S103). Specifically, the measuring device 10 uses the distance between the main body 100 and the target object 30 to set the measuring point 20 and the angle θ so that the angle θ from the midpoint between the laser modules 110 that emit the laser light to the measuring point 20 at which the laser light is emitted is less than 1°.

その後、測定装置10は、レーザモジュール110の各々の投光素子111からレーザ光を測定点20に出射することで、測定を実行する(S104)。次に、測定装置10は、測定点20で反射したレーザ光の受光信号を合成して、逆フーリエ変換(逆FFT)を実行する(S105)。具体的には、測定装置10は、測定点20で反射したレーザ光をレーザモジュール110の各々の受光素子112で受光し、位相差補正した上で受光信号の相関関数を導出する。さらに、測定装置10は、導出した相関関数を逆フーリエ変換する。これにより、測定装置10は、θ方向の対象物30の表面分布F(θ)を導出することができる(S106)。 Then, the measuring device 10 performs measurement by emitting laser light from each light-emitting element 111 of the laser module 110 to the measurement point 20 (S104). Next, the measuring device 10 combines the received light signals of the laser light reflected at the measurement point 20 and performs an inverse Fourier transform (inverse FFT) (S105). Specifically, the measuring device 10 receives the laser light reflected at the measurement point 20 with each light-receiving element 112 of the laser module 110, corrects the phase difference, and derives the correlation function of the received light signals. Furthermore, the measuring device 10 performs an inverse Fourier transform on the derived correlation function. This allows the measuring device 10 to derive the surface distribution F(θ) of the object 30 in the θ direction (S106).

次に、測定装置10は、レーザモジュール110の各々からレーザ光を出射する角度θをdθ変更する(S107)。具体的には、測定装置10は、レーザ光を出射するレーザモジュール110の間の中間点からレーザ光が出射される測定点20への角度θをdθ変更することで、レーザ光が出射される測定点20を変更する。また、測定装置10は、変更したレーザ光を出射する角度θが最大値(1°)に到達したか否かを判断する(S108)。 Next, the measuring device 10 changes the angle θ at which the laser light is emitted from each of the laser modules 110 by dθ (S107). Specifically, the measuring device 10 changes the angle θ from the midpoint between the laser modules 110 emitting the laser light to the measuring point 20 at which the laser light is emitted by dθ, thereby changing the measuring point 20 at which the laser light is emitted. In addition, the measuring device 10 determines whether the angle θ at which the changed laser light is emitted has reached the maximum value (1°) (S108).

角度θが最大値に到達していない場合(S108/No)、測定装置10は、ステップS104~S107の動作を再度実行することで、θ方向の対象物30の表面分布F(θ)を導出する。一方、角度θが最大値に到達した場合(S108/Yes)、測定装置10は、導出された対象物30の表面分布F(θ)をマッピングすることで、対象物30のイメージング結果を導出する(S109)。 If the angle θ has not reached the maximum value (S108/No), the measuring device 10 executes steps S104 to S107 again to derive the surface distribution F(θ) of the object 30 in the θ direction. On the other hand, if the angle θ has reached the maximum value (S108/Yes), the measuring device 10 maps the derived surface distribution F(θ) of the object 30 to derive the imaging result of the object 30 (S109).

以上の第1の動作例によれば、測定装置10は、レーザ光が出射される角度θを変更しながら対象物30の表面を走査することで、対象物30の表面のイメージング結果を導出することができる。 According to the above first operation example, the measurement device 10 can derive an imaging result of the surface of the object 30 by scanning the surface of the object 30 while changing the angle θ at which the laser light is emitted.

(第2の動作例)
第2の動作例は、ユーザが測定装置10を動かすことで、対象物30の表面にレーザ光が出射される測定点20を変更する動作例である。
(Second operation example)
The second operation example is an operation example in which the user moves the measuring device 10 to change the measurement point 20 at which the laser light is emitted on the surface of the target object 30 .

図7に示すステップS201~S206の動作は、図6に示すステップS101~S106の動作と実質的に同様であるため、ここでの説明は省略する。 The operations in steps S201 to S206 shown in FIG. 7 are substantially similar to the operations in steps S101 to S106 shown in FIG. 6, so a description thereof will be omitted here.

θ方向の対象物30の表面分布F(θ)を導出した(S206)後、測定装置10は、加速度を検知したか否かを判断する(S207)。加速度が検知された場合(S207/Yes)、測定装置10は、ユーザによって測定装置10が対象物30の表面に沿って動かされたと判断し、ステップS204~S206の動作を再度実行することで、θ方向の対象物30の表面分布F(θ)を導出する。なお、このときのレーザ光の出射角θは、ステップS203で設定された角度θのままであってもよい。 After deriving the surface distribution F(θ) of the object 30 in the θ direction (S206), the measuring device 10 determines whether acceleration has been detected (S207). If acceleration has been detected (S207/Yes), the measuring device 10 determines that the user has moved the measuring device 10 along the surface of the object 30, and derives the surface distribution F(θ) of the object 30 in the θ direction by performing the operations of steps S204 to S206 again. Note that the emission angle θ of the laser light at this time may remain the angle θ set in step S203.

一方、加速度が検知されなかった場合(S207/No)、測定装置10は、ユーザによる対象物30の測定が終了したと判断して、導出された対象物30の表面分布F(θ)をマッピングすることで、対象物30のイメージング結果を導出する(S208)。 On the other hand, if no acceleration is detected (S207/No), the measurement device 10 determines that the user has finished measuring the object 30, and derives the imaging results of the object 30 by mapping the derived surface distribution F(θ) of the object 30 (S208).

以上の第2の動作例によれば、測定装置10は、レーザ光が出射される角度θを固定し、ユーザの操作によって対象物30の表面を走査することで、対象物30の表面のイメージング結果を導出することができる。 According to the second operation example described above, the measurement device 10 can derive imaging results for the surface of the object 30 by fixing the angle θ at which the laser light is emitted and scanning the surface of the object 30 through the user's operation.

<3.変形例>
続いて、以下では、本実施形態に係る測定装置10の第1~第7の変形例について説明する。
3. Modifications
Next, first to seventh modified examples of the measuring device 10 according to the present embodiment will be described below.

(第1の変形例)
図8及び図9を参照して、第1の変形例について説明する。第1の変形例は、本体部100上のレーザモジュール110の配置及び移動方向のバリエーションを示す変形例である。図8及び図9は、レーザモジュール110の配置及び移動方向の一例を示す模式的な斜視図である。
(First Modification)
A first modified example will be described with reference to Fig. 8 and Fig. 9. The first modified example is a modified example showing variations in the arrangement and movement direction of the laser module 110 on the main body 100. Fig. 8 and Fig. 9 are schematic perspective views showing an example of the arrangement and movement direction of the laser module 110.

図8に示すように、レーザモジュール110A,110B,110C,110Dは、本体部100の矩形形状の主面の各辺に対応する位置に設けられてもよい。このとき、レーザモジュール110A,110B,110C,110Dは、本体部100の主面の中心に向かう方向に移動可能に設けられてもよい。 As shown in FIG. 8, the laser modules 110A, 110B, 110C, and 110D may be provided at positions corresponding to the sides of the rectangular main surface of the main body 100. In this case, the laser modules 110A, 110B, 110C, and 110D may be provided so as to be movable in a direction toward the center of the main surface of the main body 100.

図9に示すように、レーザモジュール110A,110B,110C,110Dは、本体部100の矩形形状の主面の四隅に対応する位置に設けられてもよい。このとき、レーザモジュール110A,110B,110C,110Dは、本体部100の主面の各辺に沿って移動可能に設けられてもよい。 As shown in FIG. 9, the laser modules 110A, 110B, 110C, and 110D may be provided at positions corresponding to the four corners of the rectangular main surface of the main body 100. In this case, the laser modules 110A, 110B, 110C, and 110D may be provided movably along each side of the main surface of the main body 100.

ただし、レーザモジュール110A,110B,110C,110Dの移動方向については、特に限定されない。レーザモジュール110A,110B,110C,110Dの移動方向は、本体部100の矩形形状の主面の対角線方向、各辺が対向する方向、各辺に沿った方向、又は任意の円の円周方向のいずれであってもよい。測定装置10は、レーザモジュール110A,110B,110C,110Dの各々の間の距離を任意に変更することで、対象物30のイメージング結果の分解能を動的に変化させることが可能である。 However, the direction of movement of the laser modules 110A, 110B, 110C, and 110D is not particularly limited. The direction of movement of the laser modules 110A, 110B, 110C, and 110D may be any of the diagonal directions of the rectangular main surface of the main body 100, the directions in which the sides face each other, the directions along the sides, and the circumferential direction of any circle. The measuring device 10 can dynamically change the resolution of the imaging result of the object 30 by arbitrarily changing the distance between each of the laser modules 110A, 110B, 110C, and 110D.

(第2の変形例)
図10を参照して、第2の変形例について説明する。第2の変形例は、測定装置10における演算を測定装置10の外部のクラウド上で行うバリエーションを示す変形例である。図10は、測定装置10の内部構成の変形例を示すブロック図である。
(Second Modification)
A second modified example will be described with reference to Fig. 10. The second modified example is a modification in which the calculations in the measurement device 10 are performed on a cloud external to the measurement device 10. Fig. 10 is a block diagram showing a modified example of the internal configuration of the measurement device 10.

図10に示すように、測定装置10は、図4で示した演算部132に替えて通信部133を備えてもよい。 As shown in FIG. 10, the measurement device 10 may include a communication unit 133 instead of the calculation unit 132 shown in FIG. 4.

通信部133は、ネットワーク50を介してクラウド70とデータを送受信する。通信部133は、例えば、ネットワーク50に接続するための通信デバイスなどで構成された通信インタフェースであってもよい。通信部133は、例えば、有線若しくは無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カードなどであってもよく、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデムなどであってもよい。ネットワーク50は、有線又は無線によって接続されたネットワークであり、例えば、インターネット通信網、家庭内LAN、赤外線通信網、ラジオ波通信網、又は衛星通信網などであってもよい。 The communication unit 133 transmits and receives data to and from the cloud 70 via the network 50. The communication unit 133 may be, for example, a communication interface configured with a communication device for connecting to the network 50. The communication unit 133 may be, for example, a communication card for a wired or wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), or WUSB (Wireless USB), or may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various types of communication. The network 50 is a network connected by wire or wirelessly, and may be, for example, an Internet communication network, a home LAN, an infrared communication network, a radio wave communication network, or a satellite communication network.

クラウド70は、演算処理能力に優れたコンピュータ群で構成されるネットワークサービスである。クラウド70は、例えば、図4で示す演算部132で実行された演算を代わりに実行することが可能である。具体的には、クラウド70は、通信部133から送信された受光素子112で受光したレーザ光の測定値を位相差補正して合成し、逆フーリエ変換することで、測定点20における対象物30の表面分布を導出することができる。導出された測定点20における対象物30の表面分布は、測定装置10の通信部133に送信される。 Cloud 70 is a network service consisting of a group of computers with excellent computational processing capabilities. Cloud 70 can, for example, execute the computations executed by computation unit 132 shown in FIG. 4 instead. Specifically, cloud 70 can derive the surface distribution of object 30 at measurement point 20 by synthesizing the phase difference correction of the measured values of the laser light received by light receiving element 112 and transmitted from communication unit 133 and performing an inverse Fourier transform. The derived surface distribution of object 30 at measurement point 20 is transmitted to communication unit 133 of measurement device 10.

これによれば、測定装置10は、逆フーリエ変換などの処理負荷が高い演算をクラウド70に実行させることで、測定装置10の内部での処理負荷を軽減することが可能である。 As a result, the measuring device 10 can reduce the processing load within the measuring device 10 by having the cloud 70 execute calculations that have a high processing load, such as an inverse Fourier transform.

(第3の変形例)
第3の変形例は、レーザモジュール110の各々の投光素子111からのレーザ光の出射角が固定されたバリエーションを示す変形例である。
(Third Modification)
The third modified example is a variation in which the emission angle of the laser light from each light-projecting element 111 of the laser module 110 is fixed.

測定装置10は、レーザモジュール110の各々の投光素子111からのレーザ光の出射角が固定された場合でも対象物30の表面のイメージング結果を導出することが可能である。例えば、測定装置10は、測定時の本体部100と対象物30との間の距離を規定することで、レーザモジュール110の各々の投光素子111から出射されたレーザ光を同一の測定点20に照射することができる。これによれば、測定装置10は、同様に、測定点20における対象物30の表面分布を導出することができる。 The measuring device 10 can derive imaging results for the surface of the object 30 even when the emission angle of the laser light from each light-projecting element 111 of the laser module 110 is fixed. For example, the measuring device 10 can irradiate the same measurement point 20 with the laser light emitted from each light-projecting element 111 of the laser module 110 by specifying the distance between the main body 100 and the object 30 during measurement. In this way, the measuring device 10 can similarly derive the surface distribution of the object 30 at the measurement point 20.

(第4の変形例)
図11~図13を参照して、第4の変形例について説明する。第4の変形例は、測定装置10がロボットに搭載されたバリエーションを示す変形例である。図11は、測定装置10が搭載された人型ロボット1の一例を示す模式図である。図12は、測定装置10が搭載されたペット型ロボット2の一例を示す模式図である。図13は、測定装置10が搭載された移動体3の一例を示す模式図である。
(Fourth Modification)
A fourth modified example will be described with reference to Figures 11 to 13. The fourth modified example is a variation in which the measuring device 10 is mounted on a robot. Figure 11 is a schematic diagram showing an example of a humanoid robot 1 equipped with the measuring device 10. Figure 12 is a schematic diagram showing an example of a pet-type robot 2 equipped with the measuring device 10. Figure 13 is a schematic diagram showing an example of a moving object 3 equipped with the measuring device 10.

図11に示すように、人型ロボット1では、測定装置10は、人型ロボット1の頭部の目に対応する位置に設けられたレーザモジュール110にてレーザ光の出射及び受光を行うことで、人型ロボット1の周囲の環境のイメージング結果を取得してもよい。図12に示すように、ペット型ロボット2では、測定装置10は、ペット型ロボット2の頭部の目に対応する位置に設けられたレーザモジュール110にてレーザ光の出射及び受光を行うことで、ペット型ロボット2の周囲の環境のイメージング結果を取得してもよい。図13に示すように、移動体3では、測定装置10は、移動体3の側面全周に所定の間隔で設けられたレーザモジュール110にてレーザ光の出射及び受光を行うことで、移動体3の周囲の環境のイメージング結果を取得してもよい。移動体3は、例えば、走行した領域のゴミ等を回収するロボット掃除機である。 As shown in FIG. 11, in the humanoid robot 1, the measuring device 10 may obtain an imaging result of the environment around the humanoid robot 1 by emitting and receiving laser light with a laser module 110 provided at a position corresponding to the eyes on the head of the humanoid robot 1. As shown in FIG. 12, in the pet robot 2, the measuring device 10 may obtain an imaging result of the environment around the pet robot 2 by emitting and receiving laser light with a laser module 110 provided at a position corresponding to the eyes on the head of the pet robot 2. As shown in FIG. 13, in the moving body 3, the measuring device 10 may obtain an imaging result of the environment around the moving body 3 by emitting and receiving laser light with a laser module 110 provided at a predetermined interval around the entire circumference of the side of the moving body 3. The moving body 3 is, for example, a robot vacuum cleaner that collects dirt and the like in the area it travels.

測定装置10は、これらのロボット(人型ロボット1、ペット型ロボット2、又は移動体3など)に搭載されることで、ロボットの周囲の環境のイメージング結果を取得することができる。これによれば、これらのロボットは、測定装置10で導出されたイメージング結果を用いて、動作を判断及び制御することが可能である。 By mounting the measuring device 10 on these robots (humanoid robot 1, pet robot 2, mobile object 3, etc.), it is possible to obtain imaging results of the environment around the robot. As a result, these robots can determine and control their operations using the imaging results derived by the measuring device 10.

(第5の変形例)
図14を参照して、第5の変形例について説明する。第5の変形例は、測定装置10を可搬型の検出装置として構成した変形例である。図14は、可搬型の検出装置として構成された測定装置10Aの概要を示す模式的な斜視図である。
(Fifth Modification)
A fifth modified example will be described with reference to Fig. 14. The fifth modified example is a modified example in which the measuring device 10 is configured as a portable detection device. Fig. 14 is a schematic perspective view showing an overview of a measuring device 10A configured as a portable detection device.

図14に示すように、測定装置10Aは、本体部100と、脚部140A,140B,140C,140Dとを備える。本体部100の対象物30と対向する面(図示されない裏面)には、図1で示したように、複数のレーザモジュール110、及び測距センサ120が設けられる。測定装置10Aは、測距センサ120にて本体部100と対象物30との距離を測定した後、測定点20に複数のレーザモジュール110からレーザ光を出射することで、測定点20のイメージング結果を取得することができる。 As shown in FIG. 14, the measuring device 10A includes a main body 100 and legs 140A, 140B, 140C, and 140D. As shown in FIG. 1, a plurality of laser modules 110 and a distance measurement sensor 120 are provided on the surface of the main body 100 facing the object 30 (the back surface, not shown). After measuring the distance between the main body 100 and the object 30 with the distance measurement sensor 120, the measuring device 10A can obtain an imaging result of the measurement point 20 by emitting laser light from the plurality of laser modules 110 to the measurement point 20.

脚部140A,140B,140C,140Dは、延在方向に伸縮可能な棒状の構造部材である。脚部140A,140B,140C,140Dは、例えば、本体部100の側面に設けられてもよい。脚部140A,140B,140C,140Dは、対象物30の上で本体部100を支持することで、本体部100と対象物30との間の距離を固定することができる。これによれば、測定装置10Aは、複数のレーザモジュール110から出射されるレーザ光をより高い精度で測定点20に照射することができるため、より理想に近い空間分解能を得ることが可能である。 The legs 140A, 140B, 140C, and 140D are rod-shaped structural members that can expand and contract in the extension direction. The legs 140A, 140B, 140C, and 140D may be provided, for example, on the side of the main body 100. The legs 140A, 140B, 140C, and 140D can fix the distance between the main body 100 and the object 30 by supporting the main body 100 on the object 30. This allows the measuring device 10A to irradiate the measurement point 20 with laser light emitted from the multiple laser modules 110 with higher accuracy, thereby obtaining a spatial resolution closer to the ideal.

(第6の変形例)
図15を参照して、第6の変形例について説明する。第6の変形例は、測定装置10を設置型の検出装置として構成した変形例である。図15は、設置型の検出装置として構成された測定装置10Bの概要を示す模式的な斜視図である。
(Sixth Modification)
A sixth modified example will be described with reference to Fig. 15. The sixth modified example is a modified example in which the measuring device 10 is configured as a stationary detection device. Fig. 15 is a schematic perspective view showing an overview of a measuring device 10B configured as a stationary detection device.

図15に示すように、測定装置10Bは、複数のレーザモジュール110、及び測距センサ120が設けられた本体部100と、設置部150とを備える。 As shown in FIG. 15, the measurement device 10B includes a main body 100 having multiple laser modules 110 and a distance measurement sensor 120, and an installation section 150.

設置部150は、平板状の構造部材である。設置部150の表面には本体部100が設けられ、設置部150の表面と反対の裏面には測定装置10Bを壁又は扉などに取り付けるためのフック、ピン、又は接着シートなどが設けられる。測定装置10Bは、室内に設置されることで、室内に存在する対象物30をモニターすることができる。また、室内に設置された測定装置10Bは、既知である部屋の壁間の距離を基準とすることで、対象物30までの距離をより高い精度で測定することができる。したがって、測定装置10Bは、複数のレーザモジュール110から出射されるレーザ光をより高い精度で対象物30に照射することができるため、より理想に近い空間分解能を得ることが可能である。 The installation unit 150 is a flat structural member. The main body 100 is provided on the surface of the installation unit 150, and a hook, pin, adhesive sheet, or the like is provided on the back surface of the installation unit 150 opposite the surface for attaching the measuring device 10B to a wall or door. The measuring device 10B can be installed indoors to monitor an object 30 present in the room. In addition, the measuring device 10B installed indoors can measure the distance to the object 30 with higher accuracy by using the known distance between the walls of the room as a reference. Therefore, the measuring device 10B can irradiate the object 30 with laser light emitted from the multiple laser modules 110 with higher accuracy, thereby obtaining a spatial resolution closer to the ideal.

(第7の変形例)
図16及び図17を参照して、第7の変形例について説明する。第7の変形例は、撮像装置の画素Pxをレーザモジュール110として機能させる変形例である。図16は、測定装置10Cの断面構成を示す縦断面図である。図17は、測定装置10Cの平面構成を示す上面図である。
(Seventh Modification)
A seventh modified example will be described with reference to Fig. 16 and Fig. 17. The seventh modified example is a modified example in which the pixel Px of the imaging device functions as a laser module 110. Fig. 16 is a vertical cross-sectional view showing a cross-sectional configuration of the measuring device 10C. Fig. 17 is a top view showing a planar configuration of the measuring device 10C.

図16に示すように、測定装置10Cは、光電変換部171及び画素分離部173を含む半導体基板170と、絶縁層174と、導波路161と、回折格子162と、マイクロレンズ163とを備える。 As shown in FIG. 16, the measuring device 10C includes a semiconductor substrate 170 including a photoelectric conversion section 171 and a pixel separation section 173, an insulating layer 174, a waveguide 161, a diffraction grating 162, and a microlens 163.

半導体基板170は、例えば、シリコン基板である。半導体基板170には、画素Pxごとに画素分離部173で離隔された光電変換部171が設けられる。光電変換部171は、入射光を電荷に変換するフォトダイオードである。光電変換部171は、第1導電型(例えばp型)にドーピングされた半導体基板170の内部に第2導電型(例えばn型)領域を形成することで構成される。画素分離部173は、画素Px間に設けられた絶縁層であり、半導体基板170の厚み方向に延在することで、画素Pxの各々に設けられた光電変換部171を電気的に分離する。画素分離部173は、二酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などの絶縁性材料で構成されてもよい。 The semiconductor substrate 170 is, for example, a silicon substrate. The semiconductor substrate 170 is provided with photoelectric conversion units 171 separated by pixel separation units 173 for each pixel Px. The photoelectric conversion units 171 are photodiodes that convert incident light into electric charges. The photoelectric conversion units 171 are configured by forming a second conductivity type (e.g., n-type) region inside the semiconductor substrate 170 doped to a first conductivity type (e.g., p-type). The pixel separation units 173 are insulating layers provided between the pixels Px, and extend in the thickness direction of the semiconductor substrate 170 to electrically separate the photoelectric conversion units 171 provided in each pixel Px. The pixel separation units 173 may be configured with an insulating material such as silicon dioxide (SiO 2 ), silicon nitride (SiN x ), or silicon oxynitride (SiON).

絶縁層174は、透明な絶縁性材料で構成され、半導体基板170の受光面側に設けられる。絶縁層174は、二酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などで構成されてもよい。 The insulating layer 174 is made of a transparent insulating material, and is provided on the light-receiving surface side of the semiconductor substrate 170. The insulating layer 174 may be made of silicon dioxide (SiO 2 ), silicon nitride (SiN x ), silicon oxynitride (SiON), or the like.

導波路161は、レーザ光Lbを各画素に伝搬させる光路として機能する。導波路161は、絶縁層174及びマイクロレンズ163よりも屈折率が高い材料で構成され、レーザ光Lbを導波路161の境界面で全反射させることで、レーザ光Lbをほぼ損失なく画素Pxの各々に伝搬させることができる。導波路161は、例えば、酸化アルミニウム(Al)、酸化ハフニウム(HfO)、酸化ジルコニウム(ZrO)、酸化チタン(TiO)、又は酸化タンタル(Ta)などの高屈折率材料で構成されてもよい。 The waveguide 161 functions as an optical path that propagates the laser light Lb to each pixel. The waveguide 161 is made of a material having a higher refractive index than the insulating layer 174 and the microlens 163, and the laser light Lb is totally reflected at the boundary surface of the waveguide 161, so that the laser light Lb can be propagated to each pixel Px with almost no loss. The waveguide 161 may be made of a high refractive index material such as aluminum oxide (Al 2 O 3 ), hafnium oxide (HfO 2 ), zirconium oxide (ZrO 2 ), titanium oxide (TiO 2 ), or tantalum oxide (Ta 2 O 5 ).

例えば、図17に示すように、導波路161は、光源181にて発生したレーザ光Lbを画素Pxの各々に伝搬する。具体的には、導波路161は、光源181から画素Pxの列方向(図17に正対して縦方向)に延在した後、行方向(図17に正対して横方向)に延在する各行の画素Pxに分岐される。これによれば、導波路161は、マッハツェンダー等の光スイッチ182にて各行の画素Pxへのレーザ光の分岐を制御することで、行単位で画素Pxの各々にレーザ光を伝搬させることができる。 For example, as shown in FIG. 17, the waveguide 161 propagates the laser light Lb generated by the light source 181 to each pixel Px. Specifically, the waveguide 161 extends from the light source 181 in the column direction of the pixels Px (vertical direction when facing FIG. 17), and then branches to the pixels Px of each row extending in the row direction (horizontal direction when facing FIG. 17). In this way, the waveguide 161 can propagate the laser light to each pixel Px on a row-by-row basis by controlling the branching of the laser light to the pixels Px of each row with an optical switch 182 such as a Mach-Zehnder.

回折格子162は、導波路161の進行方向と直交する方向に延在する直線状の凹凸で構成された格子である。回折格子162は、導波路161と同じ材料で構成されてもよい。回折格子162は、導波路161を進行するレーザ光Lbを散乱させることで、導波路161の外部に出射される出射光Lx及び参照光Ldを発生させることができる。なお、出射光Lx及び参照光Ldの出射角は、レーザ光Lbの波長、及び回折格子162のピッチで制御することが可能である。出射光Lx及び参照光Ldの出射角は、1°未満となるように制御されることが望ましい。 The diffraction grating 162 is a grating composed of linear projections and recesses extending in a direction perpendicular to the propagation direction of the waveguide 161. The diffraction grating 162 may be composed of the same material as the waveguide 161. The diffraction grating 162 can generate output light Lx and reference light Ld that are output to the outside of the waveguide 161 by scattering the laser light Lb that propagates through the waveguide 161. The output angles of the output light Lx and reference light Ld can be controlled by the wavelength of the laser light Lb and the pitch of the diffraction grating 162. It is desirable to control the output angles of the output light Lx and reference light Ld to be less than 1°.

マイクロレンズ163は、測定装置10Cに入射する光を集光するレンズであり、画素Pxごとに導波路161の上に設けられる。マイクロレンズ163は、二酸化シリコン(SiO)などの無機材料で構成されてもよく、アクリル樹脂などの有機材料で構成されてもよい。 The microlens 163 is a lens that focuses light incident on the measurement device 10C, and is provided for each pixel Px on the waveguide 161. The microlens 163 may be made of an inorganic material such as silicon dioxide (SiO 2 ), or an organic material such as acrylic resin.

ここで、導波路161からマイクロレンズ163側に出射された出射光Lxは、マイクロレンズ163を介して測定対象である対象物30に出射される。対象物30に出射された出射光Lxは、対象物30の表面で反射されて反射光Lrとなる。反射光Lrは、導波路161から半導体基板170側に出射された参照光Ldと干渉した後、光電変換部171にて電荷に変換される。 Here, the outgoing light Lx emitted from the waveguide 161 toward the microlens 163 is emitted to the object 30, which is the object to be measured, via the microlens 163. The outgoing light Lx emitted to the object 30 is reflected by the surface of the object 30 to become reflected light Lr. The reflected light Lr interferes with the reference light Ld emitted from the waveguide 161 toward the semiconductor substrate 170, and is then converted into an electric charge by the photoelectric conversion unit 171.

ここで、反射光Lrの位相と参照光Ldの位相とが揃った場合、反射光Lr及び参照光Ldは、絶縁層174を通過時に互い強め合うように干渉する。したがって、光電変換部171は、反射光Lr及び参照光Ldが干渉した光を光電変換することで、上記の数式3で表される相関関数r12(D)に対応した電荷信号を得ることが可能である。 Here, when the phase of the reflected light Lr and the phase of the reference light Ld are aligned, the reflected light Lr and the reference light Ld constructively interfere with each other when passing through the insulating layer 174. Therefore, the photoelectric conversion unit 171 can obtain a charge signal corresponding to the correlation function r12 (D) expressed by the above formula 3 by photoelectrically converting the light resulting from the interference between the reflected light Lr and the reference light Ld.

反射光Lrの位相と参照光Ldの位相とが揃う場合としては、導波路161から対象物30の表面までの距離が出射光Lx(すなわち、レーザ光Lb)の波長の整数倍である場合が考えられる。よって、測定装置10Cは、対象物30までの距離を適切に制御することで、図1に示す測定装置10と同様に対象物30の表面分布のイメージング結果を取得することができる。 The phase of the reflected light Lr and the phase of the reference light Ld are aligned when the distance from the waveguide 161 to the surface of the object 30 is an integer multiple of the wavelength of the emitted light Lx (i.e., the laser light Lb). Therefore, the measuring device 10C can obtain imaging results of the surface distribution of the object 30 in the same way as the measuring device 10 shown in FIG. 1 by appropriately controlling the distance to the object 30.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiment of the present disclosure has been described in detail above with reference to the attached drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field of the present disclosure can conceive of various modified or revised examples within the scope of the technical ideas described in the claims, and it is understood that these also naturally fall within the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Furthermore, the effects described in this specification are merely descriptive or exemplary and are not limiting. In other words, the technology disclosed herein may achieve other effects that are apparent to a person skilled in the art from the description in this specification, in addition to or in place of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、
前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、
を備える、測定装置。
(2)
前記レーザモジュールの各々は、互いの距離を変更可能に設けられる、前記(1)に記載の測定装置。
(3)
前記対象物までの距離を測定する測距センサをさらに備え、
前記レーザモジュールの各々から出射される前記レーザ光の出射面の法線方向からの出射角は、前記測距センサにて測定された前記対象物までの距離に基づいて制御される、前記(1)又は(2)に記載の測定装置。
(4)
前記測距センサは、光源として垂直共振器型面発光レーザを用いるToFセンサである、前記(3)に記載の測定装置。
(5)
前記レーザ光の前記出射角は、1度よりも小さい、前記(3)又は(4)に記載の測定装置。
(6)
前記レーザモジュールの各々、及び前記測距センサは、同一の面上に設けられる、前記(3)~(5)のいずれか一項に記載の測定装置。
(7)
前記演算部は、任意の2つの前記レーザモジュールからなる対ごとに前記受光信号を合成することで、前記イメージング結果を導出する、前記(1)~(6)のいずれか一項に記載の測定装置。
(8)
前記演算部は、合成された前記受光信号を逆フーリエ変換することで、前記イメージング結果として前記対象物の表面分布を示す関数を導出する、前記(7)に記載の測定装置。
(9)
前記レーザモジュールの各々は、前記レーザ光の出射角を変化させることで、前記対象物の前記表面の領域を走査し、
前記演算部は、前記対象物の前記領域の前記イメージング結果を導出する、前記(1)~(8)のいずれか一項に記載の測定装置。
(10)
前記受光素子の受光面には、前記レーザ光の発振波長を含む波長帯域を選択的に透過させるバンドパスフィルタがさらに設けられる、前記(1)~(9)のいずれか一項に記載の測定装置。
(11)
前記投光素子は、半導体レーザである、前記(1)~(10)のいずれか一項に記載の測定装置。
(12)
前記受光素子は、フォトダイオードである、前記(1)~(11)のいずれか一項に記載の測定装置。
(13)
前記投光素子は、前記受光素子の受光面に設けられた導波路と、前記導波路を伝搬する前記レーザ光の一部を前記受光素子と反対側に出射させる回折格子とを含み、
前記受光素子は、前記対象物にて反射された前記レーザ光の一部と、前記回折格子で前記受光素子側に出射された前記レーザ光の一部との干渉光を受光する、前記(1)~(12)のいずれか一項に記載の測定装置。
(14)
前記対象物と前記投光素子との間の距離は、前記レーザ光の発振波長の整数倍に制御される、前記(13)に記載の測定装置。
(15)
携帯端末、移動体、又はロボット装置に搭載される、前記(1)~(14)のいずれか一項に記載の測定装置。
(16)
位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、
前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、
を備える、測定システム。
Note that the following configurations also fall within the technical scope of the present disclosure.
(1)
At least two or more laser modules each having a light projecting element that projects a phase-modulated laser beam onto an object and a light receiving element that receives the laser beam reflected by the object, the at least two laser modules being provided at positions spaced apart from each other;
a calculation unit that derives an imaging result of the surface of the object by correcting a phase difference and combining the light receiving signals of the laser light received by the light receiving elements of each of the laser modules;
A measuring device comprising:
(2)
The measuring device according to (1), wherein each of the laser modules is provided so that the distance between the laser modules can be changed.
(3)
A distance measuring sensor is further provided to measure a distance to the object.
The measuring device described in (1) or (2), wherein the emission angle of the laser light emitted from each of the laser modules from the normal direction of the emission surface is controlled based on the distance to the target object measured by the distance measuring sensor.
(4)
The measuring device according to (3), wherein the distance measuring sensor is a ToF sensor that uses a vertical cavity surface emitting laser as a light source.
(5)
The measurement apparatus according to (3) or (4), wherein the emission angle of the laser light is smaller than 1 degree.
(6)
The measurement device described in any one of (3) to (5), wherein each of the laser modules and the distance measurement sensor are provided on the same surface.
(7)
The measurement device described in any one of (1) to (6), wherein the calculation unit derives the imaging result by combining the received light signals for each pair of any two of the laser modules.
(8)
The measurement apparatus according to (7), wherein the calculation unit performs an inverse Fourier transform on the combined received light signal to derive a function indicating a surface distribution of the object as the imaging result.
(9)
each of the laser modules scans an area of the surface of the object by changing an emission angle of the laser light;
The measurement device according to any one of (1) to (8), wherein the calculation unit derives the imaging result of the region of the object.
(10)
The measurement device according to any one of (1) to (9), further comprising a bandpass filter on a light receiving surface of the light receiving element, the bandpass filter selectively transmitting a wavelength band including an oscillation wavelength of the laser light.
(11)
The measuring device according to any one of (1) to (10), wherein the light-projecting element is a semiconductor laser.
(12)
The measuring device according to any one of (1) to (11), wherein the light receiving element is a photodiode.
(13)
the light projecting element includes a waveguide provided on a light receiving surface of the light receiving element, and a diffraction grating that outputs a part of the laser light propagating through the waveguide to an opposite side to the light receiving element,
The measuring device according to any one of (1) to (12), wherein the light receiving element receives interference light between a portion of the laser light reflected by the object and a portion of the laser light emitted toward the light receiving element by the diffraction grating.
(14)
The measuring device according to (13), wherein the distance between the object and the light-projecting element is controlled to be an integer multiple of an oscillation wavelength of the laser light.
(15)
The measuring device according to any one of (1) to (14) above, which is mounted on a mobile terminal, a moving body, or a robot device.
(16)
At least two laser modules each having a light projecting element that projects a phase-modulated laser beam onto an object and a light receiving element that receives the laser beam reflected by the object, the at least two laser modules being provided at positions spaced apart from each other;
a calculation unit that derives an imaging result of the surface of the object by correcting a phase difference and combining the light receiving signals of the laser light received by the light receiving elements of each of the laser modules;
A measurement system comprising:

10 測定装置
20 測定点
30 対象物
50 ネットワーク
70 クラウド
100 本体部
110,110A,110B,110C,110D レーザモジュール
111 投光素子
112 受光素子
120 測距センサ
131 制御部
132 演算部
133 通信部
140A,140B,140C,140D 脚部
150 設置部
161 導波路
162 回折格子
163 マイクロレンズ
170 半導体基板
171 光電変換部
173 画素分離部
174 絶縁層
REFERENCE SIGNS LIST 10 Measuring device 20 Measurement point 30 Target object 50 Network 70 Cloud 100 Main body 110, 110A, 110B, 110C, 110D Laser module 111 Light-emitting element 112 Light-receiving element 120 Distance measurement sensor 131 Control unit 132 Calculation unit 133 Communication unit 140A, 140B, 140C, 140D Leg 150 Installation unit 161 Waveguide 162 Diffraction grating 163 Microlens 170 Semiconductor substrate 171 Photoelectric conversion unit 173 Pixel separation unit 174 Insulation layer

Claims (16)

位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、
前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、
を備える、測定装置。
At least two or more laser modules each having a light projecting element that projects a phase-modulated laser beam onto an object and a light receiving element that receives the laser beam reflected by the object, the at least two laser modules being provided at positions spaced apart from each other;
a calculation unit that derives an imaging result of the surface of the object by correcting a phase difference and combining the light receiving signals of the laser light received by the light receiving elements of each of the laser modules;
A measuring device comprising:
前記レーザモジュールの各々は、互いの距離を変更可能に設けられる、請求項1に記載の測定装置。 The measurement device according to claim 1, wherein each of the laser modules is provided so that the distance between them can be changed. 前記対象物までの距離を測定する測距センサをさらに備え、
前記レーザモジュールの各々から出射される前記レーザ光の出射面の法線方向からの出射角は、前記測距センサにて測定された前記対象物までの距離に基づいて制御される、請求項1に記載の測定装置。
A distance measuring sensor is further provided to measure a distance to the object.
The measuring device according to claim 1 , wherein an emission angle of the laser light emitted from each of the laser modules from a normal direction of an emission surface is controlled based on the distance to the object measured by the distance measuring sensor.
前記測距センサは、光源として垂直共振器型面発光レーザを用いるToFセンサである、請求項3に記載の測定装置。 The measurement device according to claim 3, wherein the distance sensor is a ToF sensor that uses a vertical cavity surface emitting laser as a light source. 前記レーザ光の前記出射角は、1度よりも小さい、請求項3に記載の測定装置。 The measurement device of claim 3, wherein the emission angle of the laser light is less than 1 degree. 前記レーザモジュールの各々、及び前記測距センサは、同一の面上に設けられる、請求項3に記載の測定装置。 The measurement device according to claim 3, wherein each of the laser modules and the distance measuring sensor are provided on the same surface. 前記演算部は、任意の2つの前記レーザモジュールからなる対ごとに前記受光信号を合成することで、前記イメージング結果を導出する、請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the calculation unit derives the imaging result by combining the received light signals for each pair of any two of the laser modules. 前記演算部は、合成された前記受光信号を逆フーリエ変換することで、前記イメージング結果として前記対象物の表面分布を示す関数を導出する、請求項7に記載の測定装置。 The measurement device according to claim 7, wherein the calculation unit performs an inverse Fourier transform on the combined received light signal to derive a function indicating the surface distribution of the object as the imaging result. 前記レーザモジュールの各々は、前記レーザ光の出射角を変化させることで、前記対象物の前記表面の領域を走査し、
前記演算部は、前記対象物の前記領域の前記イメージング結果を導出する、請求項1に記載の測定装置。
each of the laser modules scans an area of the surface of the object by changing an emission angle of the laser light;
The measurement device of claim 1 , wherein the computing unit derives the imaging result of the region of the object.
前記受光素子の受光面には、前記レーザ光の発振波長を含む波長帯域を選択的に透過させるバンドパスフィルタがさらに設けられる、請求項1に記載の測定装置。 The measurement device according to claim 1, further comprising a bandpass filter on the light receiving surface of the light receiving element that selectively transmits a wavelength band including the oscillation wavelength of the laser light. 前記投光素子は、半導体レーザである、請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the light-emitting element is a semiconductor laser. 前記受光素子は、フォトダイオードである、請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the light receiving element is a photodiode. 前記投光素子は、前記受光素子の受光面に設けられた導波路と、前記導波路を伝搬する前記レーザ光の一部を前記受光素子と反対側に出射させる回折格子とを含み、
前記受光素子は、前記対象物にて反射された前記レーザ光の一部と、前記回折格子で前記受光素子側に出射された前記レーザ光の一部との干渉光を受光する、請求項1に記載の測定装置。
the light projecting element includes a waveguide provided on a light receiving surface of the light receiving element, and a diffraction grating that outputs a part of the laser light propagating through the waveguide to an opposite side to the light receiving element,
2. The measurement device according to claim 1, wherein the light receiving element receives interference light between a portion of the laser light reflected by the object and a portion of the laser light emitted toward the light receiving element by the diffraction grating.
前記対象物と前記投光素子との間の距離は、前記レーザ光の発振波長の整数倍に制御される、請求項13に記載の測定装置。 The measuring device according to claim 13, wherein the distance between the object and the light-projecting element is controlled to an integer multiple of the oscillation wavelength of the laser light. 携帯端末、移動体、又はロボット装置に搭載される、請求項1に記載の測定装置。 The measuring device according to claim 1, which is mounted on a mobile terminal, a mobile body, or a robotic device. 位相変調されたレーザ光を対象物に出射する投光素子と、前記対象物にて反射された前記レーザ光を受光する受光素子とを有し、互いに離隔された位置に設けられた少なくとも2以上のレーザモジュールと、
前記レーザモジュールの各々の前記受光素子で受光された前記レーザ光の受光信号を、位相差を補正して合成することで、前記対象物の表面のイメージング結果を導出する演算部と、
を備える、測定システム。
At least two laser modules each having a light projecting element that projects a phase-modulated laser beam onto an object and a light receiving element that receives the laser beam reflected by the object, the at least two laser modules being provided at positions spaced apart from each other;
a calculation unit that derives an imaging result of the surface of the object by correcting a phase difference and combining the light receiving signals of the laser light received by the light receiving elements of each of the laser modules;
A measurement system comprising:
JP2023004325A 2023-01-16 2023-01-16 Measurement device, and measurement system Pending JP2024100370A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023004325A JP2024100370A (en) 2023-01-16 2023-01-16 Measurement device, and measurement system
PCT/JP2023/042062 WO2024154434A1 (en) 2023-01-16 2023-11-22 Measurement device and measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023004325A JP2024100370A (en) 2023-01-16 2023-01-16 Measurement device, and measurement system

Publications (1)

Publication Number Publication Date
JP2024100370A true JP2024100370A (en) 2024-07-26

Family

ID=91955634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023004325A Pending JP2024100370A (en) 2023-01-16 2023-01-16 Measurement device, and measurement system

Country Status (2)

Country Link
JP (1) JP2024100370A (en)
WO (1) WO2024154434A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112009001652T5 (en) * 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Multichannel recording
JP6862751B2 (en) * 2016-10-14 2021-04-21 富士通株式会社 Distance measuring device, distance measuring method and program
KR102196035B1 (en) * 2018-12-26 2020-12-29 (주)미래컴퍼니 Nonlinear distance error correction method for three dimensional distance measurement camera using pulse phase shift

Also Published As

Publication number Publication date
WO2024154434A1 (en) 2024-07-25

Similar Documents

Publication Publication Date Title
CN109798838B (en) ToF depth sensor based on laser speckle projection and ranging method thereof
JP6894082B2 (en) Spatial profiling system and method
JP7292269B2 (en) Digital pixels with extended dynamic range
KR102277447B1 (en) Synchronized Rotary LIDAR and Rolling Shutter Camera System
KR102718698B1 (en) 3D imaging system and method
KR20200085909A (en) Multi-photodiode pixel cell
US8842288B2 (en) Phase shift interferometer
WO2021120402A1 (en) Fused depth measurement apparatus and measurement method
CN112585756A (en) Multi-photodiode pixel unit
RU2011122642A (en) SPECTROMETERS WITH IMAGE MAPPING FUNCTION
KR20200059159A (en) Multi-detector with interleaved photodetector arrays and analog readout circuits for lidar receiver
US12265181B2 (en) Scanner, and coaxial, and non-coaxial lidar systems with same
JP6730300B2 (en) Mirror plate for Fabry-Perot interferometer, and Fabry-Perot interferometer
KR20150116332A (en) Reflection-type Interference Apparatus using Optical Fibers for Measuring Geometrical Thickness and Refractive index
WO2019041257A1 (en) Signal processing chip, image processing system and distance measurement system
JP7133523B2 (en) Photodetector and electronic device
Byun et al. A gain-enhanced silicon-photonic optical phased array with integrated O-band amplifiers for 40-m ranging and 3D scan
JP2018004439A (en) Optical sensor and correction method of the same
EP3971614B1 (en) System and method for determining a range of a scene using fmcw lidar imaging
JP2024100370A (en) Measurement device, and measurement system
Byun et al. Single-chip beam scanner LiDAR module for 20-m imaging
TWI666422B (en) A displacement sensor device and object displacement measurement method
CN113557444B (en) Laser radar device and air conditioner
JP7378670B1 (en) Optical measurement device, acquisition method, acquisition program, and recording medium
CN112526537B (en) Frequency Modulated Continuous Wave 3D Lidar Capture System and Method Based on FDML