JP2025023015A - 情報処理方法、情報処理装置、およびプログラム - Google Patents
情報処理方法、情報処理装置、およびプログラム Download PDFInfo
- Publication number
- JP2025023015A JP2025023015A JP2024205989A JP2024205989A JP2025023015A JP 2025023015 A JP2025023015 A JP 2025023015A JP 2024205989 A JP2024205989 A JP 2024205989A JP 2024205989 A JP2024205989 A JP 2024205989A JP 2025023015 A JP2025023015 A JP 2025023015A
- Authority
- JP
- Japan
- Prior art keywords
- image
- flare
- region
- depth
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明者は、「背景技術」の欄において記載した、特許文献1の測距装置に関し、以下の問題が生じることを見出した。
[ハードウェア構成]
図1は、実施の形態に係る奥行取得装置1のハードウェア構成を示すブロック図である。本実施の形態における奥行取得装置1は、赤外光(または近赤外線光)に基づく画像と、可視光に基づく画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および撮像時刻の撮像によって取得することができるハードウェア構成を有する。なお、実質的に同一とは、本開示における効果を奏し得る程度に同一であることを意味する。
本実施の形態における奥行取得装置1は、図1に示すハードウェア構成によって、IR画像とBW画像とを、実質的に同一のシーンに対する撮像であって、かつ、実質的に同一の視点および同一時刻の撮像によって取得する。そして、奥行取得装置1は、そのIR画像から得られる、そのIR画像内の各位置における奥行きを、BW画像を用いて補正する。具体的には、IR画像に後述のフレア領域が存在する場合、奥行取得装置1は、そのIR画像から得られる、フレア領域内の各位置における奥行きを、そのフレア領域に対応するBW画像の領域内の画像を用いて補正する。
まず、光源101は、発光することによって、被写体に赤外光を照射する。
次に、IRカメラ102は、IR画像を取得する。つまり、IRカメラ102は、光源101によって赤外光が照射された被写体を含むシーンを撮像する。これにより、IRカメラ102は、被写体から反射された赤外光に基づくIR画像を取得する。具体的には、IRカメラ102は、図3に示す第1露光期間、第2露光期間および第3露光期間のそれぞれのタイミングと露光量とによって得られるIR画像を取得する。
次に、BWカメラ103は、BW画像を取得する。つまり、BWカメラ103は、ステップS12で取得されたIR画像に対応するBW画像、すなわち、そのIR画像と同一のシーンおよび同一の視点のBW画像を取得する。
そして、フレア検出部112は、ステップS12で取得されたIR画像からフレア領域を検出する。
次に、奥行推定部111は、ステップS12で取得されたIR画像、ステップS13で取得されたBW画像、および、ステップS14で検出されたフレア領域に基づいて、フレア領域の奥行きを推定する。
まず、プロセッサ110の発光タイミング取得部113は、光源101が被写体に赤外光を照射するタイミングを示すタイミング情報を取得する。
次に、IR画像取得部114は、ステップS21で取得されたタイミング情報によって示されるタイミングに応じて撮像を行ったIRカメラ102から、IR画像を取得する。例えば、IR画像取得部114は、発光タイミング取得部113から図1に示す発光信号が出力されるタイミングに、露光信号をIRカメラ102に出力する。これによって、IR画像取得部114は、IRカメラ102に撮像を開始させ、その撮像によって得られたIR画像を、そのIRカメラ102から取得する。このとき、IR画像取得部114は、メモリ200を介してIRカメラ102からIR画像を取得してもよく、IRカメラ102から直接取得してもよい。
次に、BW画像取得部115は、ステップS22で取得されたIR画像に対応するBW画像をBWカメラ103から取得する。このとき、BW画像取得部115は、メモリ200を介してBWカメラ103からBW画像を取得してもよく、BWカメラ103から直接取得してもよい。
そして、フレア検出部112は、IR画像からフレア領域を検出する。
次に、奥行推定部111は、ステップS22で取得されたIR画像、ステップS23で取得されたBW画像、および、ステップS24で検出されたフレア領域に基づいて、フレア領域の奥行きを推定する。これによって、少なくともそのフレア領域の奥行きを示す奥行情報が算出される。なお、このとき、奥行推定部111は、フレア領域だけでなくIR画像の全体の奥行きを推定し、その推定結果を示す奥行情報を算出してもよい。
図8は、奥行取得装置1のプロセッサ110の具体的な機能構成を示すブロック図である。
図15は、図8に示す奥行取得装置1の全体的な処理動作を示すフローチャートである。
まず、高輝度領域検出部116は、IR画像から高輝度領域を検出する。
第1エッジ検出部117IRは、IR画像にあるエッジを検出する。
第2エッジ検出部117BWは、BW画像にあるエッジを検出する。
フレア検出部112は、IR画像の少なくとも1つの高輝度領域のそれぞれについて、その高輝度領域内のエッジと、BW画像の対応領域内のエッジとを比較することによって、IR画像内のフレア領域を検出する。つまり、フレア検出部112は、高輝度領域内のエッジと、BW画像の対応領域内のエッジとの間の相関値が第2閾値未満の場合に、その高輝度領域をフレア領域として検出する。これにより、IR画像は、少なくとも1つのフレア領域と、非フレア領域とに領域分割される。
第1奥行推定部111aは、例えばTOFを用いてIR画像から第1奥行情報を生成する。
第2奥行推定部111bは、IR画像の第1奥行情報とBW画像とに基づいて、フレア領域の奥行きを示す第2奥行情報を生成する。
出力部118は、その第1奥行情報によって示されるフレア領域の奥行きを、第2奥行情報によって示される奥行きに置き換えることによって、第3奥行情報を生成する。
まず、高輝度領域検出部116は、IR画像内の各位置での輝度が第1閾値以上であるか否かを判定する。ここで、第1閾値は、例えばIR画像が12ビット階調の画像であれば、1500程度であってもよい。もちろん、この第1閾値は、環境条件またはIRカメラ102の設定に応じて変化する値であってもよい。例えば、夜のような暗いシーンが撮像される場合、IR画像全体の輝度が低くなるため、第1閾値は、昼の明るいシーンが撮像される場合よりも、小さい値でもよい。また、IRカメラ102の露光時間が長い場合、IR画像全体の輝度が高くなるため、第1閾値は、露光時間が短い場合よりも、大きい値でもよい。
ここで、何れの位置での輝度も第1閾値以上ではないと判定すると(ステップS41のNo)、高輝度領域検出部116は、そのIR画像においてフレアは生じていないと判定する(ステップS42)。つまり、IR画像の全体が非フレア領域として判定される。
一方、何れかの位置での輝度が第1閾値以上であると判定すると(ステップS41のYes)、高輝度領域検出部116は、IR画像を領域分割する。つまり、高輝度領域検出部116は、IR画像を、少なくとも1つの高輝度領域と、高輝度領域以外の領域とに分割する。この領域分割には、例えばSuperPixelなど、輝度による手法を利用してもよい。
次に、第1エッジ検出部117IRおよび第2エッジ検出部117BWは、IR画像およびBW画像のそれぞれに対してエッジ検出を行う。エッジ検出には、Canny法またはSobelフィルタなどを利用してもよい。
フレア検出部112は、IR画像の少なくとも1つの高輝度領域のそれぞれについて、その高輝度領域内のエッジと、その高輝度領域に対応するBW画像の領域内のエッジとを比較する。つまり、フレア検出部112は、IR画像の高輝度領域内のエッジと、BW画像の対応領域内のエッジとの間の相関値が、第2閾値以上か否かを判定する。相関値は、IR画像とBW画像のそれぞれに対するエッジ検出によって出力された各値を、領域ごとにベクトル状に配列し、その内積値を正規化することで求められる。つまり、フレア検出部112は、IR画像の高輝度領域内のエッジ検出によって得られる複数の値からなるベクトルと、その高輝度領域に対応するBW画像の領域内のエッジ検出によって得られる複数の値からなるベクトルとの内積値を正規化する。これによって、高輝度領域に対する相関値が算出される。
ここで、相関値が第2閾値以上ではない、すなわち第2閾値未満と判定すると(ステップS45のNo)、フレア検出部112は、その高輝度領域をフレア領域として判定する。つまり、フレアなどの影響で、IR画像内のフレアなどが生じている領域と、BW画像の対応領域との間ではエッジの相関がなくなっているため、フレア検出部112は、IR画像内のその高輝度領域をフレア領域として判別する。
以上の説明では、フレア領域と非フレア領域の判別にエッジを利用したが、その判別にエッジを利用しなくてもかまわない。例えば、IR画像とBW画像のそれぞれの輝度そのものの相関値を利用してもよい。前述のように、フレアなどが生じていない場合、IR画像とBW画像とは強い相関を持つが、フレアなどが生じた領域では、相関が弱くなる。そこで、IR画像とBW画像のそれぞれの輝度の相関を利用することで、フレア領域を適切に判別することができる。
フレア検出部112は、ステップS45aでは、ステップS43の領域分割によって得られた各高輝度領域について、その高輝度領域における各画素の輝度と、その高輝度領域に対応するBW画像の領域における各画素の輝度との間の相関値を計算する。相関値は、IR画像とBW画像のそれぞれの各画素の輝度を、領域ごとにベクトル状に配列し、その内積値を画素数で正規化することによって求められる。つまり、フレア検出部112は、IR画像の高輝度領域における各画素の輝度からなるベクトルと、BW画像の対応領域における各画素の輝度からなるベクトルとの内積値を正規化する。これによって、その高輝度領域に対する相関値が算出される。
もちろん、フレア領域と非フレア領域の判別のための評価値は相関値である必要はない。例えば、ハミング距離およびCENSUS変換を利用してもかまわない。CENSUS変換については、例えば非特許文献(R. Zabih and J. Woodfill, “Non-parametric Local Transforms for Computing Visual Correspondence”, Proc. of ECCV, pp.151-158, 1994)に開示されている。CENSUS変換は、画像中にウインドウを設定し、そのウインドウの中心画素と周辺画素との大小関係をバイナリベクトルに変換する。
フレア検出部112は、ステップS44bでは、ステップS43の領域分割によって得らえた各高輝度領域について、IR画像のうちのその高輝度領域の画像と、BW画像のうちの対応領域の画像とのそれぞれに対してCENSUS変換を行う。これにより、IR画像のうちのその高輝度領域の画像に対するCENSUS変換画像と、BW画像のうちの対応領域の画像に対するCENSUS変換画像とが生成される。
次に、フレア検出部112は、ステップS45bにおいて、ステップS44bで求めたIR画像のCENSUS変換画像と、BW画像のCENSUS変換画像との間のハミング距離を計算する。そして、フレア検出部112は、このハミング距離を高輝度領域の画素数で正規化した値が第3閾値以下の場合(ステップS45bのYes)、その高輝度領域ではフレアなどが生じていないと判別する(ステップS42)。一方、正規化したハミング距離の値が第3閾値より大きい場合(ステップS45bのNo)、フレア検出部112は、フレアなどの影響で、その高輝度領域の画像においてテクスチャがなくなっていると判断する。その結果、フレア検出部112は、その高輝度領域をフレア領域として判別する(ステップS46)。
図17に示す例では、フレア領域と非フレア領域の判別に、IR画像の輝度と、IR画像とBW画像の輝度との間の相関値を利用したが、IR画像の輝度のみを利用してもかまわない。
第2奥行推定部111bは、BW画像、第1奥行情報、およびフレア領域(すなわち上述の領域の判別結果)を利用し、第2奥行情報を生成する。
上記実施の形態では、第2奥行情報の生成に、ガイデッドフィルタなどのフィルタを用いたが、学習モデルを用いて第2奥行情報を生成してもよい。
ここで、フレア検出部112は、フレア領域と非フレア領域の判別のために、時間方向の情報を利用してもかまわない。フレアは、被写体自体ではなく、被写体と光源101との関係によりIRカメラ102内部で生じる現象である。そのため、IRカメラ102が移動した場合、フレア領域の形状は変化する。そこで、フレア検出部112は、上述の手法によってIR画像からフレア領域の候補を検出し、その前のIR画像で検出されたフレア領域からその候補の形状が変化しているか否かを判定する。そして、フレア検出部112は、形状が変化していないと判定すると、その候補がフレア領域ではなく、非フレア領域であると判断してもよい。
まず、フレア検出部112は、対象フレームにフレア領域の候補が存在するか否かを判定する。つまり、フレア検出部112は、例えば上述の図16~図19に示すフローチャートに基づいて検出されるフレア領域が、最終的なフレア領域ではなく、フレア領域の候補として対象フレームに存在するか否かを判定する。なお、対象フレームは、判別対象とされるIR画像、すなわち、フレア領域の存在が判別されるIR画像である。
ここで、フレア検出部112は、対象フレームにフレア領域の候補が存在しない場合(ステップS51のNo)、その対象フレーム(すなわちIR画像)においてフレアは存在しないと判別する。
一方、フレア検出部112は、対象フレームにフレア領域の候補が存在する場合(ステップS51のYes)、対象フレームの前のフレームでもフレア領域が存在するかどうかを判定する。なお、対象フレームの前のフレームは、対象フレームの前にIRカメラ102による撮像によって取得されたIR画像である。
ここで、フレア検出部112は、対象フレームの前のフレームにフレア領域が存在しない場合(ステップS52のNo)、検出されたフレア領域の候補はフレアによって生じた領域、すなわちフレア領域であると判別する。
一方、フレア検出部112は、対象フレームの前のフレームにフレア領域が存在している場合(ステップS52のYes)、対象フレームのフレア領域の候補の形状と、その前のフレームのフレア領域の形状とを比較する。ここで、対象フレームのフレア領域の候補の形状と、その前のフレームのフレア領域の形状とが似ていた場合(ステップS53のYes)、フレア検出部112は、ステップS54の処理を実行する。つまり、フレア検出部112は、検出されたフレア領域の候補を非フレア領域に更新し、その対象フレーム(すなわちIR画像)においてフレアは存在しないと判別する。一方、対象フレームのフレア領域の候補の形状と、その前のフレームのフレア領域の形状とが似ていない場合(ステップS53のNo)、フレア検出部112は、ステップS55の処理を実行する。つまり、フレア検出部112は、検出されたフレア領域の候補はフレアによって生じた領域、すなわちフレア領域であると判別する。
上記実施の形態とその変形例1および2における奥行取得装置1は、IR画像とBW画像とを用いてフレア領域を検出するが、BW画像を用いなくてもよい。本変形例における奥行取得装置1は、複数のIR元画像を用いてフレア領域を検出する。複数のIR元画像は、例えば、図3に示す第1露光期間において得られる赤外画像と、第2露光期間において得られる赤外画像とである。
図23は、本変形例における奥行取得装置1の全体的な処理動作を示すフローチャートである。
まず、高輝度領域検出部116は、第1のIR元画像から高輝度領域を検出する。
第1エッジ検出部117IRは、第1のIR元画像にあるエッジを検出する。
第2エッジ検出部117BWは、BW画像の代わりに第2のIR元画像にあるエッジを検出する。
フレア検出部112は、第1のIR元画像の少なくとも1つの高輝度領域のそれぞれについて、その高輝度領域内のエッジと、第2のIR元画像の対応領域内のエッジとを比較することによって、IR画像内のフレア領域を検出する。つまり、フレア検出部112は、高輝度領域内のエッジと、第2のIR元画像の対応領域内のエッジとの間の相関値が第4閾値未満の場合に、その高輝度領域をフレア領域として検出する。これにより、IR画像は、少なくとも1つのフレア領域と、非フレア領域とに領域分割される。
第1奥行推定部111aは、例えばTOFを用いてIR画像から第1奥行情報を生成する。
第2奥行推定部111bは、IR画像の第1奥行情報とBW画像とに基づいて、フレア領域の奥行きを示す第2奥行情報を生成する。
出力部118は、その第1奥行情報によって示されるフレア領域の奥行きを、第2奥行情報によって示される奥行きに置き換えることによって、第3奥行情報を生成する。
まず、高輝度領域検出部116は、第1のIR元画像内の各位置での輝度が第5閾値以上であるか否かを判定する。ここで、第5閾値は、例えば第1のIR元画像が12ビット階調の画像であれば、1500程度であってもよい。もちろん、この第5閾値は、環境条件またはIRカメラ102の設定に応じて変化する値であってもよい。例えば、夜のような暗いシーンが撮像される場合、第1のIR元画像全体の輝度が低くなるため、第5閾値は、昼の明るいシーンが撮像される場合よりも、小さい値でもよい。また、IRカメラ102の露光時間が長い場合、第1のIR元画像全体の輝度が高くなるため、第5閾値は、露光時間が短い場合よりも、大きい値でもよい。
ここで、何れの位置での輝度も第5閾値以上ではないと判定すると(ステップS41aのNo)、高輝度領域検出部116は、その第1のIR元画像を用いて構成されるIR画像においてフレアは生じていないと判定する(ステップS42)。つまり、IR画像の全体が非フレア領域として判定される。
一方、何れかの位置での輝度が第5閾値以上であると判定すると(ステップS41aのYes)、高輝度領域検出部116は、第1のIR元画像を領域分割する。つまり、高輝度領域検出部116は、第1のIR元画像を、少なくとも1つの高輝度領域と、高輝度領域以外の領域とに分割する。この領域分割には、例えばSuperPixelなど、輝度による手法を利用してもよい。
次に、第1エッジ検出部117IRおよび第2エッジ検出部117BWは、第1のIR元画像および第2のIR元画像のそれぞれに対してエッジ検出を行う。エッジ検出には、Canny法またはSobelフィルタなどを利用してもよい。
フレア検出部112は、第1のIR元画像の少なくとも1つの高輝度領域のそれぞれについて、その高輝度領域内のエッジと、その高輝度領域に対応する第2のIR元画像の領域内のエッジとを比較する。つまり、フレア検出部112は、第1のIR元画像の高輝度領域内のエッジと、第2のIR元画像の対応領域内のエッジとの間の相関値が、第4閾値以上か否かを判定する。相関値は、第1のIR元画像と第2のIR元画像のそれぞれに対するエッジ検出によって出力された各値を、領域ごとにベクトル状に配列し、その内積値を正規化することで求められる。つまり、フレア検出部112は、第1のIR元画像の高輝度領域内のエッジ検出によって得られる複数の値からなるベクトルと、その高輝度領域に対応する第2のIR元画像の領域内のエッジ検出によって得られる複数の値からなるベクトルとの内積値を正規化する。これによって、高輝度領域に対する相関値が算出される。
ここで、相関値が第4閾値以上ではない、すなわち第4閾値未満と判定すると(ステップS45aのNo)、フレア検出部112は、その高輝度領域をフレア領域として判定する。つまり、フレアなどの影響で、第1のIR元画像内のフレアなどが生じている領域と、第2のIR元画像の対応領域との間ではエッジの相関がなくなっているため、フレア検出部112は、第1のIR元画像内のその高輝度領域をフレア領域として判別する。すなわち、フレア検出部112は、IR画像内のその高輝度領域をフレア領域として判別する。なお、IR画像内の高輝度領域は、第1のIR元画像内の高輝度領域と同一の領域である。
以上の説明では、フレア領域と非フレア領域の判別にエッジを利用したが、その判別にエッジを利用しなくてもかまわない。例えば、第1のIR元画像と第2のIR元画像のそれぞれの輝度そのものの相関値を利用してもよい。前述のように、フレアなどが生じていない場合、第1のIR元画像と第2のIR元画像とは強い相関を持つが、フレアなどが生じた領域では、相関が弱くなる。そこで、第1のIR元画像と第2のIR元画像のそれぞれの輝度の相関を利用することで、フレア領域を適切に判別することができる。
フレア検出部112は、ステップS45bでは、ステップS43aの領域分割によって得られた各高輝度領域について、その高輝度領域における各画素の輝度と、その高輝度領域に対応する第2のIR元画像の領域における各画素の輝度との間の相関値を計算する。相関値は、第1のIR元画像と第2のIR元画像のそれぞれの各画素の輝度を、領域ごとにベクトル状に配列し、その内積値を画素数で正規化することによって求められる。つまり、フレア検出部112は、第1のIR元画像の高輝度領域における各画素の輝度からなるベクトルと、第2のIR元画像の対応領域における各画素の輝度からなるベクトルとの内積値を正規化する。これによって、その高輝度領域に対する相関値が算出される。
もちろん、フレア領域と非フレア領域の判別のための評価値は相関値である必要はない。例えば、前述のハミング距離およびCENSUS変換を利用してもかまわない。
フレア検出部112は、ステップS44cでは、ステップS43aの領域分割によって得らえた各高輝度領域について、第1のIR元画像のうちのその高輝度領域の画像と、第2のIR元画像のうちの対応領域の画像とのそれぞれに対してCENSUS変換を行う。これにより、第1のIR元画像のうちのその高輝度領域の画像に対するCENSUS変換画像と、第2のIR元画像のうちの対応領域の画像に対するCENSUS変換画像とが生成される。
次に、フレア検出部112は、ステップS45cにおいて、ステップS44cで求めた第1のIR元画像のCENSUS変換画像と、第2のIR元画像のCENSUS変換画像との間のハミング距離を計算する。そして、フレア検出部112は、このハミング距離を高輝度領域の画素数で正規化した値が第6閾値以下の場合(ステップS45cのYes)、その高輝度領域ではフレアなどが生じていないと判別する(ステップS42a)。一方、正規化したハミング距離の値が第6閾値より大きい場合(ステップS45cのNo)、フレア検出部112は、フレアなどの影響で、その高輝度領域の画像においてテクスチャがなくなっていると判断する。その結果、フレア検出部112は、その高輝度領域をフレア領域として判別する(ステップS46a)。
10、101 光源
20 固体撮像素子
21 第1画素(IR)
22 第2画素(BW)
30 処理回路
50 拡散板
60 レンズ
70 バンドパスフィルタ
102 IRカメラ
103 BWカメラ
104 学習モデル
110 プロセッサ
111 奥行推定部
111a 第1奥行推定部
111b 第2奥行推定部
112 フレア検出部
113 発光タイミング取得部
114 IR画像取得部
115 BW画像取得部
116 高輝度領域検出部
117IR 第1エッジ検出部
117BW 第2エッジ検出部
118 出力部
200 メモリ
Claims (15)
- 光源から照射されて被写体によって反射された光を受光する撮像を行うことでIR画像を取得し、
前記被写体を可視光により撮像を行うことでBW画像を取得し、
前記IR画像および前記BW画像に基づいてフレア領域を検出する、
情報処理方法。 - 前記フレア領域の検出では、前記BW画像内の領域に対応する前記IR画像内の領域に基づいて、前記フレア領域を検出する、
請求項1に記載の情報処理方法。 - 前記フレア領域の検出では、前記BW画像内の領域に対応する前記IR画像内の領域の輝度に基づいて、前記フレア領域を検出する、
請求項1または2に記載の情報処理方法。 - 前記フレア領域の検出では、前記BW画像内の領域に対応する前記IR画像内の領域における輝度が閾値以上であることを検出する、
請求項3に記載の情報処理方法。 - 前記フレア領域の検出では、前記BW画像内の領域に対応する前記IR画像内の領域における輝度が閾値以上である場合、前記IR画像内の前記領域が前記フレア領域であることを検出する、
請求項4に記載の情報処理方法。 - 前記フレア領域の検出では、前記IR画像と、前記IR画像と同一のシーンの撮像によって生成された前記BW画像とに基づいて、前記フレア領域を検出する、
請求項1に記載の情報処理方法。 - 前記フレア領域の検出では、前記IR画像と、前記IR画像と同一の視点での撮像によって生成された前記BW画像に基づいて、前記フレア領域を検出する、
請求項1に記載の情報処理方法。 - 前記フレア領域の検出では、前記IR画像と、前記IR画像と同一の時刻での撮像によって生成された前記BW画像に基づいて、前記フレア領域を検出する、
請求項1に記載の情報処理方法。 - 前記IR画像の取得では、ToF(Time of Flight)を利用する、
請求項1に記載の情報処理方法。 - 前記フレア領域の検出では、
前記IR画像と前記BW画像とに基づいて、前記IR画像のうち、第1閾値以上の輝度を有し、かつ、予め定められた条件を満たす領域を、前記フレア領域として検出する、
請求項1に記載の情報処理方法。 - 前記予め定められた条件は、前記IR画像の領域内の画像特徴量と、前記領域に対応する前記BW画像の領域内の画像特徴量との間の相関値が、第2閾値未満となる条件である、
請求項10に記載の情報処理方法。 - 前記IR画像および前記BW画像のそれぞれの領域内の画像特徴量は、前記領域内の画像に含まれるエッジである、
請求項11に記載の情報処理方法。 - 前記IR画像および前記BW画像のそれぞれの領域内の画像特徴量は、前記領域内の輝度である、
請求項11に記載の情報処理方法。 - プロセッサと、
メモリとを備え、
前記プロセッサは、前記メモリを用いて、
光源から照射されて被写体によって反射された光を受光する撮像を行うことで生成されたIR画像を取得し、
前記被写体を可視光により撮像を行うことで生成されたBW画像を取得し、
前記IR画像および前記BW画像に基づいてフレア領域を検出する、
情報処理装置。 - 光源から照射されて被写体によって反射された光を受光する撮像を行うことで生成されたIR画像を取得し、
前記被写体を可視光により撮像を行うことで生成されたBW画像を取得し、
前記IR画像および前記BW画像に基づいてフレア領域を検出する、
ことをコンピュータに実行させるプログラム。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018174277 | 2018-09-18 | ||
| JP2018174277 | 2018-09-18 | ||
| JP2020548353A JP7262021B2 (ja) | 2018-09-18 | 2019-09-09 | 奥行取得装置、奥行取得方法およびプログラム |
| JP2023053739A JP7745176B2 (ja) | 2018-09-18 | 2023-03-29 | 撮像装置および撮像方法 |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023053739A Division JP7745176B2 (ja) | 2018-09-18 | 2023-03-29 | 撮像装置および撮像方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2025023015A true JP2025023015A (ja) | 2025-02-14 |
| JP2025023015A5 JP2025023015A5 (ja) | 2025-03-04 |
Family
ID=69887442
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020548353A Active JP7262021B2 (ja) | 2018-09-18 | 2019-09-09 | 奥行取得装置、奥行取得方法およびプログラム |
| JP2023053739A Active JP7745176B2 (ja) | 2018-09-18 | 2023-03-29 | 撮像装置および撮像方法 |
| JP2024205989A Pending JP2025023015A (ja) | 2018-09-18 | 2024-11-27 | 情報処理方法、情報処理装置、およびプログラム |
Family Applications Before (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020548353A Active JP7262021B2 (ja) | 2018-09-18 | 2019-09-09 | 奥行取得装置、奥行取得方法およびプログラム |
| JP2023053739A Active JP7745176B2 (ja) | 2018-09-18 | 2023-03-29 | 撮像装置および撮像方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (3) | US11636615B2 (ja) |
| EP (2) | EP4390835A3 (ja) |
| JP (3) | JP7262021B2 (ja) |
| CN (2) | CN112534474B (ja) |
| WO (1) | WO2020059565A1 (ja) |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110136183B (zh) * | 2018-02-09 | 2021-05-18 | 华为技术有限公司 | 一种图像处理的方法、装置以及摄像装置 |
| EP4390835A3 (en) * | 2018-09-18 | 2024-09-11 | Panasonic Intellectual Property Management Co., Ltd. | Depth acquisition device, depth acquisition method and program |
| CN113645890B (zh) * | 2019-03-28 | 2025-11-14 | 索尼集团公司 | 信号处理装置、信号处理方法、程序和医疗图像处理系统 |
| KR20210128803A (ko) | 2020-04-17 | 2021-10-27 | 삼성전자주식회사 | 다중 포토다이오드 센서에 의해 획득된 서브 이미지들의 차이에 기반하여 이미지의 결함을 검출하는 전자 장치 및 이의 동작 방법 |
| EP4149104A4 (en) * | 2020-05-08 | 2023-10-25 | Sony Semiconductor Solutions Corporation | ELECTRONIC DEVICE AND IMAGING DEVICE |
| CN114066785B (zh) * | 2020-07-31 | 2025-05-23 | 北京小米移动软件有限公司 | 图像处理方法及装置、终端和存储介质 |
| US11715195B2 (en) * | 2021-03-22 | 2023-08-01 | International Business Machines Corporation | Machine learning-based circuit board inspection |
| JP6966011B1 (ja) * | 2021-03-23 | 2021-11-10 | 株式会社リコー | 撮像装置、撮像方法および情報処理装置 |
| WO2022202775A1 (en) * | 2021-03-23 | 2022-09-29 | Ricoh Company, Ltd. | Imaging device, imaging method, and information processing device |
| CN113034915B (zh) * | 2021-03-29 | 2023-06-20 | 北京卓视智通科技有限责任公司 | 一种双光谱交通事件检测方法及装置 |
| US12393021B2 (en) * | 2021-03-31 | 2025-08-19 | Teledyne Flir Commercial Systems, Inc. | Optical components for ghost image suppression systems and methods |
| CN113222922B (zh) * | 2021-04-30 | 2024-02-27 | 杭州海康威视数字技术股份有限公司 | 红外爆闪灯补光范围检测方法、装置及设备 |
| CN113643244B (zh) * | 2021-07-23 | 2024-05-21 | 中国资源卫星应用中心 | 一种光学遥感卫星影像水体耀斑快速检测方法 |
| JP2023037966A (ja) * | 2021-09-06 | 2023-03-16 | 株式会社デンソー | フレア検出システム、フレア検出装置、フレア検出方法、フレア検出プログラム |
| DE112022005859T5 (de) * | 2021-12-09 | 2024-10-02 | Sony Group Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm |
| JP2024004277A (ja) * | 2022-06-28 | 2024-01-16 | 株式会社Soken | 物体検出装置及び車両制御システム |
| CN116523990A (zh) * | 2023-03-24 | 2023-08-01 | 北京鉴智科技有限公司 | 三维语义场景补全方法、设备和介质 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008116309A (ja) * | 2006-11-02 | 2008-05-22 | Fujifilm Corp | 距離画像生成方法及びその装置 |
| JP2011257956A (ja) * | 2010-06-08 | 2011-12-22 | Toyota Motor Corp | 周辺状況認識装置 |
| WO2012137434A1 (ja) * | 2011-04-07 | 2012-10-11 | パナソニック株式会社 | 立体撮像装置 |
| WO2014174765A1 (ja) * | 2013-04-26 | 2014-10-30 | コニカミノルタ株式会社 | 撮像装置および撮像方法 |
| WO2016158196A1 (ja) * | 2015-03-31 | 2016-10-06 | 富士フイルム株式会社 | 撮像装置及び撮像装置の画像処理方法及びプログラム |
| JP2016208470A (ja) * | 2015-04-28 | 2016-12-08 | 日立マクセル株式会社 | 撮像装置 |
| JP2017067503A (ja) * | 2015-09-28 | 2017-04-06 | 富士通株式会社 | 位置推定装置、位置推定方法、及び位置推定プログラム |
| WO2017159312A1 (ja) * | 2016-03-15 | 2017-09-21 | ソニー株式会社 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
| US20180309940A1 (en) * | 2014-12-04 | 2018-10-25 | Sony Corporation | Image processing apparatus, image processing method, and imaging system |
Family Cites Families (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0282876A (ja) | 1988-09-20 | 1990-03-23 | Sony Corp | カラーモード・赤外モード共用ビデオカメラ |
| EP1528797B1 (en) * | 2003-10-31 | 2015-07-08 | Canon Kabushiki Kaisha | Image processing apparatus, image-taking system and image processing method |
| US7808512B1 (en) * | 2006-12-19 | 2010-10-05 | Nvidia Corporation | Bounding region accumulation for graphics rendering |
| JP5448617B2 (ja) * | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
| JP5743390B2 (ja) | 2009-09-15 | 2015-07-01 | 本田技研工業株式会社 | 測距装置、及び測距方法 |
| JP2011103070A (ja) | 2009-11-11 | 2011-05-26 | Toyota Motor Corp | 夜間車両検知装置 |
| KR20120116329A (ko) * | 2010-02-20 | 2012-10-22 | 가부시키가이샤 니콘 | 광원 최적화 방법, 노광 방법, 디바이스 제조 방법, 프로그램, 노광 장치, 리소그래피 시스템, 광원 평가 방법 및 광원 변조 방법 |
| JP5539123B2 (ja) * | 2010-08-31 | 2014-07-02 | キヤノン株式会社 | 眼科撮影装置および眼科撮影装置を用いた撮影方法 |
| JP2012068762A (ja) * | 2010-09-21 | 2012-04-05 | Sony Corp | 検出装置、検出方法、プログラム、及び電子機器 |
| US9378542B2 (en) * | 2011-09-28 | 2016-06-28 | The United States Of America As Represented By The Secretary Of The Army | System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles |
| JP6008298B2 (ja) * | 2012-05-28 | 2016-10-19 | パナソニックIpマネジメント株式会社 | 画像処理装置、撮像装置、画像処理方法、およびプログラム |
| JP2015185947A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社東芝 | 撮像システム |
| JP2016004017A (ja) * | 2014-06-19 | 2016-01-12 | ダブル技研株式会社 | 情報取得装置及び画像処理方法 |
| JP6528193B2 (ja) | 2015-02-10 | 2019-06-12 | 任天堂株式会社 | 電子機器 |
| US9804667B2 (en) | 2015-02-10 | 2017-10-31 | Nintendo Co., Ltd. | Electronic apparatus |
| CN106296621B (zh) * | 2015-05-22 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置 |
| JP6624939B2 (ja) * | 2016-01-14 | 2019-12-25 | キヤノン株式会社 | 画像処理装置、撮像装置および画像処理プログラム |
| US9928592B2 (en) * | 2016-03-14 | 2018-03-27 | Sensors Unlimited, Inc. | Image-based signal detection for object metrology |
| KR20170107269A (ko) * | 2016-03-15 | 2017-09-25 | 한국전자통신연구원 | Rgbd 카메라의 깊이 영상 필터링 장치 및 방법 |
| US10841491B2 (en) * | 2016-03-16 | 2020-11-17 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
| CN113727000A (zh) | 2016-05-27 | 2021-11-30 | 松下知识产权经营株式会社 | 摄像系统 |
| US10712561B2 (en) * | 2016-11-04 | 2020-07-14 | Microsoft Technology Licensing, Llc | Interference mitigation via adaptive depth imaging |
| US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
| EP3610459A4 (en) * | 2017-04-14 | 2020-12-02 | Yang Liu | SYSTEM AND APPARATUS FOR CO-ALIGNMENT AND CORRELATION BETWEEN MULTIMODAL IMAGING AND ASSOCIATED PROCESS |
| US10791283B2 (en) * | 2017-09-01 | 2020-09-29 | Facebook Technologies, Llc | Imaging device based on lens assembly with embedded filter |
| US10607352B2 (en) * | 2018-05-17 | 2020-03-31 | Microsoft Technology Licensing, Llc | Reduced power operation of time-of-flight camera |
| TWI689892B (zh) * | 2018-05-18 | 2020-04-01 | 瑞昱半導體股份有限公司 | 基於前景影像的背景虛化方法與電子裝置 |
| US10848693B2 (en) * | 2018-07-18 | 2020-11-24 | Apple Inc. | Image flare detection using asymmetric pixels |
| US10382712B1 (en) * | 2018-08-01 | 2019-08-13 | Qualcomm Incorporated | Automatic removal of lens flares from images |
| EP4390835A3 (en) * | 2018-09-18 | 2024-09-11 | Panasonic Intellectual Property Management Co., Ltd. | Depth acquisition device, depth acquisition method and program |
| US11158074B1 (en) * | 2018-10-02 | 2021-10-26 | Facebook Technologies, Llc | Depth sensing using temporal coding |
-
2019
- 2019-09-09 EP EP24174928.2A patent/EP4390835A3/en active Pending
- 2019-09-09 JP JP2020548353A patent/JP7262021B2/ja active Active
- 2019-09-09 EP EP19861679.9A patent/EP3855395B1/en active Active
- 2019-09-09 CN CN201980050094.4A patent/CN112534474B/zh active Active
- 2019-09-09 CN CN202510498694.4A patent/CN120339355A/zh active Pending
- 2019-09-09 WO PCT/JP2019/035420 patent/WO2020059565A1/ja not_active Ceased
-
2021
- 2021-01-28 US US17/161,060 patent/US11636615B2/en active Active
-
2023
- 2023-03-09 US US18/119,443 patent/US12026904B2/en active Active
- 2023-03-29 JP JP2023053739A patent/JP7745176B2/ja active Active
-
2024
- 2024-05-20 US US18/668,586 patent/US12361579B2/en active Active
- 2024-11-27 JP JP2024205989A patent/JP2025023015A/ja active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008116309A (ja) * | 2006-11-02 | 2008-05-22 | Fujifilm Corp | 距離画像生成方法及びその装置 |
| JP2011257956A (ja) * | 2010-06-08 | 2011-12-22 | Toyota Motor Corp | 周辺状況認識装置 |
| WO2012137434A1 (ja) * | 2011-04-07 | 2012-10-11 | パナソニック株式会社 | 立体撮像装置 |
| WO2014174765A1 (ja) * | 2013-04-26 | 2014-10-30 | コニカミノルタ株式会社 | 撮像装置および撮像方法 |
| US20180309940A1 (en) * | 2014-12-04 | 2018-10-25 | Sony Corporation | Image processing apparatus, image processing method, and imaging system |
| WO2016158196A1 (ja) * | 2015-03-31 | 2016-10-06 | 富士フイルム株式会社 | 撮像装置及び撮像装置の画像処理方法及びプログラム |
| JP2016208470A (ja) * | 2015-04-28 | 2016-12-08 | 日立マクセル株式会社 | 撮像装置 |
| JP2017067503A (ja) * | 2015-09-28 | 2017-04-06 | 富士通株式会社 | 位置推定装置、位置推定方法、及び位置推定プログラム |
| WO2017159312A1 (ja) * | 2016-03-15 | 2017-09-21 | ソニー株式会社 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
Non-Patent Citations (2)
| Title |
|---|
| HAU NGO 等: "A Visibility Improvement System for Low Vision Drivers by Nonlinear Enhancement of Fused Visible an", 2005 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6025040242, 21 September 2005 (2005-09-21), US, ISSN: 0005703993 * |
| 鈴木 琢斗 等: "赤外線画像を用いた白飛び領域の明示 Clear Representation of an Overexposed Area by Using an Infrared", 映像情報メディア学会技術報告, vol. 41, no. 27, JPN6025040244, 25 August 2017 (2017-08-25), JP, pages 5 - 8, ISSN: 0005703992 * |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3855395B1 (en) | 2024-05-15 |
| US20230215029A1 (en) | 2023-07-06 |
| US11636615B2 (en) | 2023-04-25 |
| EP3855395A1 (en) | 2021-07-28 |
| JP7745176B2 (ja) | 2025-09-29 |
| CN120339355A (zh) | 2025-07-18 |
| US20210150742A1 (en) | 2021-05-20 |
| EP3855395A4 (en) | 2022-03-02 |
| US12026904B2 (en) | 2024-07-02 |
| JPWO2020059565A1 (ja) | 2021-09-16 |
| EP4390835A2 (en) | 2024-06-26 |
| EP4390835A3 (en) | 2024-09-11 |
| JP7262021B2 (ja) | 2023-04-21 |
| US12361579B2 (en) | 2025-07-15 |
| WO2020059565A1 (ja) | 2020-03-26 |
| JP2023100611A (ja) | 2023-07-19 |
| CN112534474B (zh) | 2025-05-09 |
| US20240303845A1 (en) | 2024-09-12 |
| CN112534474A (zh) | 2021-03-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7745176B2 (ja) | 撮像装置および撮像方法 | |
| JP7624611B2 (ja) | 撮像装置、情報処理装置、撮像方法およびプログラム | |
| JP6990859B2 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
| JP7507408B2 (ja) | 撮像装置、情報処理装置、撮像方法、およびプログラム | |
| KR102804944B1 (ko) | 디바이스 및 방법 | |
| US20190287272A1 (en) | Detection system and picturing filtering method thereof | |
| JP2020051991A (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
| JP6565513B2 (ja) | 色補正装置、色補正方法及び色補正用コンピュータプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241127 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250221 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250822 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251007 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251120 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20260113 |