[go: up one dir, main page]

JP7719037B2 - 画像処理方法、画像処理装置、プログラム - Google Patents

画像処理方法、画像処理装置、プログラム

Info

Publication number
JP7719037B2
JP7719037B2 JP2022108573A JP2022108573A JP7719037B2 JP 7719037 B2 JP7719037 B2 JP 7719037B2 JP 2022108573 A JP2022108573 A JP 2022108573A JP 2022108573 A JP2022108573 A JP 2022108573A JP 7719037 B2 JP7719037 B2 JP 7719037B2
Authority
JP
Japan
Prior art keywords
image
images
grayscale
image processing
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022108573A
Other languages
English (en)
Other versions
JP2024007231A (ja
JP2024007231A5 (ja
Inventor
良範 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022108573A priority Critical patent/JP7719037B2/ja
Priority to US18/345,968 priority patent/US20240013362A1/en
Priority to EP23183214.8A priority patent/EP4303806A1/en
Priority to CN202310823406.9A priority patent/CN117372442A/zh
Publication of JP2024007231A publication Critical patent/JP2024007231A/ja
Publication of JP2024007231A5 publication Critical patent/JP2024007231A5/ja
Priority to JP2025082524A priority patent/JP2025118908A/ja
Application granted granted Critical
Publication of JP7719037B2 publication Critical patent/JP7719037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習モデルを用いた画像処理に関する。
特許文献1では、RGBで表されるカラー画像をYUVに変換し、得られたY画像(輝度画像)の高周波成分の情報を機械学習モデルに入力することで、カラー画像の特徴を識別する画像処理方法が開示されている。特許文献1における画像処理方法では、入力画像に対してフィルタを何度も畳み込むことで出力画像を生成するConvolutional Neural Network(CNN)が機械学習モデルとして用いられている。また、特許文献1における画像処理方法では、縮小した輝度画像を入力画像とすることによってCNNでの演算量を低減し、処理の高速化を図っている。
特開2019-175107号公報
しかし、特許文献1における入力画像は縮小された輝度画像であり、縮小される前の輝度画像と比較して解像度が低い。したがって、特許文献1における画像処理方法では、高解像度な出力画像を得ることが困難である。
そこで、本発明は、機械学習モデルを用いた画像処理において、高解像度な出力画像を得ることを目的とする。
本発明の画像処理方法は、撮影により取得された第1のカラー画像に基づいて、第1のカラー画像よりも画素数が大きい第2のカラー画像を生成する画像処理方法であって、第1のカラー画像から第1のグレースケール画像を生成するステップと、第1のグレースケール画像を分割することで、第1のグレースケール画像に対して画素数が小さい複数の第2のグレースケール画像を生成するステップを有する。さらに、複数の第2のグレースケール画像と撮影におけるISO感度の情報とチャンネル方向に連結して機械学習モデルに入力することで、該複数の第2のグレースケール画像に対してアップスケールされた複数の第3のグレースケール画像を生成するステップと複数の第3のグレースケール画像に基づいて第2のカラー画像を生成するステップとを有し、ISO感度の情報は、画素ごとのISO感度を示すマップであることを特徴とする。
本発明によれば、機械学習モデルを用いた画像処理において、高解像度な出力画像を得ることができる。
実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 実施例1におけるニューラルネットワークのウエイトの学習方法を示す概念図である。 実施例1におけるニューラルネットワークのウエイトの学習に関するフローチャートである。 実施例1におけるニューラルネットワークを用いた出力画像の生成方法を示す概念図である。 実施例1におけるニューラルネットワークを用いた出力画像の生成に関するフローチャートである。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。 実施例2におけるニューラルネットワークを用いた出力画像の生成に関するフローチャートである。 実施例3における画像処理システムのブロック図である。 実施例3におけるニューラルネットワークを用いた出力画像の生成に関するフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
まず、実施形態の具体的な説明を行う前に、本実施形態の要旨を説明する。本実施形態は、機械学習モデルを用いて輝度画像(グレースケール画像)をアップスケールする。本実施形態において、画像の拡大及び高解像度化を行う画像処理をアップスケールと称する。本実施例における機械学習モデルは、ニューラルネットワークを用いた学習を行うことで生成される。ニューラルネットワークは、画像に対して畳み込むフィルタ及び足し合わせるバイアス、非線形変換を行う活性化関数を用いる。フィルタ及びバイアスは、ウエイトと呼ばれ、訓練画像及び正解画像を用いて学習(更新)される。本実施形態では、グレースケールで表される画像を訓練画像及び正解画像として用いて機械学習モデルの学習を行う。
本実施形態の画像処理方法は、第1のグレースケール画像を分割することで、第1のグレースケール画像に対して解像度が低い複数の第2のグレースケール画像を生成するステップを有する。さらに、複数の第2のグレースケール画像を機械学習モデルに入力することで、アップスケールされた複数の第3のグレースケール画像を生成する推定ステップとを有することを特徴とする。
本実施形態において、機械学習モデルへの入力画像は、グレースケール画像を可逆的に分割することによって、元のグレースケール画像に対して縮小したグレースケール画像である。グレースケール画像から入力画像を生成する際に、複数枚に分割することによって可逆的に元のグレースケール画像を縮小できる。したがって、縮小に伴う情報の損失を低減することができるため、高精度な推定画像(出力画像)を得ることができる。また、入力画像は、カラー画像よりも情報量(チャンネル数)の少ないグレースケール画像を縮小した画像であるため、画像処理における演算を減らすことができ、画像処理を高速化できることも本実施形態の特徴の1つである。
なお、上記の画像処理方法は一例であり、本発明はこれに限定されるものではない。その他の画像処理方法などの詳細は以下の実施例に述べる。
[実施例1]
まず、本発明の実施例1における画像処理システム100に関して説明する。本実施例に係る画像処理システム100は、機械学習モデルを用いて画像をアップスケールする画像処理を学習、実行させる。
図1は、本実施例における画像処理システム100のブロック図である。図2は、画像処理システム100の外観図である。画像処理システム100は、学習装置101、撮像装置102、画像推定装置103、表示装置104、記録媒体105、入力装置106、出力装置107、及びネットワーク108を有する。
学習装置101は、記憶部(記憶手段)101a、取得部(取得手段)101b、生成部(生成手段)101c、分割部(分割手段)101d、学習部(学習手段)101eを有する。
撮像装置102は、光学系102aと撮像素子102bを有する。光学系102aは、被写体空間から撮像装置102へ入射した光を集光する。撮像素子102bは、光学系102aを介して形成された被写体の光学像を受光して撮像画像20を取得する。撮像素子102bは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal-Oxide Semiconductor)センサなどである。
撮像装置102は、得られた画像を後述する画像推定装置(画像処理装置)103の取得部103bへ送信する。なお、必要に応じて、撮像装置102は撮像画像20と共に撮像画像20に対応する撮影条件を送信してもよい。撮影条件は、光学系102aと撮像素子102bを用いて撮像画像20を取得する際の撮像の条件である。例えば撮像素子102bの画素ピッチ、光学系102aの光学ローパスフィルタの種類、ISO感度が含まれる。また、撮影条件は、撮像装置102おける未現像のRAW画像から撮像画像20を取得する際の現像の条件でもよい。例えば、ノイズ除去強度、シャープネス強度、画像圧縮率が含まれる。本実施例において現像は、RAW画像をJPEG(Joint Photographic Experts Group)やTIFF(Tag Image File Format)などの画像ファイルに変換する処理である。
なお、撮像装置102における取得した画像を保存する記憶部、表示する表示部、外部に送信する送信部、外部の記憶媒体に保存させる出力部及び撮像装置102の各部を制御する制御部は不図示である。
画像推定装置103は、記憶部(記憶手段)103a、取得部(取得手段)103b、生成部(生成手段)103c、分割部(分割手段)103d、処理部(推定手段)103eを有し、取得した撮像画像20に対して画像処理を行い、出力画像を生成する。
取得部103bは、撮像画像20を取得する。なお、必要に応じて、取得部103bは、撮像画像20と共に撮像画像20に対応する撮影条件を取得(受信)してもよい。
生成部103cは、取得した撮像画像20をYUV変換することで、Y画像(輝度画像)及び複数の色差画像(第1の色差画像)を抽出する。輝度画像は、輝度値の情報を単色の濃淡のみで表すグレースケール画像である。色差画像は、それぞれYUV変換後のU及びVの情報を有する画像である。YUV変換の詳細に関しては後述する。
分割部103dは、得られた輝度画像を分割(変形)することで輝度画像を縮小する。
処理部103eは、縮小された輝度画像(入力画像)を拡大及び高解像度化する画像処理を行うことで推定画像(出力画像)を生成する。なお、処理部103eは、取得部103bにて取得された撮影条件を用いて画像処理を行ってもよい。例えば機械学習モデルの学習の際に入力画像に加え、撮像素子の画素ピッチ、光学ローパスフィルタの種類、及び画像圧縮率を用いることによって、訓練画像に対応する正解画像がそれぞれ異なる任意の撮像装置で取得された画像でも画像処理を行うことができる。撮影条件を用いた画像処理に関しての詳細は後述する。なお、撮像画像20は、撮像装置102で撮像された画像でもよいし、記録媒体105に保存された画像でもよい。さらに撮像画像20として例えば赤外画像や距離画像など初めからグレースケールで表される画像を用いてもよい。
本実施例における画像処理は、ニューラルネットワークを使用する。ニューラルネットワークにおけるウエイトの情報は、学習装置101で学習されたものである。画像推定装置103は、ネットワーク108を介して記憶部101aからウエイトの情報を読み出し、記憶部103aに保存している。保存されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。なお、ウエイトの学習及びウエイトを用いた画像処理に関しての詳細は、後述する。画像推定装置103は、必要に応じて現像処理やその他の画像処理を行う機能を有する。
出力画像は、表示装置104、記録媒体105、出力装置107の少なくとも1つに出力される。表示装置104は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置104を介して処理途中の画像を確認し、入力装置106を介して画像編集作業などを行うことができる。記録媒体105は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバ等である。入力装置106は、例えばキーボードやマウスなどである。出力装置107は、例えばプリンタなどである。また、画像推定装置103は、カラー化の処理を行った画像を表示や出力させてもよい。なお、カラー化の処理に関しては、後述する。
次に、図3及び図4を参照して、本実施例における学習装置101により実行されるウエイトの学習方法(学習済みモデルの製造方法)に関して説明する。図3は、ニューラルネットワークのウエイトの学習(更新)を示す概念図である。また、図4は、ニューラルネットワークの学習に関するフローチャートである。本実施例において、ニューラルネットワークは、Convolutional Neural Network(CNN)30を用いる。なお、本実施例はこれに限定されるものではなく、例えばGenerative Adversarial Network(GAN)、Recurrent Neural Network(RNN)を用いてもよい。
本実施例においてCNN30のウエイトの学習(更新)は、ミニバッチ学習を用いて行う。ミニバッチ学習では、複数の正解画像と、それらに対応する推定画像との誤差を求め、ウエイトを更新する。誤差関数(Loss function)には、例えばL2ノルムやL1ノルムなどを用いることができる。ただし実施例は、これに限定されるものではなく、オンライン学習またはバッチ学習を用いてもよい。
畳み込み層CNは、CNN30へ入力された情報にフィルタの畳み込む演算を行い、入力された情報とバイアスとの和を算出する。さらに、畳み込み層CNは、得られた演算の結果を活性化関数に基づいて非線形変換する。なお、フィルタの各成分とバイアスの初期値は任意であり、本実施例では乱数によって決定する。また、活性化関数は、例えばReLU(Rectified Linear Unit)やシグモイド関数などを用いてもよい。最終層を除く各々の畳み込み層CNは、特徴マップを出力する。本実施例において特徴マップは4次元配列であり、バッチ、縦、横及びチャンネルの次元を持つ。
スキップコネクションSCは、連続していない層から出力された特徴マップを合成する。本実施例において特徴マップは、要素ごとの和を求める方法を用いて合成される。なお、特徴マップは、チャンネル方向に連結(concatenation)することで合成されてもよい。
ピクセルシャッフルPS(Pixel Shuffle)は、特徴マップを拡大する方法である。本実施例では、出力層に近い層において低解像度の特徴マップを拡大することで高解像度の特徴マップにしている。なお、特徴マップの拡大は、例えば、逆畳み込み(DeconvolutionまたはTransposed Convolution)を用いてもよい。
残差ブロックRB(Residual Block)は、複数の畳込み層CNをまとめた要素(ブロックまたはモジュール)である。より高精度な学習を行うために、残差ネットワークと呼ばれる残差ブロックを多層化したネットワークを用いて学習を行ってもよい。なお、本実施例において、多層化したネットワークには残差ネットワークを用いたが、これに限定されるものではない。例えばインセプションモジュール(Inception Module)、デンスブロック(Dense Block)などの要素を用いて多層化しネットワークを構成してもよい。
必要に応じて、畳み込み層CNでは、入力層に近い層で特徴マップを縮小及び出力層に近い層で特徴マップを拡大し、中間層での特徴マップのサイズを小さくすることで処理負荷を軽減させてもよい。ここで、特徴マップの縮小には、プーリング(Pooling)やストライド(Stride)などを使用することができる。また、特徴マップの拡大には、逆畳み込み、ピクセルシャッフル、補間などを用いることができる。
次に、ニューラルネットワークの学習に関するフローチャートついて説明する。図4の各ステップは、主に、取得部101b、生成部101c、分割部101d、学習部101eにより実行される。
まずステップS101(取得ステップ)において、取得部101bは第1の正解パッチ10(第1の正解画像)及び第1の訓練パッチ11(第1の訓練画像)を取得する。第1の正解パッチ10及び第1の訓練パッチ11は、少なくとも輝度情報を含むグレースケール画像である。本実施例において第1の正解パッチ10は、第1の訓練パッチ11に対して画像サイズが大きくかつ高解像度であり、第1の訓練パッチ11と同一の被写体が写っている。また、パッチとは既定の画素数を有する画像である。例えば第1の訓練パッチ11は128×128×1画素、対応する第1の正解パッチ10は256×256×1画素などである。なお、バッチの倍率は縦横それぞれに2倍に限らず、第1の訓練パッチ11と対応する第1の正解パッチ10が取得できれば何倍でもよい。本実施例では、第1の訓練パッチ11と対応する第1の正解パッチ10は数値計算により生成しているが、本発明はこれに限定されるものではない。例えば第1の訓練パッチ11と対応する第1の正解パッチ10は、同一被写体を焦点距離が異なる光学系で撮像し、得られる2枚の画像の対応箇所を切り取ることで取得してもよい。または、第1の正解パッチ10をダウンサンプリングによって解像度を低下させ、第1の訓練パッチ11を生成してもよい。さらに第1の正解パッチ10及び第1の訓練パッチ11は、それぞれカラーパッチをYUV変換して得られる輝度パッチ(グレースケール画像)を用いてもよい。カラーパッチをYUV変換することで輝度バッチ及び複数の色差パッチを生成することができる。カラーパッチから輝度パッチ及び複数の色差パッチの生成は以下の式に従って行う。しかし、本実施例はこれに限定されるものではなく、その他の定義式を用いてもよい。
[数1]
Y=0.299R+0.587G+0.114B
U=-0.14713R-0.28886G+0.436B
V=0.615R-0.54199G-0.10001B
上記の式は、色空間RGBから色空間YUVへの変換に用いる式である。色空間RGBは、それぞれRed、Green、Blueの3つのカラーチャンネルを用いて表される。一方で、YUVは、輝度チャンネル(Y)と、2つの色差チャンネル(U及びV)を用いて表現される。
なお、本実施例において取得部101bは、グレースケールで表される第1の正解パッチ10及び第1の訓練パッチ11を取得するが、取得部101bにおいて複数のカラーチャンネルを有する訓練カラーパッチ及び正解カラーパッチを取得してもよい。その場合、生成部101cは、正解カラーパッチ及び訓練カラーパッチから数式1に従って第1の正解パッチ10及び第1の訓練パッチ11を生成する。なお、第1の正解パッチ10及び第1の訓練パッチ11は、何れか一方のみがカラーパッチから生成され、かつもう片方が輝度パッチとして取得部101bに取得されてもよい。
続いてステップS102(分割ステップ)において、分割部101dは、第1の訓練パッチ11を分割することで複数の第2の訓練パッチ12(第2の訓練画像)を生成する。複数の第2の訓練パッチ12は、分割に伴い情報が失われない可逆的な変形によって生成される。本実施例において、第2の訓練パッチ12は、第1の訓練パッチ11の縦方向に1画素、横方向に1画素おきに抽出した画素値を空間(縦及び横)方向に配置することで生成する。このとき、チャンネル(深さ)方向に1枚の第1の訓練パッチ11からチャンネル方向に4枚の第2の訓練パッチ12を生成することができる。また、1枚ごとの第2の訓練パッチ12は、第1の訓練パッチ11に対して、縦横のサイズの少なくとも一方が小さく、解像度が低い。さらに可逆的に変形しているため、複数の第2の訓練パッチ12の画素数の和は、第1の訓練パッチ11の画素数と等しい。
なお、本実施例において第1の訓練パッチ11は、同数の画素数を有する4枚の第2の訓練パッチ12に4等分にされているがこれに限定されるものではなく、少なくとも第1の訓練パッチ11及び複数の第2の訓練パッチ12が可逆的に変換されていればよい。例えば複数の第2の訓練パッチ12はそれぞれ異なる画素数を有していてもよく、4枚ではなく2枚上の任意の枚数の第2の訓練パッチ12を生成してもよい。さらには、離散ウエーブレット変換により多重解像度解析して得られる周波数成分を用いてもよい。
このようにグレースケールで表される第1の訓練パッチ11を可逆的に変形し、空間方向に縮小された複数の第2の訓練パッチ12をCNN30への入力画像とすることによって、CNN30での演算量を低減することができる。さらに複数の第2の訓練パッチ12は、第1の訓練パッチ11の分割に伴い情報が失われないため、高精度に画像処理を行うことができる。
なお、ステップS102において、分割部101dは、第1の訓練パッチ11と同様に第1の正解パッチ10を分割することで複数の第2の正解パッチ14(第2の正解画像)を生成する。また、分割部101dは、複数の第2の訓練パッチ12と共に撮影条件をCNN30へ入力するため、取得部103bにて取得した撮影条件に基づいて画素ごとに撮影条件を有する画像(マップ)に変換してもよい。
続いてステップS103(推定ステップ)において、学習部101eは、CNN30(機械学習モデル)を用いて、分割した第2の訓練パッチ12を画像処理することで、複数の推定パッチ13(推定画像)を生成する。複数の推定パッチ13は、CNN30により得られた推定画像であり、理想的には対応する複数の第2の正解パッチ14のそれぞれと一致する。また、学習部101eは、画素ごとに撮影条件を有する画像を複数の第2の訓練パッチ12のチャンネル方向に連結することで、撮影条件をCNN30へ入力することができる。画素ごとに撮影条件を有する画像を、第2の訓練パッチ12と共にCNN30に入力した場合、学習部101eは、アップスケールに加えて撮影条件に基づいた画像処理を行い複数の推定パッチ13を生成する。
続いてステップS104(更新ステップ)において、学習部101eは、推定パッチ13及び第2の正解パッチ14との誤差(Loss)に基づいてCNN30のウエイトを更新する。ここで、ウエイトは、各層のフィルタの成分とバイアスを含む。本実施例では、ウエイトの更新には誤差逆伝搬法(Backpropagation)を使用するが、これに限定されるものではない。例えば勾配降下法を用いてもよい。
続いてステップS105において、学習部101eは、ウエイトの学習が完了したか否かを判定する。完了は、学習(ウエイトの更新)の反復回数が規定値に達したか、または、更新時のウエイトの変化量が規定値より小さいかなどにより判定することができる。未完と判定された場合、ステップS101へ戻り、新たな第1の訓練パッチ11と対応する第1の正解パッチ10を取得する。一方、完了と判定された場合、学習装置101は学習を終了し、ウエイトの情報を記憶部101aに保存する。
次に、図5及び図6を参照して、本実施例における出力画像の生成に関して説明する。図5は、ニューラルネットワークの出力画像の生成を示す概念図である。また、図6は、ニューラルネットワークを用いた出力画像の生成に関するフローチャートである。図6の各ステップは、主に、画像推定装置(画像処理装置)103の取得部103b、生成部103c、分割部103d、処理部103eにより実行される。
まずステップS201(取得ステップ)において、取得部103bは、撮像画像20(第1のカラー画像)を取得する。撮像画像20は、学習と同様に少なくとも輝度情報を含む画像である。本実施例において撮像画像20は、撮像装置102から送信されたカラー画像であるが、本発明はこれに限定されるものではない。例えば記憶部103aに保存された画像であってもよく、さらに輝度情報のみを単色の濃淡だけで表すグレースケール画像でもよい。なお、撮像画像20と共に撮像画像20に対応する撮影条件を取得して以降の工程で用いてもよい。
続いてステップS202(生成ステップ)において、生成部103cは、取得した撮像画像20をYUV変換することで、Y画像(輝度画像)及び複数の色差画像(第1の色差画像)を抽出する。輝度画像は、撮像画像20の輝度情報のみを単色の濃淡だけで表す第1のグレースケール画像21である。また複数の色差画像は、撮像画像20の色差に関する情報を有する複数の色差画像22(第1の色差画像)である。撮像画像20からY画像及び複数の色差画像の生成は、数式1に従って行うことができる。
続いてステップS203(分割ステップ)において、分割部103dは、第1のグレースケール画像21を分割することで、複数の第2のグレースケール画像23に分割する。このとき、複数の第2のグレースケール画像23は、分割に伴い情報が失われない可逆的な分割によって生成される。したがって、1枚ごとの第2のグレースケール画像23は、第1のグレースケール画像21に対して、縦横のサイズの少なくとも一方が小さく、解像度が低い。さらに可逆的に変形しているため、第2のグレースケール画像23の画素数の和は、第1のグレースケール画像21の画素数と等しい。また、複数の第2のグレースケール画像は互いに同じ画素数(解像度)であることが好ましい。複数の第2のグレースケール画像が互いに同じ画素数である場合、複数の第2のグレースケール画像に対するそれぞれの演算量が同じになるため、後述する推定ステップでの演算を効率化することができる。なお、第1のグレースケール画像21の分割方法は、ステップS102の第1の訓練パッチ11の変形方法と同様であるため、説明を省略する。
続いてステップS204(推定ステップ)において、処理部103eはCNN30を用いて画像処理を行うことで、複数の第2のグレースケール画像23から複数の第1の推定画像24(第3のグレースケール画像)を生成する。なお、複数の第1の推定画像24の生成に使用されるウエイト情報は、学習装置101から送信されて記憶部103aに保存されたものであり、図3と同様のニューラルネットワークである。
必要に応じて、ステップS205(結合ステップ)において、処理部103eは、複数の第1の推定画像24に対してさらに画像処理を行ってもよい。例えば複数の第1の推定画像24を結合(合成)することで第2の推定画像25(第4のグレースケール画像)を生成することができる。このとき、ステップS203において、第1のグレースケール画像21を複数の第2のグレースケール画像23に変形した方法の逆操作によって、複数の第1の推定画像24から第2の推定画像25を生成する。つまり本実施例において処理部103eは、複数の第1の推定画像24を空間方向に足し合わせることによって第2の推定画像25を生成することができる。このとき、第2の推定画像25の画素数は複数の第1の推定画像24の画素数の和と等しい。したがって、機械学習モデルへの入力画像として第1のグレースケール画像21を縮小した複数の第2のグレースケール画像23を用いることによって、同じ倍率にアップスケールする場合、カラー画像を入力画像とするよりも演算量を低減することができる。なお、複数の第1の推定画像24を結合した第2の推定画像25を生成した場合、画像推定装置103は、第2の推定画像25を出力画像としてもよい。
さらに、ステップS206(カラー化ステップ)において、処理部103eは第2の推定画像25をカラー化する画像処理を行ってもよい。このとき、第2の推定画像25及びステップS202において生成された複数の色差画像22に基づいてカラー化を行い、推定カラー画像26(第2のカラー画像)を生成する。推定カラー画像26は、撮像画像20をアップスケールした画像である。なお、本実施例において輝度画像のカラー化は、数式2に従って行う。
[数2]
R=Y+1.13983V
G=Y-0.39465U-0.58060V
B=Y+2.03211U
上記の式は、色空間YUVから色空間RGBへの変換に用いる式である。数式2は、数式1に従って行う色空間RGBから色空間YUVの変換の逆操作である。なお、カラー画像から輝度画像の生成方法としてその他の定義式を用いた場合は、輝度画像からカラー画像の生成方法としてその逆操作を用いる必要がある。なお、第2の推定画像25をカラー化した推定カラー画像26を生成した場合、画像推定装置103は、推定カラー画像26を出力画像としてもよい。
さらに、処理部103eは、推定カラー画像26の生成のために、複数の色差補間画像27(第2の色差画像)を用いてもよい。複数の色差補間画像27は、高解像度化するため、複数の色差画像22のそれぞれを補間することで生成される(補間ステップ)。なお、色差画像22から色差補間画像27の生成する方法はこれに限定されず、例えばバイナリ法及びバイキュービック法を用いて行われてもよく、また機械学習モデルを用いた方法でもよい。このとき、複数の色差補間画像27のそれぞれは、第2の推定画像25と同じ解像度(画素数)であることが好ましい。第2の推定画像25と同じ解像度の複数の色差補間画像27を用いて第2の推定画像25をカラー化することで、カラー化によるノイズを低減でき、より高精度な推定カラー画像26を得られる。
本実施例ではステップS201において撮像画像20を取得し、S202において撮像画像20から生成した第1のグレースケール画像21をステップS203以降で出力画像を生成する方法を説明した。しかし、ステップS201において、取得部103bが、初めからグレースケールで表される画像(例えば赤外画像や距離画像)を取得した場合は、ステップS201及びS202を実行せずにステップS203以降のステップを実行すればよい。その場合は、撮像画像20の色差に関する情報がないため、第2の推定画像25をカラー化することはできない。
本実施例において、学習装置101及び画像推定装置103は、別の装置である場合を例に説明したが、本発明はこれに限定されない。学習装置101と画像推定装置103は一体であってもよい。つまり、単一の装置内において学習の処理及び推定の処理を行ってもよい。
以上の構成により、本実施例によれば、機械学習モデルを用いた画像処理において可逆的な分割によって縮小されたグレースケール画像を入力画像とすることで、高解像度な出力画像を得る画像処理システムを提供することができる。
[実施例2]
次に、本発明の実施例2における画像処理システム200に関して説明する。本実施例に係る画像処理システム200は、機械学習モデルを用いて画像をアップスケールする画像処理を学習、実行させる。
本実施例の画像処理システム200は、撮像装置202が撮像画像20を取得し、画像処理する点で、実施例1と異なる。
図7は、本実施例における画像処理システム200のブロック図である。図8は、画像処理システム200の外観図である。画像処理システム200は、ネットワーク203を介して接続された学習装置201と撮像装置202を有する。なお、学習装置201と撮像装置202は、ネットワーク203を介して常に接続されている必要はない。
学習装置201は、記憶部(記憶手段)211、取得部(取得手段)212、生成部(生成手段)213、分割部(分割手段)214、学習部(学習手段)215を有する。これらを用いて、撮像画像20をアップスケールするため、ニューラルネットワークのウエイトを学習(更新)する。なお、ニューラルネットワークのウエイトの情報は、学習装置201で事前に学習され、記憶部211に保存されている。学習装置201で実行されるニューラルネットワークのウエイトの学習(更新)方法は実施例1と同様であるため、説明を省略する。
撮像装置202は、光学系221、撮像素子222、画像推定部223、記憶部224、記録媒体225a、表示部225b、入力部226、システムコントローラ227を有する。撮像装置202は被写体空間を撮像して撮像画像20を取得し、出力画像を生成する。撮像装置202における、光学系221及び撮像素子222は、実施例1と同様であるため、説明を省略する。また、撮像装置202は、記憶部211からネットワーク203を介してウエイトの情報を読み出し、記憶部224に保存する。
画像推定部223は、取得部223aと生成部223b、分割部223c、処理部223dを有する。取得部223aは、撮像装置202から撮像画像20及び撮像画像20に対応する撮影条件を取得する。生成部223b、分割部223cは、実施例1の生成部103c、分割部103dと同様である。取得部223aが取得した撮像画像20を記憶部224に保存されたウエイトの情報に基づいて画像処理を行い、出力画像を生成する。本実施例において処理部223dは、画像処理に撮像画像20に対応する撮影条件を用いる。
記録媒体225aは、出力画像を保存される。入力部226を介してユーザから推定画像の表示に関する指示が出された場合、保存された出力画像が読み出され、表示部225bに表示される。なお、画像推定部223は、記録媒体225aに保存された撮像画像20及び撮影条件を読み出して、出力画像を生成する処理を行ってもよい。システムコントローラ227は、撮像装置202で行われる処理の制御を行う。
次に、本実施例における出力画像の生成に関して説明する。図9は、本実施例におけるニューラルネットワークを用いた出力画像の生成に関するフローチャートである。第2の推定画像25の生成における各ステップは、主に、画像推定部223の取得部223a(取得手段)、生成部(生成手段)223b、分割部(分割手段)223c、処理部(推定手段)223dにより実行される。
まずステップS301(取得ステップ)において、取得部223aは、撮像画像20及び撮像画像20に対応する撮影条件を取得する。なお、本実施例において撮像画像20は、カラー画像であり、撮像装置202によって取得されて記憶部224に保存されたものである。ステップS302(生成ステップ)及びステップS303(分割ステップ)は、実施例1のステップS202及びステップS203と同様であるため、説明を省略する。
続いてステップS304(推定ステップ)において、処理部223dは、ニューラルネットワークを用いて画像処理を行うことで、複数の第2のグレースケール画像23から複数の推定画像(第3のグレースケール画像)24を生成する。なお、推定画像の生成に使用されるウエイト情報は、学習装置101から送信されて記憶部103aに保存されたものであり、図3と同様のニューラルネットワークである。本実施例において、処理部223dは、複数の第1の推定画像24に加え、撮影条件としてISO感度を用いて画像処理を行う。ISO感度は、センサの光の感じやすさを表す撮影条件であり、ISO感度が高い場合画像にノイズが出やすくなる。撮影条件としてISO感度を用いることで、ISO感度が高い撮像画像20をアップスケールする際にノイズを過剰に強調しないよう画像処理を行うことができる。
なお、撮影条件はISO感度に限定されず、例えば撮影条件としてノイズ除去強度を用いてもよく、撮像画像20のノイズ除去強度が弱い(撮像画像20が高周波成分を多く含む)場合、出力画像の高周波成分が少なくなるよう画像処理を行う。また、撮影条件としてシャープネス強度を用いてもよく、撮像画像20のシャープネス強度が強い(撮像画像20が高周波成分を多く含む)場合、出力画像の高周波成分が過剰とならないよう画像処理を行う。さらに、撮影条件として画像圧縮率を用いてもよく、撮像画像20の画像圧縮率が高い(撮像画像20の高周波成分が失われている)場合、出力画像の高周波成分を補うよう画像処理を行う。
続いてステップS305(処理ステップ)において、処理部223dは、複数の第1の推定画像24の結合及びカラー化を行い、出力画像を生成する。なお、結合及びカラー化の方法については、実施例1と同様であるため、説明を省略する。
以上の構成により、本実施例によれば、機械学習モデルを用いた画像処理において可逆的な変形によって縮小されたグレースケール画像を入力画像とすることで、高解像度な出力画像を得る画像処理システムを提供することができる。なお、本実施例では、縮小されたグレースケール画像と共に撮影条件を機械学習モデルに入力することで、より高精度に画像処理を行うことができる。
[実施例3]
次に、本発明の実施例3における画像処理システム300に関して説明する。本実施例に係る画像処理システム300は、機械学習モデルを用いての画像をアップスケールする画像処理を学習、実行させる。
本実施例の画像処理システム300は、撮像装置302から撮像画像20を取得し、画像推定装置(画像処理装置)303に撮像画像20に対する画像処理に関する要求を行う制御装置304を有する点で実施例1と異なる。
図10は、本実施例における画像処理システム300のブロック図である。画像処理システム300は、学習装置301、撮像装置302、画像推定装置303、制御装置304を有する。本実施例において学習装置301及び画像推定装置303はサーバでもよい。制御装置304は、例えばパーソナルコンピュータ若しくはスマートフォンのようなユーザ端末である。制御装置304はネットワーク305を介して画像推定装置303に接続されている。画像推定装置303はネットワーク306を介して学習装置301に接続されている。つまり、制御装置304及び画像推定装置303並びに画像推定装置303及び学習装置301は互いに通信可能に構成されている。
画像処理システム300における学習装置301及び撮像装置302は、それぞれ学習装置101及び撮像装置102と同様の構成のため説明を省略する。
画像推定装置303は、記憶部303a、取得部(取得手段)303b、生成部(生成手段)303c、分割部(分割手段)303d、処理部(推定手段)303e、通信部(受信手段)303fを有する。画像推定装置303における記憶部303a、取得部303b、生成部303c、分割部303d、処理部303eは、それぞれ記憶部103a、取得部103b、生成部103c、分割部103d、処理部103eと同様である。
制御装置304は、通信部(送信手段)304a、表示部(表示手段)304b、入力部(入力手段)304c、処理部(処理手段)304d、記録部304eを有する。通信部304aは、撮像画像20に対する処理を画像推定装置303に実行させるための要求を画像推定装置303に送信することができる。また、画像推定装置303によって処理された出力画像を受信することができる。なお、通信部304aは、撮像装置302と通信を行ってもよい。表示部304bは、種々の情報を表示する。表示部304bによって表示される種々の情報は、例えば画像推定装置303に送信する撮像画像20若しくは画像推定装置303から受信した出力画像を含む。入力部304cは、ユーザから画像処理を開始する指示などを入力できる。処理部304dは、画像推定装置303から受信した出力画像に対してカラー化を含む画像処理を施すことができる。記録部304eは、撮像装置302から取得した撮像画像20、画像推定装置303から受信した出力画像を保存する。
なお、処理対象である撮像画像20を画像推定装置303に送信する方法は問わず、例えば撮像画像20はS401と同時に画像推定装置303にアップロードされてもよいし、S401以前に画像推定装置403にアップロードされていてもよい。また、撮像画像20は画像推定装置303とは異なるサーバ上に保存された画像でもよい。
次に、本実施例における出力画像の生成に関して説明する。図11は、本実施例におけるニューラルネットワークを用いた出力画像の生成に関するフローチャートである。
制御装置304の動作について説明する。本実施例における画像処理は、制御装置304を介してユーザにより画像処理開始の指示によって処理が開始される。
まずステップS401(第1の送信ステップ)において、通信部304aは撮像画像20に対する処理の要求を画像推定装置303へ送信する。なお、ステップS401において、制御装置304は撮像画像20に対する処理の要求と共に、ユーザを認証するIDや、撮像画像20に対応する撮影条件などを送信してもよい。
続いて、ステップS402(第1の受信ステップ)において、通信部304aは推定装置303によって生成された出力画像を受信する。
次に、画像推定装置403の動作について説明する。まずステップS501において、通信部303fは通信部304aから送信された撮像画像20に対する処理の要求を受信する。画像推定装置303は、撮像画像20に対する処理が指示を受けることによって、ステップS502以降の処理を実行する。
続いてステップS502において、取得部303bは、撮像画像20を取得する。本実施例において、撮像画像20は制御装置304から送信されたものである。このとき、撮像画像20と共に、撮像画像20に対応する撮影条件を取得してもよい。なお、ステップS501及びステップS502の処理は同時に行われてもよい。ステップS503乃至S505は、ステップS202乃至S204と同様であるため、説明を省略する。
続いてステップS506において、画像推定装置303は出力画像を制御装置304へ送信する。なお、画像推定装置303が送信する出力画像は、複数の第1の推定画像24、複数の第1の推定画像24から生成した第2の推定画像25、推定カラー画像26のうち何れかを含む。
以上の構成により、本実施例によれば、機械学習モデルを用いた画像処理において可逆的な変形によって縮小されたグレースケール画像を入力画像とすることで、高解像度な出力画像を得る画像処理システムを提供することができる。なお、本実施例において制御装置304は特定の画像に対する処理を要求するのみである。実際の画像処理は画像推定装置303によって行われる。このため、制御装置304をユーザ端末とすれば、ユーザ端末による処理負荷を低減することが可能となる。したがって、ユーザ側は低い処理負荷で出力画像を得ることが可能となる。
[その他の実施例]
本実施例は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、機械学習モデルを用いた画像処理において、高解像度な出力画像を得ることが可能な画像処理方法、画像処理装置、プログラム、及び記憶媒体を提供することができる。画像処理装置は本実施例の画像処理機能を有する装置であれば足り、撮像装置やパーソナルコンピュータの形態で実現され得る。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
[方法1]
第1のグレースケール画像を分割することで、前記第1のグレースケール画像よりも解像度が低い複数の第2のグレースケール画像を生成するステップと、
前記複数の第2のグレースケール画像を機械学習モデルに入力することで、アップスケールされた複数の第3のグレースケール画像を生成するステップとを有することを特徴とする画像処理方法。
[方法2]
前記複数の第2のグレースケール画像のそれぞれの解像度は、互いに同じであることを特徴とする方法1に記載の画像処理方法。
[方法3]
前記複数の第3のグレースケール画像を互いに結合することで、第4のグレースケール画像を生成するステップをさらに有することを特徴とする方法1又は2の何れか一項に記載の画像処理方法。
[方法4]
前記第4のグレースケール画像の画素数と前記複数の第3のグレースケール画像の画素数の合計とが等しいことを特徴とする方法3に記載の画像処理方法。
[方法5]
第1のカラー画像から前記第1のグレースケール画像及び複数の第1の色差画像を生成するステップと、
前記第4のグレースケール画像及び前記複数の第1の色差画像に基づいて第2のカラー画像を生成するステップとをさらに有することを特徴とする方法3に記載の画像処理方法。
[方法6]
前記複数の第1の色差画像を補間することで複数の第2の色差画像を生成するステップをさらに有し、
前記第4のグレースケール画像及び前記複数の第2の色差画像に基づいて前記第2のカラー画像を生成することを特徴とする方法5に記載の画像処理方法。
[方法7]
前記複数の第2の色差画像のそれぞれの解像度は、前記第4のグレースケール画像の解像度と同じであることを特徴とする方法6に記載の画像処理方法。
[方法8]
前記第1のグレースケール画像は、光学系及び撮像素子を用いた撮影により取得され、
前記複数の第3のグレースケール画像を生成するステップは、前記複数の第2のグレースケール画像及び前記撮影における撮影条件を機械学習モデルに入力することで、アップスケールされた前記複数の第3のグレースケール画像を生成することを特徴とする方法1乃至4の何れか一項に記載の画像処理方法。
[方法9]
前記第1のカラー画像は、光学系及び撮像素子を用いた撮影により取得され、
前記複数の第3のグレースケール画像を生成するステップは、前記複数の第2のグレースケール画像及び前記撮影における撮影条件を機械学習モデルに入力することで、アップスケールされた前記複数の第3のグレースケール画像を生成することを特徴とする方法5乃至7の何れか一項に記載の画像処理方法。
[方法10]
前記撮影条件は、前記撮像素子の画素ピッチ、前記光学系の光学ローパスフィルタの種類、ISO感度のうち少なくとも一つを含むであることを特徴とする方法8又は9の何れか一項に記載の画像処理方法。
[方法11]
前記撮影条件は、ノイズ除去強度、シャープネス強度、画像圧縮率のうち少なくとも一つを含むであることを特徴とする方法8又は9の何れか一項に記載の画像処理方法。
[プログラム12]
方法1乃至11の何れか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
[構成13]
プログラム12に記載のプログラムを記憶していることを特徴とする記憶媒体。
[構成14]
第1のグレースケール画像を分割することで、前記第1のグレースケール画像に対して解像度が低い複数の第2のグレースケール画像を生成する分割部と、
前記複数の第2のグレースケール画像を機械学習モデルに入力することで、アップスケールされた複数の第3のグレースケール画像を生成する処理部とを有することを特徴とする画像処理装置。
[構成15]
第1の訓練画像及び第1の正解画像を取得する取得部と、
前記第1の訓練画像及び前記第1の正解画像を分割することで、前記第1の訓練画像に対して解像度が低い複数の第2の訓練画像と前記第1の正解画像に対して解像度が低い複数の第2の正解画像とを生成する分割部と、
前記複数の第2の訓練画像を機械学習モデルに入力することで、アップスケールされた複数の推定画像を生成する処理部と、
前記複数の推定画像及び前記複数の第2の正解画像に基づいてニューラルネットワークのウエイトを更新する学習部とを有することを特徴とする学習装置。
[方法16]
第1の訓練画像及び第1の正解画像を取得するステップと、
前記第1の訓練画像及び前記第1の正解画像を分割することで、前記第1の訓練画像に対して解像度が低い複数の第2の訓練画像と前記第1の正解画像に対して解像度が低い複数の第2の正解画像とを生成するステップと、
前記複数の第2の訓練画像を機械学習モデルに入力することで、アップスケールされた複数の推定画像を生成するステップと、
前記複数の推定画像及び前記複数の第2の正解画像に基づいてニューラルネットワークのウエイトを更新するステップとを有することを特徴とする学習済みモデルの製造方法。
[プログラム17]
方法16に記載の学習済みモデルの製造方法をコンピュータに実行させることを特徴とするプログラム。
[構成18]
撮像装置及び前記撮像装置と互いに通信可能な学習装置を含む画像処理システムであって、
前記学習装置は、第1の訓練画像及び第1の正解画像を取得する取得部と、
前記第1の訓練画像及び前記第1の正解画像を分割することで、前記第1の訓練画像に対して解像度が低い複数の第2の訓練画像と前記第1の正解画像に対して解像度が低い複数の第2の正解画像とを生成する分割部と、
前記複数の第2の訓練画像を機械学習モデルに入力することで、アップスケールされた複数の推定画像を生成する処理部と、
前記複数の推定画像及び前記複数の第2の正解画像に基づいてニューラルネットワークのウエイトを更新する学習部とを有し、
前記撮像装置は、光学系、撮像素子、画像推定部を有し、
前記画像推定部は、第1のグレースケール画像を取得する手段と、
第1のグレースケール画像を分割することで、前記第1のグレースケール画像に対して解像度が低い複数の第2のグレースケール画像を生成する手段と、
前記複数の第2のグレースケール画像に基づいて前記複数の第2のグレースケール画像をアップスケールした複数の第3のグレースケール画像を生成する手段と備えることを特徴とする画像処理システム。
[構成19]
制御装置及び前記制御装置と互いに通信可能な画像処理装置を含む画像処理システムであって、
前記制御装置は、撮像画像に対する処理を前記画像処理装置に実行させるための要求を送信する手段を有し、
前記画像処理装置は、
前記要求を受信する手段と、
前記撮像画像を取得する手段と、
前記撮像画像から複数の第1のグレースケール画像を生成する手段と、
前記複数の第1のグレースケール画像を機械学習モデルに入力することで、アップスケールされた複数の第2のグレースケール画像を生成する手段とを有することを特徴とする画像処理システム。
21 第1のグレースケール画像
23 第2のグレースケール画像
24 第3のグレースケール画像

Claims (19)

  1. 撮影により取得された第1のカラー画像に基づいて、該第1のカラー画像よりも画素数が大きい第2のカラー画像を生成する画像処理方法であって、
    前記第1のカラー画像から第1のグレースケール画像を生成するステップと、
    前記第1のグレースケール画像を分割することで、該第1のグレースケール画像よりも画素数が小さい複数の第2のグレースケール画像を生成するステップと、
    前記複数の第2のグレースケール画像と前記撮影におけるISO感度の情報とチャンネル方向に連結して機械学習モデルに入力することで、該複数の第2のグレースケール画像に対してアップスケールされた複数の第3のグレースケール画像を生成するステップと、
    前記複数の第3のグレースケール画像に基づいて前記第2のカラー画像を生成するステップとを有し、
    前記ISO感度の情報は、画素ごとのISO感度を示すマップであることを特徴とする画像処理方法。
  2. 前記複数の第2のグレースケール画像のそれぞれの画素数は、互いに同じであることを特徴とする請求項1に記載の画像処理方法。
  3. 前記複数の第3のグレースケール画像を互いに結合することで、第4のグレースケール画像を生成するステップをさらに有することを特徴とする請求項1に記載の画像処理方法。
  4. 前記第4のグレースケール画像の画素数と前記複数の第3のグレースケール画像の画素数の合計とが等しいことを特徴とする請求項3に記載の画像処理方法。
  5. 前記第1のカラー画像から前記第1のグレースケール画像及び複数の第1の色差画像を生成するステップと、
    前記第2のカラー画像は、前記第4のグレースケール画像及び前記複数の第1の色差画像に基づいて生成されることを特徴とする請求項3に記載の画像処理方法。
  6. 前記複数の第1の色差画像をアップスケールすることで複数の第2の色差画像を生成するステップをさらに有し、
    前記第2のカラー画像は、前記第4のグレースケール画像及び前記複数の第2の色差画像に基づいて生成されることを特徴とする請求項5に記載の画像処理方法。
  7. 前記複数の第2の色差画像のそれぞれの画素数は、前記第4のグレースケール画像の画素数と同じであることを特徴とする請求項6に記載の画像処理方法。
  8. 前記第1のグレースケール画像は、輝度画像であることを特徴とする請求項1乃至7の何れか一項に記載の画像処理方法。
  9. 前記第1のカラー画像は、光学系及び撮像素子を用いた撮影により取得され、
    前記複数の第3のグレースケール画像を生成するステップにおいて、前記複数の第2のグレースケール画像と、前記ISO感度と、前記撮影における撮影条件とを機械学習モデルに入力することで前記複数の第3グレースケール画像を生成することを特徴とする請求項1乃至7の何れか一項に記載の画像処理方法。
  10. 前記撮影条件は、前記撮像素子の画素ピッチ、前記光学系の光学ローパスフィルタの種類のうち少なくとも一つを含むことを特徴とする請求項9に記載の画像処理方法。
  11. 前記撮影条件は、ノイズ除去強度、シャープネス強度、画像圧縮率のうち少なくとも一つを含むことを特徴とする請求項9に記載の画像処理方法。
  12. 前記第1のグレースケール画像は、色差画像であることを特徴とする請求項1乃至7の何れか一項に記載の画像処理方法。
  13. 請求項1乃至7の何れか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  14. 請求項13に記載のプログラムを記憶していることを特徴とする記憶媒体。
  15. 撮影により取得された第1のカラー画像に基づいて、該第1のカラー画像よりも画素数が大きい第2のカラー画像を生成する画像処理装置であって、
    前記第1のカラー画像から第1のグレースケール画像を生成する手段と、
    前記第1のグレースケール画像を分割することで、該第1のグレースケール画像に対して画素数が小さい複数の第2のグレースケール画像を生成する手段と、
    前記複数の第2のグレースケール画像と前記撮影におけるISO感度の情報とチャンネル方向に連結して機械学習モデルに入力することで、該複数の第2のグレースケール画像に対してアップスケールされた複数の第3のグレースケール画像を生成する手段と、
    前記複数の第3のグレースケール画像に基づいて前記第2のカラー画像を生成する手段とを有し、
    前記ISO感度の情報は、画素ごとのISO感度を示すマップであることを特徴とする画像処理装置。
  16. 第1の訓練画像及び第1の正解画像を取得する取得部と、
    前記第1の訓練画像及び前記第1の正解画像を分割することで、前記第1の訓練画像に対して画素数が小さい複数の第2の訓練画像と前記第1の正解画像に対して画素数が小さい複数の第2の正解画像とを生成する分割部と、
    前記複数の第2の訓練画像と前記第1の訓練画像に対応するISO感度の情報とチャンネル方向に連結して機械学習モデルに入力することで、該複数の第2の訓練画像に対してアップスケールされた複数の推定画像を生成する処理部と、
    前記複数の推定画像及び前記複数の第2の正解画像に基づいて機械学習モデルのウエイトを更新する学習部とを有し、
    前記ISO感度の情報は、画素ごとのISO感度を示すマップであることを特徴とする学習装置。
  17. 第1の訓練画像及び第1の正解画像を取得するステップと、
    前記第1の訓練画像及び前記第1の正解画像を分割することで、前記第1の訓練画像に対して画素数が小さい複数の第2の訓練画像と前記第1の正解画像に対して画素数が小さい複数の第2の正解画像とを生成するステップと、
    前記複数の第2の訓練画像と前記第1の訓練画像に対応するISO感度の情報とチャンネル方向に連結して機械学習モデルに入力することで、該複数の第2の訓練画像に対してアップスケールされた複数の推定画像を生成するステップと、
    前記複数の推定画像及び前記複数の第2の正解画像に基づいて機械学習モデルのウエイトを更新するステップとを有し、
    前記ISO感度の情報は、画素ごとのISO感度を示すマップであることを特徴とする学習済みモデルの生成方法。
  18. 請求項17に記載の学習済みモデルの生成方法をコンピュータに実行させることを特徴とするプログラム。
  19. 請求項15に記載の画像処理装置と、該画像処理装置と互いに通信可能な制御装置とを含む画像処理システムであって、
    前記制御装置は、撮像画像に対する処理を前記画像処理装置に実行させるための要求を送信する手段を有し、
    前記画像処理装置は、前記要求を受信する受信手段を有し、該要求に応じて前記第2のカラー画像を生成する手段とを有することを特徴とする画像処理システム。
JP2022108573A 2022-07-05 2022-07-05 画像処理方法、画像処理装置、プログラム Active JP7719037B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022108573A JP7719037B2 (ja) 2022-07-05 2022-07-05 画像処理方法、画像処理装置、プログラム
US18/345,968 US20240013362A1 (en) 2022-07-05 2023-06-30 Image processing method, image processing apparatus, learning apparatus, manufacturing method of learned model, and storage medium
EP23183214.8A EP4303806A1 (en) 2022-07-05 2023-07-04 Image processing method, image processing apparatus, learning apparatus, manufacturing method of learned model, program, and storage medium
CN202310823406.9A CN117372442A (zh) 2022-07-05 2023-07-05 图像处理方法、图像处理装置、学习装置、经学习的模型的制造方法、以及存储介质
JP2025082524A JP2025118908A (ja) 2022-07-05 2025-05-16 画像処理方法、画像処理装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022108573A JP7719037B2 (ja) 2022-07-05 2022-07-05 画像処理方法、画像処理装置、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025082524A Division JP2025118908A (ja) 2022-07-05 2025-05-16 画像処理方法、画像処理装置、プログラム

Publications (3)

Publication Number Publication Date
JP2024007231A JP2024007231A (ja) 2024-01-18
JP2024007231A5 JP2024007231A5 (ja) 2024-04-11
JP7719037B2 true JP7719037B2 (ja) 2025-08-05

Family

ID=87074610

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022108573A Active JP7719037B2 (ja) 2022-07-05 2022-07-05 画像処理方法、画像処理装置、プログラム
JP2025082524A Pending JP2025118908A (ja) 2022-07-05 2025-05-16 画像処理方法、画像処理装置、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025082524A Pending JP2025118908A (ja) 2022-07-05 2025-05-16 画像処理方法、画像処理装置、プログラム

Country Status (4)

Country Link
US (1) US20240013362A1 (ja)
EP (1) EP4303806A1 (ja)
JP (2) JP7719037B2 (ja)
CN (1) CN117372442A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010073074A (ja) 2008-09-22 2010-04-02 Hitachi Ltd 画像信号処理装置、画像表示装置、録画再生装置、画像信号処理方法
WO2019043525A1 (ja) 2017-09-04 2019-03-07 株式会社半導体エネルギー研究所 画像処理方法および半導体装置、ならびに電子機器
JP2020102012A (ja) 2018-12-21 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2020166596A1 (ja) 2019-02-13 2020-08-20 株式会社ラディウス・ファイブ 画像処理システム及びプログラム
JP2021090129A (ja) 2019-12-03 2021-06-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190182419A1 (en) * 2016-03-31 2019-06-13 Nikon Corporation Imaging device, image processing device, and electronic apparatus
JP7119493B2 (ja) 2018-03-28 2022-08-17 沖電気工業株式会社 認識装置、認識方法およびプログラム
CN110648375B (zh) * 2018-06-26 2023-07-07 微软技术许可有限责任公司 基于参考信息的图像彩色化
JP7297470B2 (ja) * 2019-03-05 2023-06-26 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010073074A (ja) 2008-09-22 2010-04-02 Hitachi Ltd 画像信号処理装置、画像表示装置、録画再生装置、画像信号処理方法
WO2019043525A1 (ja) 2017-09-04 2019-03-07 株式会社半導体エネルギー研究所 画像処理方法および半導体装置、ならびに電子機器
JP2020102012A (ja) 2018-12-21 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2020166596A1 (ja) 2019-02-13 2020-08-20 株式会社ラディウス・ファイブ 画像処理システム及びプログラム
JP2021090129A (ja) 2019-12-03 2021-06-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
CN117372442A (zh) 2024-01-09
US20240013362A1 (en) 2024-01-11
JP2024007231A (ja) 2024-01-18
EP4303806A1 (en) 2024-01-10
JP2025118908A (ja) 2025-08-13

Similar Documents

Publication Publication Date Title
AU2018346909B2 (en) Image signal processor for processing images
JP2020144489A (ja) 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および、画像処理システム
JP7297470B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP2022046219A (ja) 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム
JP2022056769A (ja) 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、学習方法、学習装置、および、画像処理システム
JP2019139713A (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記憶媒体
US20240087086A1 (en) Image processing method, image processing apparatus, program, trained machine learning model production method, processing apparatus, and image processing system
US20110032269A1 (en) Automatically Resizing Demosaicked Full-Color Images Using Edge-Orientation Maps Formed In The Demosaicking Process
CN115004220B (zh) 用于原始低光图像增强的神经网络
JP7719037B2 (ja) 画像処理方法、画像処理装置、プログラム
JP2024013652A (ja) 画像処理方法、画像処理装置、プログラム
JP2024057751A (ja) 画像処理方法、画像処理装置、及びプログラム
JPWO2015083499A1 (ja) 画像処理装置、該方法および該プログラム
JP7757197B2 (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2025094329A (ja) 学習方法、学習装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
JPWO2015083502A1 (ja) 画像処理装置、該方法および該プログラム
JP2025078591A (ja) 画像処理方法、画像処理装置、画像処理システム、撮像装置、学習方法、学習装置、およびプログラム
US20250148573A1 (en) Image processing method, image processing apparatus, image processing system, image pickup apparatus, learning method, learning apparatus, and memory
JP2026005396A (ja) 画像処理方法、画像処理装置、及びプログラム
CN118632138B (zh) 一种图像传感器的数据处理方法及系统
JP2021039524A (ja) 画像処理方法、画像処理装置、画像処理システム、プログラム、および、学習済みモデルの製造方法
JP2021096747A (ja) 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム
JP2013005363A (ja) 撮像装置
JP2025171750A (ja) 画像処理方法、画像処理装置、画像処理システム、及びプログラム
JP2025137084A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240403

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20250218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250724

R150 Certificate of patent or registration of utility model

Ref document number: 7719037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150